Libro de Actas DRT4ALL 2013

Transcripción

Libro de Actas DRT4ALL 2013
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de
Investigación y Tecnología para todos
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
© Fundación ONCE para la Cooperación e Inclusión Social de las Personas con Discapacidad. 2013. Edita: Fundación ONCE para la Cooperación e Inclusión Social de las Personas con Discapacidad. Supervisión de la Edición por el Comité Científico Jesús Hernández Galán. David Zanoletty García. Jaime López Krahe. Alejandro Rodríguez Ascaso. Daniel Guasch Murillo. Mari Satur Torre Calero. Miguel Angel Valero Duboy. Julio Abascal Gozález. Alberto Jardón Huete. Jesús González Boticario. Director de Accesibilidad Universal de Fundación ONCE. Jefe del Departamento de Tecnologías Accesibles e I+D de Fundación ONCE. Catedrático de la Facultad de Matemáticas, Informática y Tecnologías de la Universidad de París 8. Grupo de Investigación aDeNu, Departamento de Inteligencia Artificial, Escuela Técnica Superior de Ingeniería Informática, Universidad Nacional de Educación a Distancia (UNED). Director Académico de la Cátedra de Accesibilidad, Arquitectura, Diseño y Tecnología para Todos de la Universidad Politécnica de Cataluña. Manager de Innovación, Fundación Vodafone España. Departamento de Ingeniería y Arquitecturas Telemáticas (DIATEL) de la Universidad Politécnica de Madrid. Laboratorio de Interacción Persona‐Computador para Necesidades Especiales, Universidad del País Vasco / Euskal Herriko Unibertsitatea (UPV /EHU). Profesor Ayudante Doctor, Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid. Director del Grupo de Investigación aDeNu, Departamento de Inteligencia Artificial,
Escuela Técnica Superior de Ingeniería Informática, Universidad Nacional de
Educación a Distancia (UNED).
Comité de Revisores Alain Pruski. Avril Accolla. Catedràtico de la universidad Paul Verlaine de Metz (Francia) Vicepresidenta Design for all Italia y Vicepresidenta EIDD Design for All Europe. Toni Granollers. Grupo de Investigación en Interacción Persona‐Ordenador e Integración de Datos (GRIHO), Universidad de Lleida. Alberto Jardón Huete. Profesor Visitante, Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid. David Zanoletty García. Jefe del Departamento de Tecnologías Accesibles e I+D de Fundación ONCE. Jaime López Krahe. Catedrático de la Facultad de Matemáticas, Informática y Tecnologías de la Universidad de París 8. Alejandro Rodríguez Ascaso Grupo de Investigación aDeNu, Departamento de Inteligencia Artificial, Escuela Técnica Superior de Ingeniería Informática, Universidad Nacional de Educación a Distancia (UNED). Daniel Guasch Murillo Director Académico de la Cátedra de Accesibilidad, Arquitectura, Diseño y Tecnología para Todos de la Universidad Politécnica de Cataluña. Mari Satur Torre Calero. Manager de Innovación, Fundación Vodafone España. Miguel Angel Valero Duboy Departamento de Ingeniería y Arquitecturas Telemáticas (DIATEL) de la Universidad Politécnica de Madrid. Julio Abascal Gozález. Laboratorio de Interacción Persona‐Computador para Necesidades Especiales, Universidad del País Vasco / Euskal Herriko Unibertsitatea (UPV /EHU). Lourdes González Perea. Gerente de Tecnologías Accesibles e Innovación de Technosite, Grupo Fundosa. 1
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Ricardo Vergaz Benito. José Ramón Hilera González. Anton Civit. Luis M. Bascones. Pere Ponsa Asensio. Jaisiel Madrid‐Sanchez. Antonio Jiménez Lara. Manuel Ortega Moral. Natalí González Villariny. Juan Bautista Montalvá Colomer. Juan González Victores. Santiago Morante Cendrero. Profesor Titular del Departamento de Tecnología Electrónica, Grupo GDAF‐UC3M, Grupo de Displays y Aplicaciones Fotónicas, de la Universidad Carlos III de Madrid. Coordinador del proyecto europeo “Educación Superior Virtual Inclusiva en América Latina” (ESVIAL), Universidad de Alcalá. Dpto. Arquitectura y Tecnología de Computadotres. ETSI Informática. Universidad de Sevilla. Consultor experto, Departamento de Estudios e Investigación Social, Unidad de Tecnologías Accesibles e I+D+i, Technosite, Grupo Fundosa. Profesor del Departamento de Ingeniería de sistemas, automática e informática industrial, Universidad Politécnica Catalunya. Emprendedor Social. Experto‐colaborador Centro de Iniciativa Emprendedora e Innovación ‐ IESE. Business School. Sociólogo. R&D Manager ‐ Technosite. Técnico proyecto Amóvil, experta en accesibilidad de dispositivos móviles. Investigador del Grupo Life Supporting Technologies del Departamento de Tecnología Fotónica y Bioingeniería de la Universidad Politécnica de Madrid. Profesor del Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid (UC3M). Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid (UC3M). Depósito Legal: M-24962-2013
ISBN: 978-84-88934-24-6
2
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Índice General
Libro de Actas DRT4ALL 2013
“Give me the Red Can”: Assistive Robot Task Creation through Multi-Modal Interaction
Juan G. Victores, Santiago Morante, Alberto Jardón and Carlos Balaguer ............................................................................................................................4
A Smart Walker to Improve the Gait of People with Disabilities and Elderlies
Teodiano Bastos, Carlos Valadão, Carlos Cifuentes, Anselmo Frizera and Ricardo Carelli .................................................................................................12
Sistema de Sustitución Sensorial para Comunicación en Sordo-Ciegos Basado en Servicio Web
Albano Carrera, Alonso Alonso, Ramón de la Rosa, Roberto Morago y Juan Pablo de Castro ............................................................................................21
Recommendations for ensuring a satisfactory user experience for visually impaired students in Distance Higher Education Institutions
Pablo Rebaque-Rivas, Eva P. Gil-Rodríguez and Llorenç Sabaté-Jardí ................................................................................................................................29
Proyecto DEDOS. Herramientas para el diseño y uso de actividades educativas en mesas multicontacto
Alberto Sánchez Alonso, David Roldán Álvarez, Estefanía Martín Barroso, Mª Luisa Berdud Murillo, Manuel García-Herranz y Pablo A. Haya ...........35
Apps Builder para Móviles Android: ¿Se pueden crear Aplicaciones Móviles de Forma Fácil y Accesible con un Lector de Pantalla?
Halena Rojas Valduciel ..........................................................................................................................................................................................................40
Comunicador Táctil: Comunicación para Sordociegos
Antonio Bermúdez Cabra, Juan Miguel Castellano García, Juan Ramón Jiménez García, Chelo Sacristán Aragón, Eugenio Romero Rey y Beatriz
Arregui Noguer........................................................................................................................................................................................................................48
Estudio de la Eficiencia y Optimización del Subtitulado para Sordos. Método de Pequerrecho Subtitulación
Pequerrecho Subtitulación ...................................................................................................................................................................................................52
Efficency and Optimization Study of the Subtitles for the Hard of Hearing. The Method of Pequerrecho Subtitulación
Pequerrecho Subtitulación ......................................................................................................................................................................................................59
Desarrollo e implementación de un Proceso de evaluación de conductores con movilidad reducida en miembros superiores
para el manejo de vehículos automóviles
Juan C. Chicote, Manuel Romero y Juan F. Dols ...................................................................................................................................................................66
INTERAGAMES: Control accesible de videojuegos para Xbox 360, PS3, Wii y PC
David Conde, Raúl Suárez, Gemma Hornero, Marcos Quílez, Sergio Domingo, Maria Rodríguez, Borja Romero y Oscar Casas ......................................69
Audesc Mobile: la audiodescripción en dispositivos móviles
Alberto Delgado García, María Jesús Varela Méndez, Guillermo Abel Hermida Simil y Rafael Selma Cordero .................................................................78
Prevención de riesgos domiciliarios a través del estudio de hábitos de vida La tecnología domiciliaria, una herramienta en favor de la
autonomía personal
Domingo García Fernández-Caro y Lluís Sánchez Rissech ...................................................................................................................................................83
Medios de pago para todos: TPV accesible
Begoña Pino, Mª Dolores Sánchez y Zaida Sancha ................................................................................................................................................................90
Means of payment for all: accessible POS
Begoña Pino, Mª Dolores Sánchez and Zaida Sancha ............................................................................................................................................................93
Evaluación de una plataforma de estimulación cognitiva multiparticipante y basada en dispositivos táctiles
Víctor Peláez, Sonia García, Roberto González, Luis Ángel San Martín, Vanesa Lobato, Enrique Pérez y Mieria Tofiño ..................................................96
Panorámica de la audiodescripción en los canales TDT en España
Francisco José González León, Juan Manuel Carrero Leal, Mercedes de Castro Álvarez y Belén Ruiz Mezcua ....................................................................105
PaSOS: Protocolo de Comunicaciones entre los Terminales de Teleasistencia Móvil y los Centros de Atención
Julián Andújar Pérez, Ana Arroyo Hernández, Estíbaliz Ochoa Mendoza y Carlos Capataz Gordillo ................................................................................112
Realidad Virtual Aplicada en Rehabilitación: la Wii™ como Herramienta de Terapia Ocupacional en Personas con Lesión Medular
Marta Pérez Seco, Belén Gómez Saldaña y Almudena Redondo Sastre ..............................................................................................................................117
An Innovative Solution Based on Human-Computer Interaction to Support Cognitive Rehabilitation
José M. Cogollor, Matteo Pastorino, Javier Rojo, Alessio Fioravanti, Alan Wing, Maria Teresa Arredondo, Manuel Ferre, Jose Breñosa, Joachim
Hermsdörfer, Javier De Teresa, Clare Walton, Andrew Worthington and Christos Giachritsis ..........................................................................................125
Metodología de Estudio del Aprendizaje de Niños con Parálisis Cerebral en el Uso de un Ratón por Movimientos de Cabeza
M. A. Velasco, R. Raya, R. Ceres, R. Sola, J. Jiménez y S. Morata ....................................................................................................................................133
Hécate: Sistema integral de gestión de accesibilidad global y de consulta e información ciudadana
Z. Valero Ramón y G. Ramiro Sala .....................................................................................................................................................................................137
Accesibilidad a los servicios telemáticos para todos los ciudadanos
Yolanda Hernández y Miguel Ángel Valero ........................................................................................................................................................................145
El Sistema ECCA: “un diseño para tod@s”
Sonia María Jorge García .....................................................................................................................................................................................................150
Development of a P300-based Brain Computer Interface to Assist Severe Disabled People
Rebeca Corralejo Palacios, Luis Fernando Nicolás Alonso, Daniel Álvarez González and Roberto Hornero Sánchez ......................................................157
DAI Virtual Lab: a Virtual Laboratory for Testing Ambient Intelligence Digital Services
Francisco Javier Ferrández-Pastor, Juan Manuel García-Chamizo, Mario Nieto-Hidalgo and Francisco Flórez-Revuelta ................................................163
Architecture for Adding Context-Aware Capabilities to Preferences-Oriented User Interfaces
Andrés Iglesias-Pérez, Ignacio Peinado, Jonathan Chacón, Manuel Ortega-Moral and Alberto Delgado García ...............................................................170
Comportamiento de un sistema activo de soporte y estabilización de marcha en procesos de rehabilitación
Eloy Urendes, Ramón Ceres, José L. Pons y Magdo Bortole ..............................................................................................................................................177
SOFTCARE: Wearable, Unobtrusive and Plug&Play Device for Automatic Fall Detection and Activity Assessment
Xavier Contijoch Culleré and Albert Rodriguez Pastor .......................................................................................................................................................183
ASSAM: Enhancing Autonomy Through Mobility
Cristian Barrué, Ulises Cortés, A.B. Martínez, Sandra Millet and Lluisa Pla .....................................................................................................................192
Guía rápida de evaluación automatizada de contenidos web según WCAG 2.0 usando herramientas de software libre
José R. Hilera, Teresa Díez, Mª José Domínguez, Lourdes Moreno y David Sangilbert ....................................................................................................196
Servicios de Integración Laboral para Personas con Discapacidad Mediante la TV Conectada
Carlos Alberto Martín Edo, José Manuel Menéndez García y Guillermo Cisneros Pérez ..................................................................................................203
Guremintza: Una red social para la diversidad cognitiva
Julio Abascal, Olatz Arbelaitz, Javier Muguerza, Antoni Heredia Sáenz y Daniel Hernández ..........................................................................................207
Diseño Preliminar de Interfaces de Realidad Aumentada para el Robot Asistencial ASIBOT
F.R. Cañadillas, A. Jardón, J.G. Victores y C. Balaguer ....................................................................................................................................................213
Objetos de aprendizaje multimedia accesibles sobre Diseño para Todos para grado en Ingeniería en Tecnologías de la
Información
Alejandro Rodriguez-Ascaso, Jesús González Boticario, Cecile Finat, Emmanuelle Gutiérrez y Restrepo y Amparo Prior ............................................220
Shape Recognition, Image Analysis and Artificial Vision for Blind People Using Mainstream Devices
Yong CHEN and Jaime LOPEZ-KRAHE ..........................................................................................................................................................................228
Referencia de Autores ........................................................................................................................................................................................................235
3
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
“Give me the Red Can”: Assistive Robot Task
Creation through Multi-Modal Interaction
Juan G. Victores, Santiago Morante, Alberto Jardón and Carlos Balaguer
All of the authors are members of the Robotics Lab research group within the Department of Systems Engineering and Automation, Universidad Carlos III de Madrid (UC3M). [email protected]
Abstract
In this paper we illustrate our work focusing on bringing
advanced robotics closer to everyday domestic users. It will
be demonstrated that inexperienced users can be capable of
programming the ASIBOT assistive robot platform to
perform a specific desired task in a household environment.
The process is guided through the robot's Web browsable
interface Task Creator Wizard. T he robot's open
architecture has been developed to enable flexible multimodal interaction, such as the used touch buttons, voice
commands, and Wii Remote™ controller for intuitive
robotic movement. The Wizard has been designed to
provide enhanced accessibility while taking aesthetic beauty
into account, to avoid distraction caused by boredom of the
user. The whole concept and implementation have been
released as part of the ASIBOT Open Source Code
Repository, available online for download and
documentation at:
http://roboticslab.sourceforge.net/asibot
elements that are composed by advanced embedded
electronics:
mobile
phones,
ebooks,
netbooks.
Inexperienced people and even young children are able to
interact with touch screens or buttons, navigating through
tabs, menus, and icons [1]. This fact provides the raison
d'être of end-user developments (EUD) [2]. With all the
possibilities for efficiency and improvement of EUD, some
researchers have already begun to see the potential of web
applications [3]. In addition to the provided arguments, web
interfaces add powerful benefits, such as ubiquitous
availability, and public access (if desired).
Resumen
Este artículo presenta nuestra labor enfocada en llevar
la robótica avanzada hacia usuarios domésticos cotidianos.
Se demostrará que usuarios sin experiencia pueden ser
capaces de programar la plataforma robótica asistencial
ASIBOT para realizar una tarea específica deseada en un
entorno doméstico. El proceso es guiado a través del
Asistente de Creación de Tareas de la a interfaz navegable
vía web del robot. La arquitectura abierta del robot ha sido
desarrollada para habilitar interacción flexible multimodal, tales como los botones utilizados, comandos de voz,
o el mando Wii Remote™ para movimientos intuitivos del
robot. El Asistente ha s ido diseñado para proporcionar
accesibilidad mejorada, teniendo en cuenta aspectos
estéticos para evitar distracción causada por aburrimiento
por parte del usuario. El concepto entero y su
implementación han sido liberado como parte del
Repositorio de Código Abierto del ASIBOT, disponible para
descarga y documentación en:
http://roboticslab.sourceforge.net/asibot
1. Introduction
Modern technologies are progressively being incorporated
into our everyday lives. We find ourselves surrounded by
Figure 1. A developer explaining how to use the ASIBOT
multi-modal interfaces
All of these advances are also progressively being
incorporated in the field of robotics (perhaps at a slower
pace). Robotics and automation are fields first developed
for industrial environments, with non-friendly engineer-only
interfaces. However, recent works such as Baxter [4] are
now taking into account the user-oriented point of view to
facilitate industrial manipulator programming.
From this steady state of production plants, robotics and
automation technology can now be found in retail stores,
and ultimately, in our home environment. In its broadest
scope, this includes everything from motorized shutters and
vacuums to less common advanced robotic manipulators
[5]. Current worldwide research focuses on how to
introduce dynamic and mobile elements to carry out
“housekeeping” and daily chores that require complex
manipulation and advanced reasoning skills. These
technologies will begin to make our life easier only with the
development of human-robot interfaces that provide
comfort and satisfaction to the user [6]. In this paper, the
authors propose the merger of robotics with technology that
everyday users can be familiar with, such as web browsing,
voice command control, and video-game controllers, and
4
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
present proof of concept Open Source implementations and
documentation with experimental results.
These developments have taken place using the ASIBOT
assistive robot platform (Fig. 1), which is currently located
in our ASIBOT assistive living kitchen test environment.
The robot and the assistive living environment have been
developed by the Robotics Lab research group at UC3M
and have been presented by the authors in recent
publications [7]. The following is a review of some of the
robot's most important features and characteristics.
•
•
•
•
•
•
Full on-board robot control and communications
with no need for an external control cabinet.
Unlimited workspace through 24V climbing
connectors.
Light-weight symmetrical structure for climbing.
Tool exchange system for grippers, utensils,
sponge, etc.
Portable and friendly interfaces adapted to
different levels of user capabilities and preferences.
Open architecture for flexible component
integration.
The first four cited features are hardware characteristics
that allow the robot to overcome many of the robotics issues
inherent to the fact that it is a 5 degree-of-freedom
manipulator arm (non-redundant for most tasks). The last
two features have been exploited by the authors in order to
extend the reach of their developments to the hands of
everyday home domestic users.
2. Software Infrastructure: Open
SystemArchitecture
We provide an Open System Architecture that enables
flexible multi-modal interaction through the use of the
YARP robotics platform [8]. YARP is a library written in
C++ that allows the creation of a variety of communication
ports that allow write-to-many and/or read-from-many
connections (the publisher/subscriber paradigm). In our
previous developments, we had identified this platform as
lightweight enough for our robotic embedded systems, and
appreciated its multi-lingual and multi-platform support
combined with easiness of use for the large range of our
developer profiles [9]. Our current implementation also
benefits from its RFModule class (which includes a
resource location helper and implements a watchdog thread)
and its RateThread class (implements best-resolutionper-platform periodical threads). Within the variety of
communication ports, we use its standard TCP/IP streaming
and strict-write-with-acknowledgment ports (in certain
cases, mapped to callback functions upon the reception of
new data from sensors or other programs), along with the
MJPEG carrier for optimized camera image streaming, and
the new custom HTTP carrier for directly serving web
contents from YARP. Finally, the YARP plugin mechanism
is also used, because it allows classes to be used as local
libraries or as executables that are remotely accessible
through a same class API.
Two collections of libraries that are implemented as
YARP devices and can therefore be used through the plugin
mechanism have been developed: rlPlugins and rlPlugins2.
The rlPlugins library is a small library intended for PC that
contains RaveBot (Fig. 2), a class that uses the
OpenRAVE core libraries [10] to provide a 3D graphical
and physical simulation environment. RaveBot
implements position, velocity, and encoder interfaces, and
additionally publishes the stream of images and
measurements from every camera and sensor it finds in the
environment and robot description XMLs.
Figure 2. RaveBot's default configuration loads the
ASIBOT assistive kitchen model
The rlPlugins2 library is intended to be cross-compiled
using a gnueabi tool-chain [11] for its use within the robot’s
embedded processor. It contains CanBot, a low-level robot
controller class that manages the ASIBOT's internal CAN
communications bus for position and velocity control with
the appropriate shared resource locks and releases. CanBot
implements and exposes the same interfaces as RaveBot,
so CanBot and RaveBot are identical to external viewers
except for port naming. Both rlPlugins and rlPlugins2
additionally provide the CartesianBot plugin, which
provides the geometrical closed-form solution of the
ASIBOT forward and inverse kinematics. Switching to our
generic solver based on recursive methods (KdlBot class)
can be seamlessly achieved by changing the configuration
file or passing it as an argument at instantiation.
The robot controller module, cartesianServer, uses these
solver classes to follow a trajectory inherited from the
Traj trajectory base class. The OrderThreeTraj class
inherits from Traj and generates trajectories with null
initial and final velocities for moving point-to-point in
differential kinematic mode. The OrderOneTraj
trajectory generator class assures a constant Cartesian space
velocity for moving in velocity-controlled streaming mode.
OrderThreeTraj and OrderOneTraj objects are
allocated on the dynamic memory heap, passing their
reference to the Traj trajectory class base pointer that is
used by the control thread to provide updated references to
the low-level controllers. These objects are deleted from the
dynamic memory once they are not in use.
The default ASIBOT system setup involves two
cartesianServer module instances. Each one instances a
CartesianBot as a library, setting thread rates and port
5
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
name prefixes as set in the configuration files. One
cartesianServer module is set to use the RaveBot as a
library and show the simulation on a 2D or 3D screen, and
the other instance is set to use the CanBot as a library and
run on the real robot. These ASIBOT modules can be
accessed through any of the following three different
methods.
•
All of the ASIBOT module ports may be interfaced
using the module specific commands of the
ASIBOT online documentation through the use of
the YARP port class and inherited classes.
•
All of the ASIBOT module ports may be interfaced
through a series of other mechanisms such as
telnet, web browsers, raw sockets, or ROS [12] as
documented in the YARP online documentation
(“YARP without YARP” and “YARP with ROS”
documentation sections).
•
We also provide a minimalistic library for
communicating remotely with cartesianServer
instances, called the CartesianClient library, which
has been implemented in native C++, Python, and
Java (tested on MATLAB and Simulink too)
languages.
The ASIBOT modules are intended to a run within the
Wireless Local Area Network (WLAN) of the robot, but the
user is free to expose the configurable interface sockets for
external assistants to collaborate, remotely interacting with
the modules from a distant location. The ASIBOT system’s
open architecture allows the control interfaces and devices
to be used simultaneously, and all are managed coherently.
3.1.
Touch Buttons
The ASIBOT webInterface module provides a Web
browsable interface which is intended for display on devices
that support tactile interaction.
The interface is composed by nine functional tabs (Fig.
4, top). A persistent Connection Manager for establishing
and terminating communications with the real robot and
with the simulator is set to be rendered at the bottom left
corner of the browser window. The client side scripts of the
webInterface served pages have been optimized to minimize
the amount of client-server interactions that take place.
3. Components for Task Creation
and Multi-Modal Interaction
The ASIBOT Open Source Code Repository is a
compendium of C++ and Python programs (named
modules), libraries, and examples that can connect to each
other to create applications that may be useful for users.
One of the main objectives of the ASIBOT research and
software development of the past years has been to provide
integrated modes of Human-Robot Interaction (HRI)
through devices with which users can already be previously
acquainted with, therefore allowing them to immediately
start discovering how to control the ASIBOT robot platform
through the interface device instead of using time learning
how to control the interface device. Fig. 3 depicts this multimodal interaction concept.
Figure 4. The ASIBOT modules provide touch buttons
for HRI
Additionally, through the use of the Asynchronous
JavaScript and XML (AJAX) interrelated web development
techniques [13], the full page are only loaded when the user
changes from one tab to another. Each tab's web content is
dynamically changed from within the browser whenever it
is required by the user's actions. This bandwidth
consumption optimization provides a drastic improvement
in performance and allows the user to benefit from page
loading time reduction.
3.2.
Wii Remote controller integration
A Wii Remote Plus controller interface module has been
developed as part of the ASIBOT open architecture
components for multi-modal interaction 1. Upon initializing
the wiimoteServer module and connections, the user can
move the robot in what we call the Wii space: the robot tip
aligns with the Wii-Remote controller pitch (Fig. 5.1), and
the robot's base roll is controlled with the controller roll
(Fig. 5.2).
Figure 3. The ASIBOT modules provide multi-modal
interfaces for HRI
A and B buttons control forward and backward
translation functionalities respectively, while maintaining
1
Low-resolution video link: http://youtu.be/S6SKFVUwL9A
6
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
both buttons pressed allows Wii space reorientation. This
behavior implies the use of a hybrid position/velocity
control scheme which is achieved through the use of a
floating virtual target point. First, the orientation
information is added to the virtual target point. Then, the
forward, fixed, or backward translational command
component determines the distance between the robot endeffector and the virtual point (positive, null, or negative).
The virtual point is sent as a robot target to the
cartesianServer modules through the velocity-controlled
streaming mode mechanism which has been explained in
Section 2.
ASIBOT webInterface module stores in the User Program
Repository.
4. A Walk through the Task
Creator
The ASIBOT Web browsable Task Creator Wizard has
been developed to guide the user through the task creation
process from within the ASIBOT Web browsable interface.
An ASIBOT task is composed by one or several custom or
predefined programs that the user may invoke through the
use of one or more of the open architecture's multi-modal
interfaces. The Task Creator Wizard is initialized from
within the Web browsable interface Home page (Fig. 7,
background: Initialize Task Creator). It is set to display
useful user guide information in the form of prompts and
alerts. The use of the Wizard is, however, not mandatory.
The user may instead choose to browse through the tabs
manually to develop ASIBOT tasks.
Figure 5. The Wii Remote orientation is tracked with a
fixed linear velocity
3.3.
Automatic Speech Recognition
ASIBOT's speech recognition has been integrated into
the Web browsable interface as a selectable tab. The page
served (Fig. 6) contains an automatic speech recognition
input field for recording and saving commands which can
later be assigned to different tasks.
Figure 7. The Task Creator Wizard displays useful user
guide information
First, once activated, the Wizard automatically redirects
the user to the Joint space movement tab (Fig. 8). The tab is
invoked so that a progress bar is displayed on the bottom
right corner of the page. It indicates how advanced the user
is in the task creation process, and allows the user to jump
to each next step throughout the entire creative process.
Figure 6. The ASIBOT modules provide speech recognition
for HRI
The input field makes use of the x-webkit-speech
attribute, which links the field to the Google Inc.
implementation of the HTML5 Speech Input API (currently
a W3C Editor's Draft [14]). The x-webkit-speech input field
attribute is currently recognized by the Google Chrome and
Google Chrome for Android web browsers. The Google Inc.
implementation of the x-webkit-speech attribute uses
Google's service cloud to perform the actual speech
recognition, which returns a plain text string that the
Figure 8. A progress bar guides the user throughout the
whole creative process
As has been previously mentioned in Section 3.1, the
user can establish connections with the real and simulated
7
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
robot using the persistent Connection Manager situated at
the bottom left of the interface. Once the connections are
established, the user can move the selected robots in the
Joint space using the correspondent tab buttons.
Additionally, the user can press the capture button (the
record icon situated at the center-right of the same Fig. 8) to
open a prompt for saving the end-effector point with a
custom name. The end-effector point position and
orientation information that is stored is computed on the
user capture button click event, which may occur even if the
robot is in movement. This behavior has also been
implemented in the Cartesian space movement tab (Fig. 9),
which is the next step the user is guided through.
create a new module, the IDE engine returns a new file with
a fragment of default source code. This source code is
extracted from a template.py file which is set to load the
basic resources for programming the ASIBOT (libraries,
initialization routine calls). Additionally, some hint lines of
code are added for connecting to a remote instance of the
cartesianServer module, performing a robot homing
movement, waiting, and closing the module cleanly. The
template.py file contents can be seen in Listing 1.
complete
The Program tab additionally provides a set of buttons
with the captured point names, situated on the top part of its
right side panel. Clicking on this type of button inserts two
lines of code into the central program text area:
• A Point definition. The definition of the point that
was captured and given the name that the button
indicates.
• A Cartesian space movement command. The robot
is commanded from its current position to an
absolute position following a straight line
trajectory with null initial and final velocities (a
movl function call).
from AsibotPy import *
#######################################
home=[0,0,1.4,0,0]
#######################################
simCart = CartesianClient()
simCart.open('/ravebot')
# use '/canbot' for real
Figure 9. Points may be captured even when the robot is in
movement
The capture button of either of these two tabs, namely the Joint space
movement tab and the Cartesian Space movement tab, may additionally be
used to capture points when the robot is moved by using the Wii Remote
Plus controller interface (see Section 3.2). On the completion of this point
capturing phase of the Task Creation process, the user is guided by the
Wizard to the Program tab (see Fig. 10). Here, the user can create, edit,
save and delete ASIBOT modules directly from within the Web browsable
interface.
#######################################
print 'hello, robot!'
simCart.movl(home) # defaults to 20 s
simCart.wait()
# wait for movement
#######################################
print 'done!'
simCart.close()
Listing 1. The template.py file contents is copied upon
creating modules
Figure 10. The ASIBOT Web browsable interface Program
Tab
The ASIBOT Web browsable interface Program tab
plays the role of an Integrated Development Environment
(IDE) for developing ASIBOT user Python modules. The
left side panel allows the user to create, explore and delete
ASIBOT user Python modules. When the user decides to
An ASIBOT Python point is defined as a native Python
list of five doubles that indicate the following: x[m], y[m],
z[m], rot(y')[degrees], rot(z'')[degrees] of the end-effector
in absolute base coordinates. The first rotation, rot(z), is
given by the atan2 function of y and x. This equation
completes the Euler ZYZ notation that can be used to define
the robot end-effector orientation with respect to its base.
Prohibiting the explicit request for the first rotation on the z
axis helps preventing the request for movements to a great
number of points that are unreachable for the ASIBOT, as
ASIBOT points may be manually modified or created from
scratch, as plain text and the robot is a 5 degree-of-freedom
manipulator arm that cannot reach all of the positions and
orientations of Cartesian space.
The movl member function calls may also be modified
and transformed into movj function calls. Movements due
to movj function calls are, generally speaking, faster but
less precise (trajectory-wise) than those issued by movl
8
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
commands. This is because movl commands involve the
computation of a straight linear trajectory, whereas movj
commands involve trajectory interpolation at single joint
level. This nomenclature is commonly found in the context
of industrial robots, and the authors have particularly been
inspired by the RAPID, an ABB proprietary programming
language [15].
Once the user has finished programming, she or he will
be prompted to save the program with a custom name by
pressing the save button. The Wizard then guides the user to
the Speech tab (see Section 3.3). In the Speech tab, the user
records and saves words that will be assigned to programs
in the Task Creator final step, the Assigner tab (seen in Fig.
11). The Assigner tab is composed by program, recorded
word, and icon selectors to generate ASIBOT task files,
which are minimalistic scripts that associate these three
elements.
ASIBOT. The reason for this double-test was to include the
not-so-common opinion of developers or technology-skilled
users to the common analysis of inexperienced people. The
comments and suggestions of technology-skilled users can
be useful to assure an easy teaching process, as at a certain
point they could actually become the people in charge of
training disabled people in handling high-tech adapted
devices.
In the first test, the ten healthy inexperienced users were
invited to the ASIBOT assistive living kitchen environment
and attended a five-day course of two hour sessions. At the
end of the course, they were asked to use the developed
system for Task Creation through Multi-modal Interaction
to perform one simple task: grabbing a red can, a task which
we already knew that the robot was capable of achieving, as
we had previously performed it by ourselves (Fig. 12).
Figure 12. The ASIBOT “Give me the Red Can” task goal
achievement
Figure 11. The ASIBOT Web browsable interface Assigner
Tab
The Task Creator Wizard leads the user to the ASIBOT
Web browsable interface Launcher tab once the assignment
has been performed (see Fig. 4). The Launcher parses the
task files and presents the selected icons zoomed as touch
buttons on screen, awaiting for user tactile interaction or
voice commands to execute the tasks that the user has
developed through the use of the multi-modal interfaces,
with or without the use of the interface's Task Creator
Wizard.
To evaluate the users' experiences, we performed spoken
interviews, allowing the users to express their sensations,
their pros and cons about the comfortability and easiness-ofuse of the applications. The following is a review on the
aspects of the implementation and experiments.
•
•
5. Experiments
•
Our experiments were performed, on the technical side,
using 300 ms kinematic control cycles, due not to the
kinematic calculation times (our kinematic position
inversion mean duration is 33 µs), but to not saturate the
robot's internal communication CAN bus. The simulator's
cartesianServer module was set to directly feed the
velocities computed from the trajectory generation
described in Section 2 (pure uncompensated feed-forward),
as the behavior of the simulated motors is that of a perfect
integrator. For the real robot, we added a 0.1 gain on the
position error, a classical robotics control approach [16].
On the end-user side, and in order to perform a complete
system assessment, we conducted two different tests: one
for people that were previously inexperienced with robotics,
and one for robotics-related people who were familiar with
•
•
2
All of the users confirmed they found the use of
the proposed multi-modal interfaces (touch
buttons, voice commands, Wii Remote controller)
very interesting.
We found devices to fit each of the user's needs so
they could all be able to use the Web browsable
interface for comfortably interacting with the
robot.
Each of the users was capable of generating several
voice patterns that could be recognized by the
automatic speech recognition system.
At the end of the five-day course, every user had
achieved in making the robot grab her or his own
red can successfully. Our experience with
industrial robot courses indicates that achieving
similar tasks with conventional controllers usually
takes two weeks if similarly distributed in two hour
sessions 2.
Two users evaluated the use of the Wii Remote
controller as an interface device negatively. The
main drawback they emphasized on was having to
sustain the implemented ``dead man'' buttons while
moving the controller to the desired orientation.
Sample 32 hour course: http://tinyurl.com/roboticTraining2012
9
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
In the second test, we asked ten robotics-related people
to perform the same task and, in order to measure their
satisfaction with the software, we provided them with SUS
tests (System Usability Scale). The range of ages of the
participants was between 25-35 years old. As a summary of
the results:
•
•
•
The average punctuation was 70.5 ± 9.5 over 100
(where 100 is the best score).
The best results were obtained in the item: I think
that I would like to use this system frequently, with
an average of 4 ± 0.6 over 5 (where 5 is the best
score).
On the other hand, the worst results were obtained
in: I think that I would need the support of a
technical person to be able to use this system, with
an average of 2.6 ± 0.8 over 5 (where 5 is the worst
score).
In general, the results were positive and additional
feedback was received on how automating the naming
mechanism for points, programs, and tasks would be useful,
as typing can become tedious and time consuming using
certain Web browsing devices.
6. Conclusions
The ASIBOT Open Source Code Repository has gained
credibility through the demonstration of how its modules
provide flexible Multi-Modal Human-Robot Interaction,
and easiness of creating custom user tasks through the use
of the developed Web browsable interface's Task Creator
Wizard. As researchers, and as implementers, we consider
these developments have proved useful in our strive to bring
advanced robotics closer to everyday domestic users.
The feedback received from the users has helped us
understand how to focus our current and future research
efforts, providing continuously improved software revisions
and devices for improved user accessibility. In the line of
the hardware developments, we have opened a line of
research for developing a user accessible device that may be
used as a substitute of the Wii Remote controller. This
device, of which we already have a working prototype
circuit, will be wrist or head wearable. This links this part of
our developments more closely to the ASIBOT SULTAN
[17] concept and to aiding disabled and elderly people,
which has been the ASIBOT's main objective since its
origin.
7. Acknowledgment
The research leading to these results has received
funding from the COMANDER project CCG10UC3M/DPI-5350 granted by the Comunidad de Madrid and
UC3M and the ARCADIA project DPI2010-21047-C02-01
granted by CICYT.
8. References
[1] A. Holzinger, “Finger instead of mouse: Touch screens as a
means of enhancing universal access”, in Universal Access
Theoretical Perspectives, Practice, and Experience, ser. Lecture
Notes in Computer Science, N. Carbonell and C. Stephanidis, Eds.
Springer Berlin / Heidelberg, 2003, vol. 2615, pp. 387–397.
[2] M. M. Burnett and C. Scaffidi, “End-user development”, in
Encyclopedia of Human-Computer Interaction, M. Soegaard and
R. F. Dam, Eds. Aarhus, Denmark: The Interaction Design
Foundation, 2011.
[3] J. Rode, M. Rosson, and M. Qui nones, “End user development
of web applications”, End User Development, pp. 161–182, 2006.
[4] E. Guizzo and E. Ackerman, “The rise of the robot worker”,
Spectrum, IEEE, vol. 49, no. 10, pp. 34–41, 2012.
[5] L. Iocchi, J. Ruiz-del Solar, and T. van der Zant, “Domestic
service robots in the real world”, Journal of Intelligent & Robotic
Systems, vol. 66, pp. 183–186, 2012.
[6] M. Kim, K. Oh, J. Choi, J. Jung, and Y. Kim, “User-centered
hri: Hri research methodology for designers”, in Mixed Reality
and Human-Robot Interaction, ser. Intelligent Systems, Control
and Automation: Science and Engineering, X. Wang, Ed. Springer
Netherlands, 2011, vol. 1010, pp. 13–33.
[7] A. Jardón, J. Victores, S. Martínez, A. Giménez, and C.
Balaguer, “Personal autonomy rehabilitation in home
environments by a portable assistive robot”, IEEE Transactions on
Systems, Man, and Cybernetics, Part C: Applications and
Reviews, 2011.
[8] P. Fitzpatrick, G. Metta, and L. Natale, “Towards long-lived
robot genes”, Robotics and Autonomous Systems, vol. 56, no. 1,
pp. 29–45, 2008.
[9] J. Victores, “Software engineering techniques applied to
assistive robotics: guidelines & tools”, Master’s thesis,
Universidad Carlos III de Madrid, Dpto. Ing. Sistemas y
Automatica, October 2010.
[10] R. Diankov, “Automated construction of robotic manipulation
programs”, Ph.D. dissertation, Carnegie Mellon University,
Robotics Institute, August 2010.
[11] G. Sally, “Creating a linux distribution from scratch”, in Pro
Linux Embedded Systems. Apress, 2010, pp. 107–141.
12] M. Quigley, B. Gerkey, K. Conley, J. Faust, T. Foote, J. Leibs,
E. Berger, R. Wheeler, and A. Ng, “Ros: an open-source robot
operating system”, in ICRA Workshop on Open Source Software,
2009.
[13] J. Garrett et al., “Ajax: A new approach to web applications”,
Adaptive path, vol. 18, 2005.
[14] S. Sampath and B. Bringert, “Speech input api specification,”
W3C Editor’s Draft 18 October 2010. Available:
http://www.w3.org/2005/Incubator/htmlspeech/ 2010/10/googleapi-draft.html
[15] ABB, “Rapid reference manual system data types and
routines on-line”, 2005, issue: For BaseWare OS 3.1, Article:
3HAC 0966-13.
[16] B. Siciliano, L. Sciavicco, and L. Villani, Robotics:
modelling, planning and control. Springer Verlag, 2009.
10
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[17] C. Balaguer, A. Jardón, C. Monje, F. Bonsignorio, M.
Stoelen, S. Martínez, and J. Victores, “Sultan: Simultaneous user
learning and task execution, and its application in assistive
robotics”, in Workshop on New and Emerging Technologies in
Assistive Robotics IROS, 2011.
11
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
A Smart Walker to Improve the Gait of People with
Disabilities and Elderlies
Teodiano Bastos1, Carlos Valadão1, Carlos Cifuentes1, Anselmo Frizera1, Ricardo Carelli2
1
Federal University of Espirito Santo
Vitoria, Brazil
2
National University of San Juan
San Juan, Argentina
[email protected], [email protected], [email protected], [email protected],
[email protected]
Abstract
Damages caused by lack of mobility are numerous and
compromise severely the quality of life of the affected
people, since mobility is an important faculty of the humans.
The aim of this work is to develop a smart walker to help
people suffering from some kinds of disability to recover
their strength and have a higher level of independency.
The developed walker provides safety and a m ore
natural human gait through the information provided by the
laser sensor. Several experiments were carried out with this
smart walker with a group of volunteers with arthrosis and
healthy people, and results have shown the good
performance of the proposed controller.
Keywords: smart walkers, physiotherapy, locomotion
disorder, quality of life, gait control.
Resumen
Son numerosos los daños provocados por la falta de
movilidad y estos pueden comprometer seriamente la
calidad de vida de los que sufren de algún tipo de
enfermedad relacionada a l a movilidad, una importante
habilidad humana. L a marcha puede resultar
comprometida y la persona, como consecuencia, no tiene
una forma de caminar natural, sufre de dolores y su calidad
de vida se reduce a lo largo del tiempo.
El objetivo de este trabajo es desarrollar un andad or
inteligente para auxiliar personas que tienen problemas de
movilidad, utilizando para ello las fuerzas residuales que
posen, con el fin de aportarles un mayor grado de
autonomía.
El andador desarrollado ofrece seguridad para el
usuario y una f orma más natural de caminar, utilizando
información de un sensor laser. Se han desarrollado varios
experimentos con un gr upo de voluntarios con artrosis y
también con personas sanas, y los resultados demuestran
un buen desempeño del controlador propuesto.
Palabras-clave: andadores inteligentes, fisioterapias,
problemas de locomoción, calidad de vida, problemas de
marcha.
1. Introduction
The ability of movement is a very important skill inside
the humans’ abilities. People who cannot move by
themselves see their lives severely compromised, since
this situation affects directly or indirectly their jobs,
their daily tasks, the way people lead with their
problems and, finally, their quality of life.
It is known that there is a huge set of diseases that can
compromise the movement, in a higher or lower degree.
Neurological diseases, vascular diseases, malformation
and genetic diseases, among other problems, can be the
cause of the loss of movement ability [1].
However, inside this group of people, there are some
who still have remaining mobility, but due to the lack of
strength and movement control they are not able to walk
and, consequently, they may suffer from muscular loss
throughout the time. Psychological-related diseases such
as depression and lack of socialization may also be
present as a consequence of the inability to walk. This
entire scenario decreases their quality of life.
Another important population is the elderlies. They may
have musculoskeletal and neurological diseases as a
result of their advanced age. Statistical data provided by
United Nations show that, in the future, the number of
people who will need external support will be higher.
Caretakers will be more necessary as well as support of
new technologies to help people with disabilities.
Due to that situation several research groups throughout
the world are trying to find solutions to improve the
mobility and quality of life of that people. These
researches are developing new and more comfortable
devices that could be used by people with disabilities.
12
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
The support devices related to mobility can be
distinguished in two major groups: alternative and
augmentative devices [2]. Both groups receive their
names according to the way these devices work.
If the device changes the way of movement, such as a
wheelchair that move using wheels and not through
steps, they are classified as alternative. It means that
they provide an alternative way of locomotion [2].
On the other hand, if the device is able to make usage of
the residual forces that may remain in some people with
disabilities, they are classified as augmentative devices
[3]. They are called that way because of their feature of
improving the remaining locomotion skill of the user.
The second group can be used by people who still
maintain some residual forces, but, at the same time,
they do not have enough strength and control to walk by
their own. Therefore they cannot move by themselves or
it would be a hard task to perform [1], [4].
Major examples of augmentative devices are crutches,
special autonomous vehicles and walkers, including
Smart Walkers, the subject of this work.
This paper is organized as follows: the next section is
about the usage of each of these devices; the third
section has an overview about walkers; the fourth being
about the smart walkers. Following the article structure,
the fifth section explains the development of the walker
developed by the authors; the sixth section is about the
control of the walker, including a discussion about the
safety rules. Finally there are experimental reports about
the use of the smart walker by volunteers.
2. Usage of mobility-aid devices
adequate and, according to the disability or disease and the
degree of lack of mobility, the device is chosen [4].
People who have total incapacity of movement or have a
very limited control of their movements cannot use an
alternative device, since it requires a certain amount of
residual force and control. In this case people will very
likely use an alternative device [2].
However, if the physician identifies that the patient is
able to use their residual forces the situation is the opposite,
which means that he or she will likely use augmentative
devices.
The augmentative devices have a very good advantage
over the alternative devices related to the keeping of the
residual forces. This prevents the low usage of those
residual forces and eventually it leads to maintaining the
muscular strength [5].
Therefore, with the use of these devices there is less
probability of muscular atrophy, among other diseases
related to the lack of exercising the residual forces. Also,
since the person has a more active posture leading with the
problem, psychological benefits also can be achieved, while
using an alternative device may cause a sensation of
dependency which can lead to depression related problems.
Some authors make a subgroup inside the augmentative
device set, called mobility-training devices [2]. These
devices are used, basically, to restore the user’s ability of
walking and are widely used in rehabilitation clinics.
Examples of these devices are parallel bars and treadmill
training machines. Table 1 explains the relationship
between the degree of mobility, the usage of the device and
the set in which the device is included [6].
It is very important the support of a physician to ensure
that the device the user will receive support from is
Table 1 - Classification of assistive devices [2].
Mobility Assistive Device
Alternative
Wheelchairs
Autonomous
vehicles
Augmentative
Mobility
devices
special
training
Self-ported devices
External devices
Examples
Manual
Autonomous with assistive navigation
and/or bipedestation
Autonomous vehicles to improve
cognitive capacities
Bipedestation
Purpose
Degree of Incapacity
Transportation
Transportation and improvement of
cognitive capabilities
Total incapacity of
mobility
Parallel bars
Treadmill-training devices
Ambulatory-training devices
Feet-manipulator training device
Orthoses
Canes
Crutches
Walkers
Mobility rehabilitation training
Residual
capacities
Functional compensation
Functional
rehabilitation
compensation
mobility
and
13
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Figure 1 - Mobility devices.
Table 1 shows when each device is used and Fig. 1
exemplifies them. Fig. 1a [7] shows a wheelchair, widely
used by people with high lack of mobility. In Fig. 1b [8], it
is possible to see an electric wheelchair. Both of them are
examples of alternative devices. Figs. 1c [9] and 1d [10]
show mobility training devices, such as parallel bars and
treadmill training device.
Figure 1e [11], is an orthoses for the knee and represents a
wearable support for mobility. It belongs to the group of
self-ported devices, because it keeps connected to the body.
Another example would be the prosthesis. Finally, Fig. 1f
[12] shows a walker, which is an external devices used to
help people to sustain their weight and improve their
balance.
3. Walkers
Walkers are a recent invention when compared with
other devices for mobility, such as crutches. Before the
aggregation of electronics the walkers were purely
mechanical devices and use the weight compensation to
help people to support their own weight as well as
improving the balance
[2] (Fig. 2).
Figure 2 - Types of Smart Walkers [12–14].
The Zimmer-frame or Standard-frame structure has a
four-legged structure with no wheels and requires certain
amount of force to push up and down at each step.
Nevertheless, they have a very good stability, since it has
four points that support the user’s weight. Also they have a
high weight bearing [1].
with the wheels that can slide freely while the rear part is
suspended if the user does not control them [1].
Finally there is the rollator model [2], used in smart
walkers. This model has the most natural gait among those
three structures. This is a very important advantage, but it is
a four-wheeled structure, with no static support which may
be a problem for people who cannot control their
movements properly. It is the most unstable version, but the
one that offers the most natural gait, since there is no need
to lift it up at each step [1]. On the other hand, considering
the evolution of electronics, embedded systems and control
laws, it is possible to develop walkers that can detect
obstacles and measure user’s features and interfere on the
walker movement providing more safety to its use.
Along with the movement control there is, usually, a
safety rule set to avoid falling or excessive speed. Other
safety rules such as maximum distance allowed and
minimum force necessary on the handlebars are important
to improve the robustness of this kind of mobility support.
For that reason, smart walkers have been used for a
diversity of purposes. The main usage is as a daily support
for mobility, but it can also be used to reinforce the
remaining forces of the users, i.e., as rehabilitation tools.
4. Smart Walkers
As aforementioned, smart walkers are walkers that offer
some support through electronics, embedded control
systems and active mechanics. They may offer not only the
physical support, but can avoid obstacles, guide people
using maps, among other kinds of supports [2].
Some notorious smart walkers are PAM-AID, fig. 3a [16],
PAMM (Personal Assistant for Mobility and Monitoring),
Fig. 3b [15] [21] [22], iWalker, Fig. 3c [19], the MARC
(Medical Applied Research Center) [3] [18], Fig. 3d,
SIMBIOSIS, Fig. 3e [20] e GUIDO smart walker, fig. 3f
[17].
Another model of walker is the front-wheeled, which has
two wheels in the front part. In this case, the user has only
to lift part of the walker weight in each step, since there is
no need to lift the entire walker, but only slide a little, lifting
the rear part [1][2]. This model presents the advantage of a
better comfort and a more natural gait compared with the
previous one. However, the person has to be able to deal
14
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5.2.1. Laser sensor
Figure 3 - Examples of smart walkers.
A laser sensor is located at the front part of the user’s
area inside the walker. It is positioned in a way it can be
able to detect the user’s legs.
The laser reads a 70º range (this angle range covers the
area where the user should stay) in order to search the user’s
legs and determine the distance to them. The detection of
the legs is based on the number of transitions inside the
signal, provided by the laser sensor, and the size of each
transition. Fig. 5 shows the cases where legs were detected
[23]. To be considered a transition the distance value should
drop or increase more than a threshold.
5. UFES’ Smart Walker
The UFES’ Smart Walker has a steel structure, sensing
equipment, embedded computer, acquisition boards and
actuators. Each one of these elements will be commented in
details in the next subsections.
5.1 Structure
It is necessary that the smart walker´s structure be strong
enough, since it will bear the user’s weight partially. Due to
the fact some patients have overweight or put too much of
his/her weight on the walker, the structure needs to be
strong.
The structure was made using steel, which is a very
resistant material and hardly will suffer any damage while
supporting the human weight on it.
Regarding the shape, it has a column with handlebars
that helps supporting the human and a structure where the
wheels are fixed. These details can be seen in Fig. 4.
The column in the middle of the walker can switch
between two distinct heights and it can adjust for a two
height groups of people.
Figure 5 - Examples of laser scans.
In the first case, there are four transitions and the legs are
considered to be in the middle of each transition.
Considering
and
as the left and right leg distance; ,
, ,
the transition points and, as the leg diameter,
the following equations can be used to find the distance of
each leg from the laser:
(1)
(2)
In the second case, there are only three transitions, so the
middle point cannot be used anymore for both legs. To
solve this problem, the left leg is calculated as before, using
the average position between the first and second transition
point, while the other leg is calculated using the last point
subtracted by a predetermined radius of the leg.
(3)
In the last case only two transitions points are detected
and the legs positions are calculated by estimation using the
predetermined leg’s radius. Mathematically it becomes:
(4)
Figure 4 - Photo of the UFES' Smart Walker.
5.2. Embedded Sensors
Four kinds of sensors are responsible for capturing the
user’s information and send it to the embedded computer:
laser, force, inertial movement units (IMUs) and encoders
located at the wheels.
(5)
Also, the laser can provide information about the angle
between the user and the walker (i.e. the laser), because it
can detect in which angular position it has detected the leg.
So, with the laser, it is possible to detect angle and distance
of each leg.
15
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Figure 6 - Graphical interface used to evaluate: linear velocity, angular velocity, distance to the user
legs, orientation of the user legs, and angular error between user legs and walker.
5.2.2. Force Sensor
The force sensor is used to provide information about the
weight the user is putting on the walker. This information is
very important, especially for safety rules.
The walker has two of these sensors, which are
responsible
5.3 to send information about the force in each axis
(normal, longitudinal and transversal) into a serial
connection to the computer onboard the walker.
Integrated computing
This walker contains a PC/104+ module to process the
information that comes from the sensors
and it is essential for the functioning of the whole system.
Not only the sensing data is sent to the computer, but the
control algorithm is processed at it.
This module is responsible to collect the information of
the sensors and, using the control laws and the security
laws, determine which movement the walker should do. The
commands the PC/104+ provides are linear and angular
speed.
The low-level controller and motor board are in charge of
ensuring the speeds are correct. The reference speed values
are sent to a low-level controller and a board that generates
the adequate voltage signals to the motors. This entire
structure guarantees the walker runs at the desired speed.
Other electronic boards present in the walker are the data
acquisition board, the network board and the DC-DC
converter. They are all connected to the PC/104+.
5.4 Motors and encoders
There are two motors, attached to the traction wheels, in
the back part of the walker. Those motors are of 12V each
one. In the front part there is a free passive wheel.
There is a DC-DC conversion board that is responsible to
supply the other boards with 5V using the 12V batteries.
The maximum rotation of the motors is 40 rpm.
Connected to each motor axis there is an encoder which
provides the PC/104+ with information about each wheel
rotation.
5.5 Software
In order to record data of the experiments and show them
graphically, a software was developed in a graphical
interface. Fig. 6 shows a screen of this software showing an
experiment with an eight-shaped path.
The user is represented by the closed polygon and the
walker is the squared structure. The paths they have made
are indicated in dashed lines.
16
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
It is possible to record the experiment and then process
the file offline, view graphics of angular and linear speed,
angles between user and walker and control actions.
6. Controller
The walker uses an inverse kinematics controller to
compensate the nonlinearities of the system thus obtaining a
linear closed loop system.
Using this approach it is possible to control two
important variables: the distance between the user and the
laser, and the angle between the user speed vector and the
laser-user axis. They are represented by the variables
and , respectively, showed in Fig. 7.
From this figure, we can express the kinematic model of
the walker-human system and estimate the variables needed
by the control algorithm, which are provided by the laser
sensor.
(8)
Another equation that is useful to obtain the user linear
speed is the derivative of the angle between the user and the
laser (equation 9). It is represented as:
(9)
From (7) and (8), the kinematics for the variables of
interest is defined by:
(10)
The control actions are represented by the vector u.
Using the controller design based on inverse kinematics, the
control actions can be expressed as
(11)
Or equivalently,
(12)
(13)
It is easy to see that, after substituting 11 into 10, the
closed loop system reduces to:
(14)
Figure 7 - UFES' Smart Walker diagram
involving linear velocity ( ), angular velocity
, and distance ( ) and orientation ( ) of the
user legs.
The distance error (equation 6) is calculated by the
difference between the actual user distance and the desired
distance to the user legs.
The time evolution of the control errors are thus given
by:
(15)
Therefore, the control errors, considering the positive
control gains, will always converge to zero.
(6)
The derivative of the distance error (equation 7) can be
calculated analyzing the contribution of each component in
the diagram showed of Fig. 7.
(7)
The same way, the derivative of the
calculated as equation 8:
angle can be
6.1 Security Rules
In the use of the walker, many risky situations may
happen. It is then necessary to include some supervision of
the control system, to give security to the user. Thus, a set
of security rules was designed, which are listed in Table 2.
17
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Table 2 - Security rules set.
#
Sensor
Occurrence
No leg detection
for long time
1
Laser
2
Laser
Legs too far
3
Laser
Legs too close
4
Laser
5
Force
6
Force
7
Force
8
Both
Stopped legs
One side force
only
Small force
applied
Big force applied
Laser points to
one side, force to
the other
Action
Stops immediately
Slows down the speed until
stops
Increases smoothly the
speed
Decreases speed and stop
Stops immediately
Stops immediately
Slows down and stop
Keeps going to the
previous side, slows down
the speed and stop
7. Evaluations of the UFES’ Smart
Walker
The control system here developed was evaluated using a
circle and an eight-shaped path. In both situations the only
safety rule applied was to monitor a maximum allowed
speed. The results are shown in Figs. 8 and 9. In both cases
was 0.001 and for
was 1. These
the gain used for
gains are also valid for other kind of paths, as an eightshaped and circle paths are considered the most complex
paths due the whole system dynamic is excited when
following these kind of paths. For both paths, it is possible
to see that the errors come close to zero. It is worth to
comment that the controller here developed is a strict
Figure 9 – Results for a circular path in order to
evaluate distance and orientation errors in
following this kind of path.
8. Experiments with volunteers
with osteoarthritis
control that takes the distance and orientation errors to zero,
and with demonstration of stability, which it is not found in
other works available in literature.
A group of 40 volunteers (male and female, older than
55 year) were evaluated by an orthopedist and a
physiotherapist to carry out experiments with the UFES’
Smart Walker in the Physical Rehabilitation Center of
Espirito Santo State (Brazil). All of them were diagnosed
with osteoarthritis, according analysis of radiography and
clinical analysis suggested by the American Society of
Rheumatology, with provides 91% of sensibility and 86%
of specificity in the diagnosis.
Among the group of 40 volunteers, 16 of them were
selected to carry out the experiments with the smart walker,
with 13 out of them diagnosed with arthrosis and considered
healthy people. The exclusion criteria of volunteers were:
recent traumas, previous lower limb, pelvis or hip surgeries,
Figure 8 – Results for an eight-shaped path, in
order to evaluate distance and orientation errors
in following this kind of path.
neuromuscular diseases, other pathologic arthritis or
neurologic and cardiac diseases.
All of selected volunteers signed the consent form
approved by the Ethical Committee of Federal University of
Espirito Santo (Brazil) to carry out the experiments with the
smart walker, which consisted of following the path shown
in Fig. 10. During the experiments (repeated three times),
temporal and distance parameters were obtained from the
volunteers, such as: velocity, gait length, distance between
user and walker, and angle between the user legs and the
walker. All these parameters can be used for gait evaluation.
Fig. 11 shows one of the volunteers carrying out the
experiment, and Fig. 12 shows some measurements of
distance to legs, legs orientation and user knee angles
obtained during the trials, for: a) a volunteer with arthrosis,
and b) a healthy volunteer. Nowadays, all these
measurements are being analyzed in order to make possible
differentiate between a volunteer with arthrosis and a
healthy volunteer.
18
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Legs Distance (LRF)
0.8
Right Leg
Crossing Legs
Left Leg
Meters
0.7
0.6
0.5
0.4
6
8
10
12
14
Seconds
16
18
20
22
Legs Orientation (LRF)
Right Leg
Left Leg
Degrees
10
Figure 10 - Path used during the experiments
with the smart walker.
0
-10
-20
6
8
10
12
14
Seconds
16
18
20
22
16
18
20
22
16
18
20
22
16
18
20
22
XZ Knee Angle
40
30
20
10
6
8
10
12
14
XY Knee Angle
94
92
90
88
86
84
6
8
10
12
14
YZ Knee Angle
30
25
20
15
10
5
6
Figure 11 - Volunteer carrying out the
experiment.
Legs Distance (LRF)
Right Leg
Crossing Legs
Left Leg
0.9
Met ers
0.8
0.7
8
10
12
14
(b)
Figure 12 - Measurements of measurements of
distance to legs, legs orientation and user knee
angles obtained from volunteers during the trials:
a) with arthrosis; b) healhy.
0.6
0.5
0.4
8
10
12
14
16
18
Seconds
20
22
24
26
28
9. Conclusions
Legs Orientation (LRF)
10
Right Leg
Left Leg
Degrees
0
-10
-20
8
10
12
14
16
18
Seconds
20
22
24
26
28
20
22
24
26
28
20
22
24
26
28
XZ Knee Angle
35
30
25
20
15
10
5
8
10
12
14
16
18
XY Knee Angle
92
90
In this work the UFES’ Smart Walker was introduced.
The main goal of this development was to allow motordisabled people to use their locomotion potential to move
around. The developed walker provides safety and a more
natural human gait through the information provided by the
laser sensor. Several experiments were carried out with this
smart walker with a group of volunteers with arthrosis and
healthy people, and results have shown a good performance
of the proposed controller. The next step of this work is to
analyze the several parameters obtained from the volunteers
in order to differentiate between healthy people and
volunteers with arthrosis.
88
Acknowledgements
86
84
8
10
12
14
16
18
Authors acknowledge the support from CAPES and
CNPq.
YZ Knee Angle
30
25
20
15
References
10
5
8
10
12
14
16
18
(a)
20
22
24
26
28
[1]
S. M. Bradley and C. R. Hernandez, “Geriatric
assistive devices.,” American family physician, vol.
84, no. 4, pp. 405–11, Aug. 2011.
[2]
M. M. Martins, C. P. Santos, A. Frizera-Neto, and
R. Ceres, “Assistive mobility devices focusing on
Smart Walkers: Classification and review,”
19
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Robotics and Autonomous Systems, vol. 60, no. 4,
pp. 548–562, Apr. 2012.
[3]
[4]
A. Frizera-Neto, R. Ceres, E. Rocon, and J. L. Pons,
“Empowering and Assisting Natural Human
Mobility : The Simbiosis Mobility : The Simbiosis
Walker,” no. 3, pp. 34–50, 2011.
F. W. van Hook, D. Demonbreun, and B. D. Weiss,
“Ambulatory Devices for Chronic Gait Disorders in
the Elderly,” American Family Physician, vol. 67,
no. 8, pp. 1717–1724, Apr. 2003.
[5]
M. Martins, C. Santos, and A. Frizera, “Online
control of a mobility assistance Smart Walker,”
2012 IEEE 2nd Portuguese Meeting in
Bioengineering (ENBENG), pp. 1–6, Feb. 2012.
[6]
M. Martins, A. Frizera, and C. P. Santos, “Review
and Classification of Human Gait Training and
Rehabilitation Devices,” no. i.
[7]
“Figure: Wheelchair.” [Online]. Available:
http://ukmobilityscooters.com/. [Accessed: 10-Nov2012].
[8]
TechOn - Tech and Industrial Analysis from Asia,
“Figure: Suzuki MIO Eletric Wheelchair.” [Online].
Available:
http://techon.nikkeibp.co.jp/english/NEWS_EN/200
60927/121588/. [Accessed: 19-Apr-2013].
[9]
Special Needs - Webstore, “Figure: Paralell Bars.”
[Online]. Available:
http://www.especialneeds.com/treatment-clinicrehab-equipment-parallel-bars.html. [Accessed: 15Apr-2013].
[10]
Ansima Medical, “Figure: Mobility Training
Treadmill.” [Online]. Available:
http://ansima.pl/product/reoambulator/. [Accessed:
10-Apr-2013].
[11]
SPS, “Figure: Orthosis.” [Online]. Available:
http://www.spsco.com/products/new-releases/2-2805d.asp. [Accessed: 21-Apr-2013].
[12]
Medical Supplies & Equipament Company,
“Figure: Front-Wheeled Walker II.” [Online].
Available: http://mobility-products.medicalsupplies-equipment-company.com/medical-rollingwheeled-walker-144.htm. [Accessed: 20-Apr-2013].
[13]
Vida y Salud, “Figure: Standard Walker (ZimmerFrame).” [Online]. Available:
http://vidasalud.org.es/ayudas-a-la-movilidad.
[Accessed: 08-Apr-2013].
[14]
SupportShop.eu Webstore, “Figure: Rollator.”
[Online]. Available:
http://www.supportshop.eu/producten/loophulpmid
delen/rollators. [Accessed: 25-Apr-2013].
[15]
G. Lacey and K. Dawson-Howe, “Evaluation of
Robot Mobility Aid for the Elderly Blind,” in
Proceedings of the Fifth International Symposium
on Intelligent Robotic Systems, 1997.
[16]
A. J. Rentschler, R. A. Cooper, B. Blasch, and M.
L. Boninger, “Intelligent walkers for the elderly:
Performance and safety testing of VA-PAMAID
robotic walker,” Journal of Rehabilitation Research
and Development, vol. 40, no. 5, pp. 423–432,
2003.
[17]
G. Lacey and D. Rodriguez-Losada, “The evolution
of guido,” IEEE Robotics & Automation Magazine,
vol. 15, no. 4, pp. 75–83, 2008.
[18]
G. Wasson, J. Gunderson, and S. Graves, “Effective
Shared Control in Cooperative Mobility Aids,” in
Proceedings of the Fourteenth International Florida
Artificial Intelligence Research Society Conference,
2001, vol. 1, pp. 1–5.
[19]
V. Kulyukin, A. Kutiyanawala, E. LoPresti, J.
Matthews, and R. Simpson, “iWalker: Toward a
Rollator-Mounted Wayfinding System for the
Elderly,” in 2008 IEEE International Conference on
RFID, 2008, pp. 303–311.
[20]
A. Frizera-Neto, “Interfaz multimodal para
modelado, estudio y asistencia a la marcha humana
mediante andadores robóticos.,” Universidad de
Alcalá, 2010.
[21]
M. Spenko, H. Yu, and S. Dubowsky, “Robotic
Personal Aids for Mobility and Monitoring for the
Elderly,” IEEE Transactions On Neural Systems
And Rehabilitation Engineering, vol. 14, no. 3, pp.
344–351, Oct. 2006.
[22]
S. Dubowsky, F. Genot, S. Godding, H. Kozono,
and A. Skwersky, “PAMM - a robotic aid to the
elderly for mobility assistance and monitoring: a
‘helping-hand’ for the elderly,” in Proceedings
2000 ICRA. Millennium Conference. IEEE
International Conference on Robotics and
Automation., 2000, no. April, pp. 570–576.
[23]
V. Schneider, A. Frizera-Neto, C. Valadão, A. Elias,
T. Bastos, and A. Bento, “Detecção de pernas
utilizando um sensor de varredura laser aplicado a
um andador robótico,” Congresso Brasileiro de
Automação, 2012.
20
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Sistema de Sustitución Sensorial para Comunicación
en Sordo-Ciegos Basado en Servicio Web
Albano Carrera
Laboratorio de Electrónica y
Bioingeniería
Universidad de Valladolid
[email protected]
Alonso Alonso
Laboratorio de Electrónica
y Bioingeniería
Universidad de Valladolid
[email protected]
Roberto Morago
Laboratorio de Electrónica y Bioingeniería
Universidad de Valladolid Resumen
En este trabajo se desarrolla un dispositivo para ayuda
a la comunicación de sordos y sordo-ciegos basado en un
interfaz que reconoce comandos vocales, una i nterfaz
estimuladora que porta el paciente y un sistema de
comunicación inalámbrico para conectarlos entre sí. La
interfaz encargada del reconocimiento de los comandos
pronunciados se implementa a par tir de una e tapa
acondicionadora de audio, un PC y un servicio web
gratuito. La interfaz estimuladora consiste en un guant e
equipado con 5 vibradores electromecánicos y 5 diodos led.
Se han realizado pruebas sobre 18 s ujetos obteniéndose
buenos resultados en el funcionamiento de ambas interfaces
y del sistema completo.
Abstract
In this paper, a device to assist the communication of
deaf and deaf-blind is developed. This device is based on an
interface that recognises voice commands, an stimulating
interface that carries the patient and a wireless link to
connect them together. The voice recognition interface is
implemented through an au dio conditioning stage, a P C
and a free web service. The second interface is a
stimulating glove equipped with 5 electromechanical
vibrators and 5 l eds. Tests have been conducted with 18
control subjects and good results in the operation of both
interfaces and the whole system have been achieved.
1. Introducción
En la actualidad, la existencia de enfermedades
crónicas o l esiones discapacitantes en una parte
importante de la población conlleva, no s olo un
perjuicio económico derivado de la menor posibilidad
en el desempeño laboral de los afectados, sino también
Ramón de la Rosa
Laboratorio de Electrónica y
Bioingeniería
Universidad de Valladolid
[email protected]
Juan Pablo de Castro Grupo de Intersemiótica, Traducción y Nuevas
Tecnologías
Universidad de Valladolid [email protected]
una negativa incidencia sobre la calidad de vida de
dichas personas. A esta circunstancia se suma el
aumento progresivo de la población anciana y de su
esperanza de vida, que puede considerarse también, en
las edades más avanzadas, como una causa de
discapacidad.
Afortunadamente, existen múltiples aplicaciones de
la ingeniería destinadas a paliar muchos de los
problemas funcionales que afrontan las personas
discapacitadas. Estas aplicaciones se enmarcan dentro
del ámbito de trabajo de las Tecnologías de
Rehabilitación (TR). El grupo de investigación que
conforma el Laboratorio de Electrónica y Bioingeniería
de
la
Universidad
de
Valladolid
trabaja
fundamentalmente en este ámbito.
Entre los desarrollos básicos de las TR se
encuentran las interfaces humano-máquina, que pueden
ser de dos tipos, según el sentido de su actuación. En
primer lugar, las que captan las señales de naturaleza
diversa que puede producir el organismo para
acondicionarlas, de modo que puedan ser utilizadas
como elementos para el diagnóstico o bien en el control
de algún sistema funcional de apoyo o sustitutivo. A este
tipo las denominamos interfaces aferentes. Por otro
lado, se construyen también interfaces que se encargan
de dirigir y adecuar señales desde elementos externos
hacia el organismo, con el objeto de sustituir señales
naturales o bien de generar estímulos nuevos a los que
los sistemas biológicos pueden responder. A este otro
tipo las denominamos interfaces eferentes.
En el trabajo que aquí se presenta se han
implementado una interfaz aferente, funcionando
conjuntamente con otra eferente, para paliar un
problema concreto de discapacidad.
Una de las discapacidades más importantes es la
sordera profunda o c ofosis. Por sí sola, resulta una
enfermedad que dificulta severamente la realización de
las actividades diarias más habituales y es un excelente
21
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
objetivo para los desarrollos en TR. Si, además, la
cofosis coexiste con la ceguera en un paciente, resulta
altamente incapacitante para el mismo, sobre todo en el
ámbito de la comunicación. Existen algunas ayudas
técnicas que intentan paliar esta discapacidad
basándose en el empleo de lenguajes específicos e
incluyendo, en algunos casos, la sustitución sensorial.
Entre los dispositivos diseñados para personas con
ceguera y basados en lenguajes muy implantados, como
el Braille, pueden encontrarse equipos educativos
yespeciales [1] o teléfonos móviles con interfaz táctil [2]
[3]. Además, existen sistemas que permiten a los
usuarios orientarse en cualquier entorno mediante
planos táctiles [4], sustituyendo la información visual.
Centrando la revisión en los dispositivos de
sustitución sensorial, en [5] se presenta un s istema
basado en un p ar de anillos que vibran al reconocer
algunos sonidos de alerta y acepta también algunas
frases típicas que se muestran en una pulsera con
display. El sistema ha sido denominado Vibering y está
actualmente en el mercado. Vibering no e s un sistema
diseñado principalmente para la comunicación, sino
para la alerta ante eventos. Además, obviamente, los
sordo-ciegos no pueden leer la información que
presenta la pulsera.
En [6] se presenta un sistema de pulsera similar
para ser usado en el entorno doméstico, pero éste es
más limitado aún que el anterior en cuanto a
prestaciones, limitándose a vibrar en presencia de
sonidos de alarma en el hogar.
En cuanto al desarrollo llevado a cabo en el
proyecto “Interfaz Táctil para Sordo-ciegos”, proyecto
TacTic, [7] se trata de un sistema muy complejo y
costoso, que usa un guante con 26 elementos de
vibración, solamente indicado para personas con
conocimientos del lenguaje Malossi. Los mensajes
transmitidos son caracteres individuales y no e stá
específicamente diseñado para transformar voz en
comandos completos reconocibles.
En este trabajo hemos abordado también el objetivo
de la ayuda a l a comunicación para sordos y sordociegos desde un e nfoque diferente para desarrollar un
sistema de sustitución sensorial basado en
reconocimiento automático de voz combinado con
estimulación táctil de mensajes completos o c omandos
sobre el paciente. Para ello ha s ido necesaria la
definición del citado conjunto de comandos, ampliable
en cualquier momento, de modo que sean de utilidad
para los usuarios.
reconocimiento de voz, se encargaría de detectar
comandos hablados por un usuario y, tras su procesado,
mediante una conexión inalámbrica enviarlos a l a
segunda, eferente. Esta segunda interfaz se encargaría
de realizar una e stimulación sensorial de otro usuario.
Como interfaz de estimulación sensorial se ha
desarrollado un di spositivo que permite estimular,
simultáneamente, el sentido de la vista por medio de
destellos luminosos de colores y del tacto mediante
vibración en cada uno de los dedos de la mano.
Así pues, se seleccionarán una s erie de palabras
clave útiles para el sujeto discapacitado y se elegirá una
codificación adecuada en la interfaz de estimulación.
Así, el usuario podrá recibir y discernir entre un
conjunto de órdenes lo suficientemente amplio como
para mejorar aspectos de independencia personal y su
calidad de vida.
La interfaz debe cumplir una s erie de parámetros
relativos a l a adaptabilidad al usuario, [8], correcta
elección de la del sentido a e stimular, fiabilidad,
capacidad, entendida ésta como la cantidad de mensajes
que pueden codificarse con el dispositivo, velocidad de
respuesta adecuada y coste computacional bajo,
comodidad, evitando interferir con actividades
realizadas simultáneamente por el sujeto y coste
económico asequible para los potenciales usuarios.
3. Material y métodos
Como ya se ha indicado se implementarán dos interfaces
que, mediante su interconexión, formarán el sistema
completo. En este apartado se explicará cada una de ellas
por separado.
3.1.
Reconocimiento de voz
La interfaz aferente de reconocimiento de voz se
implementará utilizando como elemento captador un
micrófono ambiente de bajo coste colocado en el entorno
controlado de una vivienda. Con este micrófono y un
sistema acondicionador de la señal de audio, basado en el
circuito integrado SSM2166, ésta se introduce en un
ordenador personal donde se encuentra instalado un
software de reconocimiento de patrones de voz.
El circuito acondicionador de la señal de audio, Figura
1, utiliza el circuito integrado y una etapa previa basada en
amplificador operacional.
2. Objetivos
El objetivo de este trabajo es crear un s istema de
sustitución sensorial para personas con cofosis o cofosis
y ceguera. La función de este sistema es captar señales
auditivas, concretamente de voz, generadas por un
determinado sujeto, y enviarlas hacia el usuario sordo
utilizando un sentido alternativo al del oído, usando la
señal apropiada convenientemente codificada.
Para este cometido se pretende diseñar un sistema
compuesto por dos interfaces y una interconexión entre
ellas. La primera de las interfaces, aferente y de
Figura 1: Circuito acondicionador de la señal de audio.
22
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
La primera etapa implementada con un circuito TL084
se encarga de realizar una primera amplificación de la señal
de entrada así como de alimentar el micrófono. En esta
etapa se ha utilizado una configuración inversora básica de
ganancia 2 con alimentación simple de 5 voltios.
Tras esta preamplificación se utiliza el circuito integrado
SSM2166, orientado al acondicionamiento de señales de
audio. Con este dispositivo y mediante la correcta
configuración de componentes pasivos externos se pueden
conseguir variaciones y ajustes en distintos parámetros del
audio: ganancia, punto de rotación, umbral de ruido, ratio de
compresión y constante de tiempo del circuito de verdadero
valor eficaz. Para conseguir un correcto funcionamiento se
realizó una calibración experimental de cada uno de estos
parámetros, tras el conveniente análisis teórico. Así, se ha
elegido una ganancia de 10 que junto con la
preamplificación de 2 conseguirá un valor adecuado de 20.
El punto de rotación se ha elegido muy bajo de unas
decenas de milivotios rms, con este valor y combinado con
la ganancia establecida, la interfaz permite el
reconocimiento de voz a una distancia de varios metros y,
adicionalmente, limita las posibles señales de ruido
existentes. El umbral de ruido que fija la señal de entrada
mínima a la que responderá la interfaz se ha elegido en
torno a los 10 milivotios rms. La relación entre el cambio
que sufrirá la señal de salida en función de la de entrada, el
ratio de compresión, se ha fijado a un valor de 2:1. Para la
constante de tiempo de verdadero valor eficaz se ha elegido
un valor pequeño para que la interfaz no tenga una respuesta
demasiado lenta. Con estos valores para los parámetros se
consiguen unas características adecuadas para conseguir un
correcto
reconocimiento
empleando
el
software
desarrollado.
El software implementado, Figura 2, se ha diseñado para
llevar a cabo el reconocimiento de voz de una serie concreta
de patrones previamente definidos. Para este cometido se ha
desarrollado la aplicación de procesado en Java y utiliza
Internet junto con las funcionalidades de Google para el
reconocimiento, posteriormente el procesado se realiza
localmente en el ordenador personal del usuario.
Figura 2: Aspecto de la aplicación software de
reconocimiento desarrollada.
El uso de la tecnología de Google implica la necesidad
de conexión a internet para su correcto funcionamiento y,
además, la necesidad de instalar un servidor local para
poder obtener los comandos pronunciados. Se ha incluido la
opción de configurar los patrones que van a ser detectados.
De esta manera, se pueden personalizar los comandos de
voz a cada usuario.
3.2.
Estimulación sensorial
Como se ha indicado en los objetivos el propósito de la
interfaz eferente es conseguir estimular los sentidos del
tacto y de la vista. Para esta estimulación se ha elegido
utilizar la mano del usuario ya que es una de las zonas de
mayor sensibilidad táctil. Por tanto, se ha elegido estimular
con actuadores independientes de vibración cada uno de los
dedos de la mano y, análogamente, en cada uno se ha
colocado un diodo led luminoso que realiza el mismo patrón
de estimulación. Con estos dos tipos de estimuladores un
usuario puede discernir táctilmente la información de la
orden y en algunos casos si surgen dudas podría comprobar
visualmente el comando.
Para la realización de las estimulaciones se utilizarán
dos actuadores distintos. En el caso de la vibración táctil se
emplearán motores vibradores, que incorporan un peso
descompensado en el eje. Por otro lado, la estimulación
visual se realizará por medio de cinco led de diferente color:
amarillo, verde, rojo, azul y blanco.
Para implementar conjuntamente estos dos actuadores
en cada uno de los canales de estimulación ha sido
necesario utilizar un circuito de acondicionamiento para las
señales procedentes de la plataforma hardware Arduino [9],
que será la encargada de procesar la información de la
interfaz y activar las señales de cada canal, Figura 3.
Figura 3: Circuito de estimulación de cada uno de los
canales de estimulación sensorial.
Con el circuito de la Figura 3 se consigue activar los dos
actuadores con la misma señal de control, vcontrol, que activa
el led y excita la puerta de un transistor bipolar NPN de
propósito general. El diodo incluido se encarga de recoger
las corrientes impulsivas generadas en el motor vibrador
cuando éste se apaga súbitamente. Al utilizarse cinco
canales de estimulación, como el presentado en la Figura 3,
uno en cada uno de los dedos, es necesario utilizar cinco
salidas digitales del Arduino para el control.
Todo el sistema de actuadores se colocará en un guante
convencional como los que se utilizan normalmente en la
industria, Figura 4. La mecanización de los motores y los
led se ha realizado en la parte exterior de los dedos,
reservando la parte interna para que el usuario mantenga un
total manejo de objetos con la palma de la mano y la parte
interna de los dedos.
La Figura 4 presenta el aspecto final del prototipo de
interfaz eferente desarrollado. En cada uno de los dedos se
ha instalado un encapsulado que incorpora todos los
componentes necesarios y una carcasa. En la parte izquierda
pueden verse en detalle dos de los actuadores. Este sistema
de estimulación permite obtener una vibración discernible
en cada uno de los dedos y la estimulación táctil visual
23
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
proporcionará al usuario información adicional sobre el
comando de interés.
Figura 4: Interfaz eferente de estimulación sensorial
visual y táctil.
El software incluido en la plataforma hardware Arduino
se encarga de recibir la correspondiente orden de un
subsistema de procesado externo y codificarla en un patrón
de estimulación concreto. Se han codificado un total de 24
combinaciones diferentes en función de los actuadores
activos y su frecuencia de funcionamiento, aunque la
interfaz permite un mayor número de ellas. De esta manera,
se han utilizado combinaciones de dedos, desde uno a cinco
activos, y dos posibles frecuencias, 1 o 10 hercios.
Asimismo se han combinado diferentes frecuencias en un
mismo patrón de estimulación. Debido a la posibilidad de
incrementar tanto el número de frecuencias de
funcionamiento como de actuadores utilizados, las posibles
codificaciones
obtenidas
pueden
incrementarse
notablemente. Este hecho convierte a la interfaz en un
dispositivo completamente escalable en función de las
necesidades y del entrenamiento de un determinado usuario.
3.3.
Enlace inalámbrico
Para completar el sistema de sustitución sensorial,
empleando directamente la interfaz aferente de
reconocimiento de voz y la interfaz eferente de estimulación
sensorial, bastará con realizar un enlace inalámbrico entre
ambos dispositivos de manera que el patrón de voz
reconocido sea codificado a una orden de estimulación
concreta; Figura 5.
De esta manera, en el ordenador personal donde se
realiza el procesado del reconocimiento de voz se activará
una conexión inalámbrica Bluetooth, puerto serie, que
enviará las pertinentes órdenes al Arduino. En el Arduino
utilizado para el control de la estimulación sensorial se
incorporará un módulo Bluetooth para cerrar el enlace entre
las interfaces. Cuando se reciba una orden concreta se
analizará y se procederá a estimular al usuario con el código
correspondiente.
Figura 5: Sistema de sustitución sensorial.
4. Resultados
Se ha realizado pruebas del sistema de sustitución
sensorial en 18 sujetos de control, Tabla 1, en el entorno
controlado del laboratorio de investigación. La Tabla 1
muestra la relación de los sujetos de control indicando su
edad, sexo y lado dominante para la mano (sujeto diestro o
zurdo). Este último dato es relevante ya que el prototipo de
interfaz eferente es de mano derecha. La muestra de sujetos
de control obtenida incluye está equilibrada en lo que a sexo
se refiere: 9 hombres y 9 mujeres. El rango de edades se
sitúa entre los 18 y los 58 años aunque un tercio de los
sujetos de ubican en el intervalo entre 25 y 30 años.
Finalmente, en lo que respecta al lado dominante se ha
podido contar, únicamente, con un sujeto zurdo masculino
para la realización de los ensayos con el sistema.
Para estas pruebas se ha elegido hacer ensayos
independientes con las dos interfaces estudiando la
respuesta con los sujetos de control. De esta manera, se han
desarrollado, en primer lugar, los ensayos con la interfaz de
reconocimiento de voz y, posteriormente, con la interfaz de
estimulación visual y táctil. Este desglose de las pruebas
tiene sentido para la realización del estudio porque cada una
de estas interfaces funcionaran en sujetos diferentes. Por lo
tanto, se han elegido aleatoriamente diez de los patrones de
voz asociados a comandos sensoriales para los ensayos con
cada interfaz.
Tabla 1: Relación de sujetos de control junto con sus
características principales.
Número
Edad
Sexo
Diestro/zurdo
1
40
Hombre
Diestro
2
27
Hombre
Diestro
3
22
Mujer
Diestro
4
28
Hombre
Diestro
5
48
Hombre
Diestro
6
58
Hombre
Diestro
7
44
Hombre
Zurdo
8
50
Mujer
Diestro
9
29
Hombre
Diestro
10
41
Hombre
Diestro
11
19
Mujer
Diestro
24
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
12
13
14
15
16
17
18
18
25
26
37
50
29
38
Hombre
Mujer
Mujer
Mujer
Mujer
Mujer
Mujer
Diestro
Diestro
Diestro
Diestro
Diestro
Diestro
Diestro
4.1. Interfaz de reconocimiento de voz
El protocolo seguido para las pruebas de la interfaz de
reconocimiento de voz se basa en pruebas de
reconocimiento de 10 patrones definidos previamente,
Tabla 2, a dos distancias distintas 50 cm y 2 m.
Tabla 2: Relación de patrones de voz a reconocer en las
pruebas de la interfaz aferente del sistema de sustitución
sensorial.
Número de orden
Patrón de voz
1
habitación
2
azul
3
ayuda
4
cuidado
5
estudiar
6
comida
7
adiós
8
madre
9
rojo
10
muy bien
En este caso, el protocolo consiste en la ejecución del
comando de voz por parte del sujeto de control en dos
ocasiones, para cada una de las dos distancias propuestas.
Tras cada uno de los comandos se apuntaba si el
reconocimiento del patrón había sido satisfactorio o no. Los
resultados obtenidos se presentan en la Figura 6 para una
distancia de 50 cm y en la Figura 7 para una distancia de 2
m.
Figura 6: Aciertos y errores de la interfaz de
reconocimiento de voz en las pruebas realizadas a 50 cm
por los 18 sujetos de control de la Tabla 1.
Figura 7: Aciertos y errores de la interfaz de
reconocimiento de voz en las pruebas realizadas a 2 m
por los 18 sujetos de control de la Tabla 1.
Los resultados muestran un acierto promedio del 88%
para una distancia de 50 centímetros, Figura 6. En este caso,
se producen pocos errores a la hora de detectar el patrón de
interés, salvo en un caso puntual, los errores son inferiores a
cinco en todos los sujetos. Tal y como puede suponerse a
priori, si se aumenta la distancia entre el sujeto y el captador
de sonido aumentará la tasa de errores a la hora de detectar
el patrón de la orden correspondiente. Analizando la gráfica
de la Figura 7, y comparándola con la de la Figura 6, se
observa que, efectivamente, el número de errores en la
detección del patrón de voz aumenta. Aún así, el
funcionamiento de la interfaz se considera muy adecuado a
esta distancia, ya que todos los sujetos menos uno
consiguen una tasa de acierto superior al 50% y, en algunos
casos del 100%. Merece la pena destacar que, durante el
desarrollo de estas pruebas, no se han efectuado cambios en
la configuración del circuito acondicionador de la señal del
micrófono, Figura 1, tomándose una configuración por
defecto, pero en algunos casos si fuera necesario un ajuste
del sistema a cada usuario y/o distancia, podrían
modificarse diferentes parámetros como se ha explicado en
el apartado 3.1.
Si se centra la atención en los errores conseguidos en los
diferentes patrones mostrados en la Tabla 2, éstos pueden
resumirse en una gráfica, Figura 8. Se han utilizado dos
colores diferentes: gris oscuro para los errores a la distancia
m.
de 50 cm y gris claro para los errores de reconocimiento a 2
Tras el análisis de la gráfica de la Figura 8 se observa
que uno de los patrones es dominante a la hora de producir
errores de reconocimiento de voz, concretamente el patrón
número 8, correspondiente a la palabra “madre”. El resto de
patrones presentan una tasa de error comparable entre ellos
para ambas distancias. La razón de que el patrón 8 presente
una tasa de errores tan elevada se debe al uso del fonema ‘r’
unido a otra consonante, es decir, el sonido ‘dr’, que puede
resultar complicado de detectar si no se pronuncia
claramente.
En las gráficas de resultados de la Figura 6 y Figura 7 se
muestran los resultados conseguidos en la pruebas como
número de aciertos, gris oscuro, y número de fallos, gris
claro, sobre el número total de intentos, 20, en cada una de
las distancias.
25
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
1
2
3
11
12
13
Los resultados conseguidos por los sujetos de control se
muestran en la Tabla 4, para los diferentes patrones de la
Tabla 3. Se ha utilizado una nomenclatura simbólica para
los resultados: el símbolo “” indica que no se ha
acertado/decodificado el comando de estimulación, mientras
que “” presenta los intentos acertados. Tal y como se ha
indicado, cada sujeto tiene un máximo de tres intentos para
cada orden de estimulación, por tanto en la Tabla 4 se
incluirán diferentes símbolos para reflejar todos los
escenarios: acierto directo (“”), fallo y acierto (“”), dos
fallos y acierto (“”) y tres fallos (“”).
10
9
Tabla 3: Relación de patrones de estimulación visual y
táctil diseñados para las pruebas de la interfaz eferente
del sistema.
Nº de
Actuadores en funcionamiento y frecuencia
orden Pulgar Índice Corazón Anular Meñique
1
10 Hz
10 Hz
2
1 Hz
3
1 Hz
1 Hz
10 Hz
4
10 Hz 10 Hz
10 Hz
10 Hz
10 Hz
5
1 Hz
1 Hz
1 Hz
6
10 Hz
7
10 Hz
8
1 Hz
1 Hz
9
1 Hz
10
1 Hz
1 Hz
Tabla 4: Resultados de los sujetos de control con la
interfaz de estimulación sensorial.
Número de orden
1 2 3 4 5 6 7 8 9 10
         
  

         

         
 
 
         
  
 
         

  

  
         
   
   
         
  
   
 
         

  
  
         

  
  
         


 


 

         

  

  
         

  
  
         

  
  
4
En lo que respecta a la interfaz eferente de estimulación
sensorial visual y táctil, se ha optado por utilizar los
comandos de estimulación correspondientes a los patrones
de voz de la Tabla 2, recogidos en la Tabla 3. Aunque la
interfaz permite la estimulación simultánea de la vista y el
tacto, en las pruebas sólo se utilizará la estimulación del
tacto. Esta discriminación en el uso de la interfaz se debe a
la facilidad de los sujetos para detectar patrones visuales y,
asimismo, debido a la mayor posibilidad de realizar tareas
simultáneas con la interfaz de estimulación táctil que
permite no tener ocupada continuamente la vista. De esta
forma, se instaba a los sujetos de control a utilizar la
interfaz e intentar decodificar el signo enviado. Se
realizaban un máximo de tres intentos para cada patrón, si el
sujeto no era capaz de identificar el comando, pasando al
siguiente patrón de estimulación siempre que el usuario
averiguaba la codificación de la orden.
5
4.2. Interfaz de estimulación sensorial
Número de sujeto
8
7
6
Figura 8: Errores para cada uno de los patrones de voz
de la Tabla 2 en las pruebas realizadas a dos distancias
diferentes, 50 cm y 2 m.
En la Tabla 4 puede observarse que las órdenes 2, 6, 7 y
9 presentan un reconocimiento sencillo, en casi todos los
casos marcadas con el símbolo “”, debido a que se trata de
comandos simples en los que funciona un único
estimulador. Atendiendo a las órdenes con dos actuadores
simultáneos: 1, 8 y 10, puede verse que el reconocimiento
del patrón de estimulación es más complicado, aunque, en
la mayor parte de los casos, el sujeto lograba decodificar la
orden estimulada. No obstante en estos tres casos
comienzan a aparecer los primeros fallos en los tres
intentos, “”. Especial atención requieren las órdenes 3,
4 y 5, éstas producen errores de decodificación, “”, en
la mayor parte de los sujetos. Entres estos tres casos, la
orden más fácil de decodificar es la número 5 que presenta
tres estimulaciones simultáneas con la misma frecuencia,
seguida de la número 4 de cinco estimulaciones. En ambas
sólo 6 sujetos decodificaron el comando de interés.
Finalmente, la orden 3, que combina tres estimuladores y
las dos frecuencias posibles, presenta más inconvenientes en
la decodificación y sólo 5 sujetos consiguieron obtener el
comando de estimulación correcto.
26
Libro de actas DRT4ALL 2013



























18
17
16
15
14
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos































































Centrando el análisis en los sujetos de control, la
mayoría de ellos consigue resultados similares a la media.
El sujeto número 7 que, tal y como presenta la Tabla 1, es
zurdo tuvo mayores dificultades en la decodificación de
algunas órdenes pero presentó un comportamiento global
similar al del resto de sujetos. Este usuario consiguió
decodificar pese a utilizar una interfaz de mano derecha
siendo su lado dominante el izquierdo todas las órdenes
menos la número 3, reflejada como la de mayor dificultad.
Además, lo resultados reflejan que tras un periodo de
entrenamiento un sujeto puede conseguir un alto nivel de
sensibilidad con la interfaz y la decodificación de las
órdenes. En esta tesitura se encontraba el sujeto número 2
que consiguió realizar una decodificación directa de todas
las órdenes menos una en la que tuvo un fallo.
4.3. Valoración de los usuarios
Tras la realización de las pruebas se instaba a los sujetos
a rellenar una encuesta valorando de 1 a 5, siendo 1 la
valoración mínima y 5 la máxima, diferentes aspectos del
sistema de sustitución sensorial y sus interfaces. La Tabla 5
muestra los resultados de las encuestas para la nota media y
la moda de las notas.
Tabla 5: Nota promedio y moda de las notas obtenidas
en la encuesta de valoración del sistema de
comunicación aumentativa.
Nota
Moda
Característica
media
Idea de sustitución sensorial
4,89
5
Codificación de las órdenes
4
4
Comodidad de la interfaz de
4,22
5
estimulación
A la vista de los resultados de la Tabla 5 se observa que
los sujetos de control valoraron muy positivamente la idea
de sustitución sensorial para personas con cofosis o cofosis
y ceguera. En lo que respecta a la interfaz eferente de
estimulación sensorial a la gran mayoría de los sujetos les
pareció de una comodidad adecuada a pesar de tratarse de
un guante de talla grande que no se ajustaba perfectamente
en todos los casos. Más penalizada, aunque consiguiendo
una nota elevada, estaba la codificación de las órdenes de
estimulación propuesta, ya que muchos de los comandos no
fueron correctamente decodificados por los sujetos. Si bien,
la valoración alta refleja que los sujetos entendían que
realizar selecciones encendido/apagado de los estimuladores
y cambios en las frecuencias de funcionamiento de éstos era
un método válido y muy útil de codificación. Asimismo, los
sujetos que encontraban más problemas en la identificación
de ciertos patrones de estimulación con un poco de
entrenamiento, tras la realización del protocolo, eran
capaces de diferenciar órdenes muy similares.
5. Conclusiones
Se ha desarrollado un sistema de sustitución sensorial
basado en la interconexión inalámbrica Bluetooth de dos
interfaces. Estas interfaces, una aferente de reconocimiento
de voz y otra eferente de estimulación sensorial visual y
táctil, permiten traducir información auditiva en táctil. Este
hecho consigue que personas con cofosis o cofosis y
ceguera puedan responder adecuadamente a diferentes
órdenes de voz. Además, el sistema podría utilizarse en
otros ambientes diferentes, por ejemplo, entornos
industriales muy ruidosos donde un encargado debe
comunicarse con los operarios o cuando deben recibirse
instrucciones en un idioma a priori desconocido que puede
ser traducido a información táctil reconocible.
Adicionalmente, habría que destacar que el dispositivo
de estimulación puede tener otras funcionalidades añadidas
como por ejemplo que el usuario obtenga una
realimentación táctil de determinados eventos o ejercicios
de rehabilitación. Mediante este tipo de técnicas los sujetos
pueden experimentar un aprendizaje y una recuperación
más efectiva, [10].
El sistema se ha implementado satisfactoriamente y ha
sido probado en 18 sujetos de control realizando un
protocolo específico e independiente para cada una de las
dos interfaces que lo componen.
Se observa que el funcionamiento de la interfaz de
reconocimiento de voz es satisfactorio incluso para
distancias de 2 metros, con una tasa de acierto del 73%,
teniendo en cuenta que se ha empleado un micrófono de
bajo coste con una etapa de acondicionamiento. Para el caso
más favorable, a una distancia de 50 centímetros, la tasa de
acierto ascendía hasta el 88%. Además, estos resultados
pueden mejorarse si se realizan los debidos ajustes en
diferentes parámetros adaptando el dispositivo a distintas
situaciones y usuarios
En lo que respecta a la interfaz de estimulación
sensorial, los resultados demuestran que es un dispositivo
adecuado para la función que se pretende realizar. Todos los
sujetos bajo estudio son capaces de decodificar las órdenes
de estimulación, aunque aparecen problemas en algunos
patrones concretos que podrían desaparecer con diferentes
ciclos de entrenamiento. Además, se podría adecuar la
interfaz a las necesidades y capacidades del usuario, esto
quiere decir que se podrían evitar combinaciones que
produzcan confusión o personalizar la ubicación de los
estimuladores. En cualquier caso, al combinarse
estimulación táctil con información visual, ésta puede servir
para discernir sin ambigüedad el comando recibido. El
hecho de que prime la información táctil frente a la visual
tiene como consecuencia un mayor nivel de independencia
del usuario, ya que le permite evitar tener que mirar
continuamente a la interfaz.
Comparando la interfaz de estimulación y los resultados
obtenidos con otros dispositivos encontrados en la literatura
27
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
y ya mencionados anteriormente, [7], se debe destacar la
gran dificultad que tendría un usuario para detectar y
entrenarse en la decodificación utilizando un alto número de
motores, 26 en este caso. Además, el hecho de utilizar en el
diseño presentado en este trabajo un código de patrones de
estimulación frente al lenguaje Malossi que se emplea en
[7], permite al paciente recibir de manera sencilla y más
rápidamente la información de interés. Adicionalmente, la
colocación de los actuadores en la palma de la mano
inhabilita completamente la funcionalidad de la extremidad.
Asimismo, la valoración de todo el sistema por parte de
los sujetos de control ha sido muy elevada 4,89 puntos
sobre un máximo de 5. Se ha puntuado obteniendo una nota
elevada tanto la idea de sustitución sensorial como la
comodidad de la interfaz de estimulación y la codificación
de sus órdenes.
6. Agradecimientos
Este trabajo ha sido financiado parcialmente por la
Consejería de Educación de la Junta de Castilla y León
(España) y por el Fondo Social Europeo.
7. Referencias
[1] A. Haber-Olguin, J. Quintero-López, “Dispositivo
electrónico simulador del código Braille con
interfase multimedia interactiva”, Revista Mexicana de
Oftalmología, Sociedad Mexicana de Oftalmología, México
DF, 2005, 79 (1), pp. 32-36.
[2] Seunghan Song, “Universal Phone”, 2009. Disponible
en
http://www.tuvie.com/universal-phone-is-especiallydesigned-for-blind-people/, última visita: 30 de abril de
2013.
[4] Robert Richter “Plan.B”, 2010. Disponible en
http://www.oriko.com/#industrie&003planb, última visita:
30 de abril de 2013.
[5] K. S. Jeong, M. H. Kim y H. J. Kim, “Vibering Sensor”,
2013. Disponible en http://www.eloido.com/viberingsensor-un-anillo-sensor-para-sordos/, última visita: 30 de
abril de 2013.
[6] A.F.T. Hin, E.J. Mohamad, “The wireless notification
system for the hearing impaired”, Sensors & Transducers,
International Frequency Sensor Association (IFSA), 2006,
69 (7), pp. 606-614.
[7] Proyecto Tactic TSI-020100-2009-639 “TacTIC Interfaz
Táctil para Sordociegos”. Disponible en http://innovationlabs.com/tactic, última visita: 30 de abril de 2013.
[8] A. Alonso, R. de la Rosa, A. Carrera, A. Bahillo, R.
Durán, P. Fernández, “A control system for robots and
wheelchairs: its application for people with severe motor
disability”, Mobile Robots – Current Trends, InTech,
Rijeka, 2011.
[9] Arduino, “Arduino”. Disponible en:
http://www.arduino.cc/es/, última visita: 30 de abril de
2013.
[10] M.S. Cameirão, S. Bermúdez i Badia, E. Duarte, A.
Frisoli, P.F.M.J. Verschure, “The combined impact of
virtual reality neurorehabilitation and its interfaces on upper
extremity functional recovery in patients with chronic
stroke”, Stroke – Journal of the American Heart
Association, American Heart Association, Boston, 2013, 43
(10), pp. 2720-2728.
[3] Zhenwei You, “B-Touch mobile phone”, 2009.
Disponible en
http://www.yankodesign.com/2009/06/15/touchphone-forthe-blind/, última visita: 30 de abril de 2013.
28
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Recommendations for ensuring a satisfactory user
experience for visually impaired students in Distance Higher Education Institutions
Pablo Rebaque-Rivas
Universitat Oberta de
Catalunya (UOC)
[email protected]
Eva P. Gil-Rodríguez
Universitat Oberta de
Catalunya (UOC)
[email protected]
Resumen
This study offers a series of recommendations for
Distance Higher Education Institutions and e -learning
environments to ensure a satisfactory user experience for
visually impaired students. It is based on a c ase study
conducted at the Universitat Oberta de Catalunya (UOC),
in which 15 visually impaired students were interviewed in
depth to learn more about their daily activities.
Additionally, a usability test was conducted. The students
encounter different difficulties in their daily activities, chief
among them the fact that not all educational content are
accessible. With regard to the e-learning environment, the
students noted that the content was easy to access and wellorganized thanks to the use of widgets. It is essential for
educational content to be provided in all possible formats,
so that each student can choose the format that best suits
his or her needs. It is also advisable for the online
environment to allow users to decide what content to view
and where to view it.
Este estudio ofrece una serie de recomendaciones para
las instituciones de educación superior a distancia y sus
entornos de e-learning que aseguren una experiencia de
usuario satisfactoria para los estudiantes con discapacidad
visual. Se basa en un estudio de caso realizado en la
Universitat Oberta de Catalunya (UOC), en la que 15
alumnos con discapacidad visual fueron entrevistados en
profundidad para conocer más acerca de sus actividades
diarias. Además, se realizo un test de usabilidad. Los
estudiantes se enfrentan a diversas dificultades en sus
actividades diarias, Entre ellas el hecho de que no todos los
contenidos educativos sean accesibles. Con respecto al
entorno de e-learning, señalaron que el contenido era de
fácil acceso y bien organizado gracias a l a utilización de
widgets. Es esencial que los contenidos educativos se
incluyan en todos los formatos posibles, para que cada
estudiante pueda elegir el formato que mejor se adapte a
sus necesidades. También es aconsejable que el entorno
virtual permita a los usuarios decidir qué contenidos ver y
dónde verlos.
Llorenç Sabaté-Jardí
Universitat Oberta de
Catalunya (UOC)
[email protected]
1. Introduction
In higher education e-learning environments,
adequate accessibility and usability are critical to
ensuring that visually impaired students do not have
problems accessing the different parts of the virtual
campus and are able to complete their training under
equal conditions and w ith the same ease as students
without visual impairments. However, merely complying
with accessibility standards does not always guarantee a
satisfactory user experience (Lazar, Allen, Kleinman, &
Malarkey, 2007; Ribera, Térmens & García, 2008;
Sloan, et al., 2006; Theolanos & Redish, 2003). It is thus
necessary to have a m ore direct understanding of the
end users in their routine contexts to ensure that their
user experience is truly satisfactory (Ribera et al., 2008;
Sloan, et al., 2006; Theolanos & Redish, 2003).
Nevertheless, this contextual methodology is rarely used
to assess the accessibility of the e-learning environments of
university institutions, let alone the accessibility of
exclusively distance learning institutions. As a general rule,
automatic tools (Alexander & Rippons, 2007; Kane,
Shulman, Shockley & Ladner, 2007; Kelly, Sloan, Phipps,
Petrie & Hamilton, 2005; Ribera, Térmens, Frías, 2009;
Schmetzke, 2005) or the author’s own experiences
(Burgstahler, 2002; Cooper, 2006) are used to make
recommendations for accessible design. Other authors, such
as Porras and Ribera (2008), Lazar et al. (2007) and
Theolanos and Redish (2003 and 2005), have examined
users’ interactions in online environments, but not in elearning environments.
It would be mistaken to limit oneself to performing only
usability and accessibility tests on online environments
without taking into account all the potential interactions that
a visually impaired student might carry out in relation to a
distance education institution. It is thus critical to expand
the concept of accessibility to include not only the website
but also other potential interactions, such as access to
educational content or the resources and activities proposed
by the faculty.
29
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Through the use of questionnaires and interviews with
affected parties (Asuncion et al., 2008), use cases and the
experiences of authors at their institutions (Burgstahler,
2002; Burgstahler, Corrigan & McCarter, 2004; Cooper,
2006; Edmonds, 2004), and surveys of the state of the art
and the literature (Burgstahler 2006), some authors have
looked beyond web accessibility, raising issues and offering
recommendations for accessibility and organizational
policies and addressing cultural, legal and technical issues.
However, we agree with Candido (2008) regarding the
lack of research with visually impaired students on their
experience with and perceptions of online learning. Candido
stressed in his dissertation the importance of using a
qualitative approach to examine the experiences of visually
impaired students in greater detail in order to understand
their specific experiences and perceptions regarding elearning.
The following paper offers a series of specific design
recommendations for online courses and e-learning
environments in which customization emerges as a key
factor. These recommendations seek to ensure a satisfactory
user experience for visually impaired students and are based
on a case study at the Universitat Oberta de Catalunya
(Open University of Catalonia, UOC), a Spanish postsecondary institution that offers its teaching and learning
services exclusively on a virtual campus. Although the
UOC has been implementing measures to improve
accessibility for many years (e.g., conducting accessibility
assessments of the virtual campus, providing more time on
official exams, adapting educational content to accessible
formats for some subjects, etc.), it was necessary to
determine in greater detail the extent to which accessibility
could be improved in the daily activities involved in
students’ learning processes. To this end, the contextual
inquiry method (Beyer & Holtzblatt, 1998) was used and
usability tests of the e-learning environment were conducted
with 15 visually impaired students in their homes, their
natural context for studying.
2. Objectives
Our research had 2 objectives. First, a qualitative
approach was used to make ethnographic observations and
conduct in-depth interviews (Beyer & Holtzblatt, 1998) in
the homes of visually impaired students in order to explore
their daily activities in relation to the UOC with a view to
determining the main difficulties and needs they encounter
and how they resolve them. This made it possible to
propose recommendations for ensuring a satisfactory user
experience as students in a distance higher education
institution.
Second, the research sought to assess the usability and
accessibility of the e-learning environment, the starting
point for the student’s online education. To this end, a
usability test was performed with the aim of gathering a
series of recommendations for designing e-learning
environments that are accessible and satisfactory for
visually impaired students.
3. Methodology
Described below are the methodology, the
characteristics of the study population, the results of the
fieldwork and the resulting recommendations, as well as the
final conclusions.
As noted by Ribera et al. (2009), current best practices
on accessibility incorporate the philosophy of user-centered
design (UCD). One UCD method is contextual inquiry, a
specific type of interview for gathering field data from users
(Beyer & Holtzblatt, 1998). In keeping with this approach,
both the in-depth interviews and the tests were conducted at
the students’ homes.
The aim of this participant observation was, first, to
observe in detail what the participants’ everyday study
context was like in order better to understand how they use
the different assistive tools, technologies and devices for the
visually impaired. Second, conducting the usability tests at
their homes ensured that they were done in the familiarity of
their natural context for studying, which made it possible,
among other things, to perform the test in some cases using
students’ own monitors, especially in the case of those
students who use ZoomText, as they tend to use much
larger monitors.
The in-depth interviews aimed to determine what
actions the students carried out over the course of their
everyday activities as UOC students and what interactions
they needed to carry out in the virtual environment and with
other people or devices to complete any step within their
learning activities (with university management staff,
faculty, educational content, etc.).
The user tests were conducted on the UOC’s e-learning
environment. The environment includes a horizontal menu
at the start listing different services, as well as a series of
widgets offering access to relevant content for the student,
such as e-mail, the agenda, classrooms (each student has
one classroom per subject on which he or she is enrolled),
news, etc. The e-mail widget, for example, shows the
number of new messages received and provides a list
thereof; the widgets for the different classrooms can be used
to access different educational resources and also notify the
student of any new messages received from classmates,
faculty, etc. Moreover, the widgets can be customized, such
that users can add, remove or reposition them or even
change their color (see Figure 1).
Figure 1. Screenshot of the UOC’s e-learning
environment, with the e-mail widget on the left, the
classrooms widgets in the middle, and the agenda
widget on the right
30
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
The test consisted of different tasks representing typical
actions that a student might carry out when interacting with
the e-learning environment, such as checking mail, finding
the next event on the calendar, determining the number of
messages in the forum for a subject, etc. To perform the
test, an accessibility laboratory was used. This laboratory is
a laptop computer with two screen readers (Jaws 10.0 and
NVDA 2009), magnifying software (ZoomText 9.1), braille
translation software (Quick Braille 1.2), braille, screen
recording software (Morae 2.0) and a webcam to capture the
interaction between the user and the e-learning environment
(it should be noted that when Morae is used on a screen
with ZoomText, the resulting recording does not record the
zoom effect of the magnifier), as well as any spontaneous
comments or emotional reactions, respectively.
4. Sample
Of all the visually impaired UOC students contacted for
the study, 15 agreed to collaborate, of which 4 were men
and 11 women, all between the ages of 22 and 64. Most
students lived with a partner and their children or with their
parents. All of the tested students were enrolled in an arts or
social science degree program, with special emphasis on
humanities, law and psychology. Primarily, they were
studying as a hobby.
As for the assistive technology used, 4 students used a
screen reader (in one case, he had only been doing so for
one month); 5 used a screen magnifier; 6 used the zoom
function on their PC. These students tended to have less
vision loss than students who used a magnifier, either
because they still had vision in one eye, had a recurrent
condition, or were sensitive to light.
5. Results
Shown below are the results of the content analysis
(Krippendorff, 2004) of the interview transcriptions, as well
as the results of the tasks carried out during the user tests.
5.1. Results of the contextual interviews
The in-depth interviews conducted in the visually
impaired students’ routine contexts for studying yielded
results concerning: a) the planning, time and features of the
place of study; b) the materials and study methods used; and
c) the difficulties encountered when performing the
different typical tasks as students in a distance higher
education institution.
5.1.1. Planning, time and place of study. Visually
impaired students study like any other student without a
visual impairment at the university, that is, they log onto the
virtual campus every day to check their e-mail, read
messages from the lecturers, forums and debates, and read
or listen to the educational content. Once they have
completed this reading, they engage in the learning
activities (which are sent by the lecturer every 2 or 3 weeks,
as assessments are continuous).
They usually perform these tasks from home. However,
some students also take advantage of other times and
situations, such as commutes and waits, to read and listen to
content, as well as of down time at work to prepare and
write their responses to a debate or forum. Thus, students
plan their activities based on the different situations they
expect to encounter. For instance, if they have a commute or
know that, at some point during the day, they will have
some down time due to a wait, they prepare the material
they will need to take advantage of that time: “When I have
to wait for my son to finish up at the conservatory, I bring
along the recordings to listen to”. Another user does the
assessment activities and content summaries and accesses
supplementary content at home, but listens to the content in
Daisy format on his commutes.
However, when making their plans, they take into
account that they will need more time to complete an
activity than students without visual impairments because:
− They must spend time resolving accessibility issues
with regard to the educational content.
− The use of assistive tools for the visually impaired
slows interactions with the website and reading:
“The more you magnify the screen, the slower you
go, because you lose your field of view”.
− They have to take breaks from the computer screen
to rest their eyes, due to the fatigue caused by the
light of the screen.
5.1.2. Study methods, materials and formats. The study
method used by visually impaired students is no different
from that used by students without visual impairments.
Basically, they make use of assistive tools for the visually
impaired to read and study the content and take advantage
of other formats, such as audio, to optimize their studying.
The interviewed students used the following formats
and materials:
Print: Only a few students who use a magnifier or the
zoom function on their PC also use the print format. When
they do, it is either out of personal preference or because the
content is not available in audio format. They tend to use
print formats with a page-to-TV magnifier, a magnifying
glass or no additional tool at all. Students who use the zoom
function on their PCs as well as the print format also tended
to use lecterns.
Audio: Whether as an mp3 or in Daisy format, audio is
used by many students, regardless of their preferred
assistive tools. Some even consider it the ideal format: “It
would be great if I could convert everything to audio”. Most
of the audio files used by students are recordings made by
the students themselves or a family member. The reasons
for using audio include: reviewing, studying or getting a
general idea of the content; reading long PDFs and resting
one’s eyes; lack of time; and when the original material is
not accessible and the student has to convert it to audio
format.
PDF: This format is used by the vast majority of
students (it is the format in which the University provides
31
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
its educational content), whether with the help of a
magnifier, a screen reader or the zoom function on their
computers. However, it is also the one that gives the most
problems in terms of accessibility.
Word: This is the format used by students who use
ZoomText or a screen reader to convert inaccessible PDFs.
To do this, they scan the document with an OCR to convert
it to a Word document or copy and paste from the PDF to
Word. However, both methods can cause layout problems
and images are lost. Some students convert the PDF to
Word because it allows them to annotate and underline in
the original document while also keeping another Word
document open to take notes.
Braille: Only 2 of the interviewed students regularly use
braille to read content in order to facilitate understanding
and memorization, read short documents, and read content
with economic data, tables, legal arguments, slang, etc., as
such content is harder to scan and listen to.
5.1.3. Main difficulties. Visually impaired students face
multiple difficulties when studying. The main and most
serious problem is encountering content that is not
accessible in the educational content and learning activities
such as inaccessible PDFs, scanned PDFs, images, videos
and flash formats.
As a result, the preferred format for interacting is
conditioned by whether or not the specific format is
accessible. While some students prefer to use multiple
formats, such as Daisy and text, most students ultimately
choose Word, as it gives the fewest problems to read using a
screen reader or magnifier and it moreover allows editing
and underlining: “I like to be able to underline because,
otherwise, when you come back to a text, you have to read
it all over again”.
Additionally, when students do encounter educational
content that is not accessible, they are required to spend
time making it accessible, whether by asking the lecturer for
help, adapting the content themselves (e.g., by converting a
PDF to Word or by recording the content themselves to
listen to it later), or by asking a family member for help: “If
I have problems with a given material, the first thing I do is
tell the lecturer. If he can’t solve it, I do it myself or try to
get someone to help”.
These setbacks due to not having the content can lead to
significant distress while waiting for it to become available:
“It makes you very nervous, because you can’t start”.
Moreover, it affects students’ ability to participate in
debates and forums about the content in question.
This time investment also means that the students have
less time later to complete the learning activities, with the
ensuing consequences for the quality of their performance
on them. Additionally, when a learning activity requires
students to view images or videos in order to answer
questions about them, the lecturer may not have prepared an
alternative activity that does not include images or videos,
and these students may thus be deprived of the chance to
complete this activity on an equal basis with students
without visual impairments.
Another problem arises when students have to consult
content for the learning activities that is not part of the
official content, such as websites or other documents. This
requires students to spend more time than expected in front
of the computer, which is not advisable for some students
due to their disability, and to consult other websites or
documents the accessibility of which may not be
guaranteed.
As noted above, students sometimes encounter
educational content and learning activities that are not
accessible. When they notify the lecturer about this
problem, the proposed solutions are not always adequate, no
doubt because the lecturer is not entirely aware of what it
means for content to be accessible or has insufficient
knowledge of accessibility. One student explained,
“Sometimes when I tell them that I can’t see the images,
they tell me to enlarge them, but even when I enlarge them,
I still can’t see them, so they tell me to read whatever, but I
can’t read in print format either”. Or in the words of another
student, “I bet they would never send an audio file to a deaf
person”.
Finally, another factor to be taken into consideration is
whether or not students notify the lecturer of their visual
impairment to ensure that the educational content is
accessible, as even when they do so in advance, there is no
guarantee that the lecturer will find the best way to offer
accessible content. Indeed, not all of the interviewed
students do choose to state that they are visually impaired,
as it makes them feel uncomfortable and they do not want
seem like nags (“If I have to keep repeating in every subject
that I can’t see, I feel whiny and annoying”) or they do not
want to be shown any favoritism (“People tend to show
favoritism, and I don’t want that. I don’t want them to find
out that I have this problem and then turn around and say,
‘Oh, you poor thing’”).
5.2. Results of the user test
As a general rule, the vast majority of students
successfully completed the different proposed tasks.
Regardless of the adaptive tool used, the students gave
positive feedback on having the content relevant to their
studies (such as e-mail, classrooms, etc.) organized in
widgets since all the content that they are most interested in
is located on the same page. That is, the students do not
need to open new windows to access to that content. In
addition, the students valued positively the fact of being
able to move the widgets around the page, allowing them to
place the widgets according to their preferences. The
possibility of customizing widget color was also well
valued.
Another remarkable positive comment was that the
agenda widget had a list of upcoming events as an
alternative to the calendar, which was easier for the students
to read.
And finally, students that use the zoom function valued
positively the liquid layout of the e-learning environment
because the content is reorganized when students apply the
zoom to magnify the content. For instance, when the zoom
function is used, the widgets resize, so students can still see
the same content without having any of the widgets out of
the screen.
32
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
The main usability and accessibility problems were the
same ones commonly found in other studies involving
usability tests with end users, such as the lack of alt text for
pictures (Lazar et al., 2007), sentences that start with
irrelevant words, the use of the same words for links and
other functions (Theolanos & Redish, 2003), or lack of
contrast.
Other problems were related specifically to the UOC
learning environment, such as finding first (reading the
website up-down) different irrelevant menu sections at the
top of the page before finding the most important content
for the students (classroom widgets, e-mail widget and
agenda widget). Another difficulty was related to the
students that use the zoom function. When the zoom is
applied, new horizontal and vertical scrolls came up on the
widgets, which hindered navigation inside the widgets.
Given the objective of this research, we will not list here
the recommendations identified in previous studies for
online environments in general. Instead, in the section on
recommendations, we will simply highlight those
recommendations specifically related to the design of elearning environments.
6. Recommendations
Shown below are the recommendations drawn from the
results of the contextual interviews to ensure a satisfactory
user experience in a distance higher education institution.
6.1. Recommendations for ensuring a
satisfactory user experience in a
distance higher education institution.
1. Provide all possible formats and materials. Providing
the educational content in all possible formats (Daisy, mp3,
Word, PDF, webiste) and in different materials (paper,
Braille, etc) would allow visually impaired students to
choose one that best suits their needs.
2. Provide learning contents that are not only accessible
but also usable. For instance, PDF and Word can be
accessible, but the interviewed students preferred to use the
Word because it is more usable as it allows editing and
underlining. The user experience should be improved with
regard to the use of different formats, as it would enrich and
speed up students’ learning activities.
3. Faculty training in accessibility. Those lecturers
responsible for preparing and providing the content and
learning activities must be well trained in accessibility
issues in order to ensure that they are fully aware of the
difficulties that visually impaired students face.
4. Provide visually impaired students with the learning
materials and assessment questions earlier, just as they are
given more time on exams.
5. Offer alternative accessible learning materials in those
cases in which, from an educational point of view, it is
advisable to use learning materials that are not accessible,
such as videos or images.
6. Ensure access to accessible materials so that visually
impaired students do not need to identify themselves as
such.
6.2. Design recommendations for e­
learning environments
Listed below are a series of useful recommendations
obtained from the user test for the design of e-learning
environments:
1. Place the main or important content at the start. This
way, users can access the relevant content for their studies
directly without having to go through other less important
content first, such as a menu.
2. Allow users to customize what content they see. In
addition to enabling customizable shortcuts, allow users to
organize the widgets as best suits their needs and to choose
which widgets they would like to have in their online
environment.
3. Show all important content at once. If all the content
that students are most interested in is located on the same
page (e.g., they can see whether they have mail, check
forums, etc.), they will not have to open new windows or
tabs to access specific content.
4. Allow users to customize where content is shown. By
positioning widgets, students can choose where to locate the
content they are most interested in, for example, in a
column (Theolanos & Redish, 2005). This would allow
students who use magnifiers not to have to scroll across the
page horizontally.
5. Allow color customization. Allowing users to
customize the colors of the elements that frame content or
links would make it easier for students with sufficient
remaining vision to identify them without having to read.
6. Accessible colors and contrast. In addition to being
fundamental to accessibility, this would allow students to
determine at a glance whether there have been any new
notifications in the classrooms or any new e-mails.
7. A list of upcoming events as an alternative to the
calendar. An agenda or calendar is useful for students
without visual impairments, but it is impractical for students
using Jaws or ZoomText. It is thus advisable to offer an
alternative to the agenda, such as a list of upcoming events.
8. Liquid layout. This type of layout makes it possible to
enlarge the font by X% without causing information to
disappear or generating new horizontal and vertical scroll
bars in the widgets. It also allows the page to be reorganized
when the zoom function is used.
7. Conclusions
This research has gathered the requirements and needs
of visually impaired students participating in online courses
and used them to formulate a series of recommendations
aimed at facilitating the everyday activities of such students.
The fundamentally visual nature of our consciousness
and thinking causes people without visual impairments to
communicate based on visual references. As a result, it can
be difficult to realize that these visual references are
invisible and/or relatively useless for the visually impaired.
Thus, our recommendations suggest that training in
accessibility issues for the people responsible for providing
and preparing materials would address the main problems
encountered by visually impaired students, namely,
educational content and learning activities that are not
accessible.
33
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
These recommendations also underscore the importance
of providing customization options to visually impaired
students. Because these students are a very heterogeneous
group (with different types of impairments, different tools,
different preferred contexts and formats, different
preferences for studying, etc.), distance education
institutions must strive to accommodate their heterogeneity,
for example, by providing educational content in all
possible formats (as noted in Burgstahler et al., 2004),
which is also beneficial for the rest of the students
(Burgstahler, 2002; Edmonds, 2004).
Enabling customization is also important in the design
of a virtual environment (Cooper, 2006), such as by
allowing users to decide what content is shown and where,
which can be achieved, for example, by using widgets that
can be custom placed and colored. These conclusions
follow in the same vein as those of Theolanos and Redish
(2005) in that they aim to provide a website that can be
adapted and customized by users in keeping with their
preferences or needs, and irrespective of their disability. In
the context of e-learning environments, environments that
are flexible, customizable and accessible at all levels will
facilitate the everyday activities of visually impaired
students and help them to optimize the time they spend
interacting with the website.
8. References
[1] Alexander, D. & Rippon, S. (2007). University website
accessibility revisited. Ausweb. Retrieved 2 January 2012, from:
http://ausweb.scu.edu.au/aw07/papers/refereed/alexander/paper.ht
ml. 1-10.
[2] Asuncion J. V., Fichten C. S., Barile M., Nguyen M. N.,
Martiniello N., Budd J., Ferraro V., Wolforth J., Malik R. (2008).
eLearning and Postsecondary Students with Visual Impairments.
Proceedings of the 9th International Conference on Low Vision,
Vision 2008, Montreal, Quebec, Canada, 7–11 July.
[3] Beyer, H. & Holtzblatt, K. (1998). Contextual Design:
Defining Customer-Centered Systems. San Francisco: Morgan
Kaufmann. ISBN: 1-55860-411-1.
[4] Burgstahler, S. (2002). Distance learning: Universal design,
universal access. Educational Technology Review 10(1), 32-61.
[5] Burgstahler, S. (2006). The development of accessibility
indicators for distance learning programs. ALT-J, Research in
Learning Technology 14(1), 79–102.
[6] Burgstahler, S., Corrigan, B. & McCarter, J. (2004). Making
distance learning courses accessible to students and instructors
with disabilities: a case study. Internet and Higher Education 7,
233–246.
[7] Candido, J. (2008). Visual impairment in a visual medium:
Perspectives of online learners with visual impairments. PhD
dissertation, Drexel University, Pennsylvania, United States.
Retrieved 30 August 2010, from Dissertations & Theses: Full
Text. (Publication No. AAT 3338731).
[8] Cooper, M. (2006). Making online learning accessible to
disabled students: an institutional case study. ALT-J, 14(1), 103–
115.
Concerns for Higher Education. American Journal of Distance
Education, 18(1), 51 - 62. [Retrieved 29 April 2011.] DOI:
10.1207/s15389286ajde1801_5
URL:
http://dx.doi.org/10.1207/s15389286ajde1801_5
[10] Kane, S. K., Shulman, J. A., Shockley, T. J. & Ladner, R. E.
(2007). A web accessibility report card for top international
university web sites. In: W4A ‘07: Proceedings of the 2007
international cross-disciplinary conference on Web accessibility
(W4A), 148 - 156, New York, NY, USA, ACM.
[11] Kelly, B., Sloan, D., Phipps, L., Petrie, H. & Hamilton, F.
(2005). Forcing standardization or accommodating diversity? A
framework for applying the WCAG in the Real World.
International Cross-Disciplinary Workshop on Web Accessibility
(W4A). ACM International Conference Proceeding Series, Vol.
88, New York, ACM, 46-54.
[12] Krippendorff, K. (2004). Content Analysis: An Introduction
to Its Methodology (2nd ed.), Thousand Oaks, CA: Sage.
[13] Lazar, J., Allen, A., Kleinman, J. & Malarkey, C. (2007).
What frustrates screen readers users on the web: a study of 100
blind users. In: International Journal of Human–Computer
Interaction, 22(3), 247–269. Copyright © 2007, Lawrence
Erlbaum Associates, Inc.
[14] Porras, M. & Ribera, M. (2008). Estudio de caso: Una
Evaluación de la Accesibilidad Web Mediante WCAG y
Observación de Usuarios Ciegos y con Restos de Visión. IX
Congreso Internacional de Interacción Persona-Ordenador,
(Albacete, Spain, 9–11 June), 119-126. ISBN: 978-84-691-3871-7
[15] Ribera, M., Térmens, M. & Frías, A. (2009). La accesibilidad
de las webs de las universidades españolas. Balance 2001-2006.
Revista Española de Documentación Científica, 32(3), JulySeptember,
66-88,
2009
ISSN:
0210-0614.
DOI:
10.3989/redc.2009.3.683
[16] Ribera, M., Térmens, M. & García, M. (2008). Cómo realizar
tests de usabilidad con personas ciegas. El profesional de la
información 17(1), 99-105.
[17] Schmetzke, A. (2005). Web page accessibility on University
of Wisconsin campuses: 2005 survey data and seven-year trend
data.
Retrieved
2
January
2012,
from:
http://library.uwsp.edu/aschmetz/Accessible/UWCampuses/Survey2005/contents2005.htm
[18] Sloan, D., Kelly, B., Heath, A., Petrie, H., Fraser, H. &
Phipps, L. (2006). Contextual Web Accessibility - Maximizing the
Benefit of Accessibility Guidelines. In: W4A: Proceedings of the
2006 international cross-disciplinary workshop on Web
/
accessibility (W4A). New York: ACM Press, 121-131. Retrieved
from: http://www.ukoln.ac.uk/web-focus/papers/w4a-2006
[19] Theofanos, M. F., Redish, J. C. (2003). Guidelines for
accessible and usable web sites: Observing users who work with
screen readers. Interactions, 10(6), 38-51
[20] Theofanos, M. F. ; Redish, J. C. (2005). Helping Low-vision
and Other Users with Web Sites That Meet Their Needs: Is One
Site for All Feasible?. Technical Communication, 52(1), 9-20.
[9] Edmonds, C. D. (2004). Providing Access to Students with
Disabilities in Online Distance Education: Legal and Technical
34
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Proyecto DEDOS. Herramientas para el diseño y uso
de actividades educativas en mesas multicontacto
Alberto Sánchez Alonso
Down Madrid
[email protected]
David Roldán Álvarez
Universidad Rey Juan Carlos de Madrid
[email protected]
Estefanía Martín Barroso
Universidad Rey Juan Carlos de Madrid
[email protected]
Mª Luisa Berdud Murillo
Down Madrid
[email protected]
Manuel García-Herranz
Universidad Autónoma de Madrid
[email protected]
Resumen
La Fundación Síndrome de Down de Madrid y el
laboratorio AmILab, de la Universidad Autónoma de
Madrid y el laboratorio LITE, de la Universidad Rey Juan
Carlos de Madrid, han c reado una herramienta para que
los docentes puedan diseñar materiales didácticos
adaptados a l as necesidades de sus alumnos y que las
personas con discapacidad intelectual puedan beneficiarse
de una nueva tecnología, las mesas multicontacto.
Dicha tecnología consiste en una pa ntalla táctil que
reconoce simultáneamente múltiples puntos de contacto, así
como el software asociado a ésta, encargado de interpretar
dichas interacciones. La tecnología multitáctil permite la
interacción y participación simultánea de varios alumnos,
favoreciendo el aprendizaje cooperativo y haciéndola una
tecnología, si cabe, más accesible e intuitiva, adaptándose
perfectamente a las necesidades de las personas con
discapacidad intelectual.
Se ha llevado a cabo un estudio acerca de cómo influye
esta herramienta tecnológica en el aprendizaje de las
personas con discapacidad intelectual.
Abstract
A tool for teachers to produce adapted education material
for the needs of their students and i ntellectually disabled
people to benefit of a new
Pablo A. Haya
Universidad Autónoma de Madrid
Pablo A. Haya
Universidad Autónoma de Madrid
[email protected]
technology has been designed by Down Madrid,
Universidad Autónoma de Madrid AmILab laboratories,
and Universidad Rey Juan Carlos LITE laboratories: a
multi-touch desk.
Multi-touch desks are made up of a t ouch screen to
recognize several simultaneous points of contact, as well as
of the appropriate software designed to decode these
interactions. Multi-touch technology allows simultaneous
and interactive involvement of several students, improving
cooperative learning, and becomes an e ven more intuitive
and accessible tool, perfectly adapted to people with special
education needs.
A study has been done to determine the influence of this
technology tool in the learning process of intellectually
disabled people.
1. Introducción
Actualmente, el desarrollo de la tecnología ha permitido
la generación de nuevas experiencias educativas en
plataformas y herramientas como las PDA, telefonía móvil,
Tablet-PC, o las PDI (Pizarras Digitales Interactivas) cuya
inserción en las aulas está despertando mucho interés y
aceptación. Por otro lado, el diseño de herramientas que
ayudan al profesorado no informático a generar materiales
multimedia con excelentes resultados: comprensibles,
fáciles de aprender, simples de aplicar y estimuladores de la
creatividad; contribuirá sin duda, a un elemento esencial en
relación con la aplicación de la tecnología al ámbito de la
discapacidad [1].
El auge de la tecnología táctil y su implementación en
las aulas en los últimos años puede explicarse por la forma
en que este tipo de dispositivos favorece que la interacción
sea más natural y fácil utilizando los dedos de la misma
manera que lo hacen en la vida cotidiana [2].
Una de las muchas utilidades de las superficies
multicontacto será en el ámbito educativo, y a pesar de que
35
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
esta inclusión está siendo muy lenta, su uso está
incrementando recientemente en nuestra sociedad. Las
mesas multicontacto aúnan el poder de las tecnologías así
como la posibilidad de poder desarrollar actividades en
modo colaborativo.
El aprendizaje colaborativo, ha sido utilizado
habitualmente en las clases tradicionales desde los años 70.
Gracias al aprendizaje colaborativo además de adquirir
contenidos curriculares, se ponen en marcha otras
habilidades que incrementan la motivación y participación
del alumno en su propio proceso de aprendizaje.
Las superficies multicontacto horizontales, ofrecen
ventajas tales como [3]:
Estimulación de la creatividad. Las mesas pueden ser
utilizadas como mesas de trabajo en las que se pueden
adaptar además de la interfaz a las características del
problema y del usuario los procesos de interacción.
Impresión y manipulación. El estudiante interactúa con
un entorno amigable e intuitivo, con aplicaciones
desconocidas para él. No son precisos periféricos de
salida como el ratón, teclado, etc.
Aprendizaje colaborativo. En la mesa el conocimiento
se comparte y emerge de la interacción entre los grupos
de trabajo. Este tipo de superficies permiten que
diversos estudiantes visualicen la información y que la
compartan con sus compañeros para así conseguir
objetivos comunes.
Aprendizaje basado en tareas. La superficie
multicontacto permite simular muchas tareas a la vez
que los usuarios realizan habitualmente de forma real
sobre escritorios y superficies convencionales.
Interacción en tiempo real. La posibilidad de mostrar
información con la que interactuar en tiempo real
convierte a la enseñanza en una actividad activa.
Las mesas multicontacto permiten que la interacción
persona-máquina se realice de una forma intuitiva
utilizando los gestos naturales de la mano tales como
seleccionar elementos, rotarlos, ampliar su tamaño o
cambiarlos de posición. De este modo, se facilita la
interacción de los alumnos con la máquina sin que exista un
dispositivo periférico intermedio.
2. Herramienta DEDOS
Desde la Fundación Síndrome de Down de Madrid (en
adelante Down Madrid) y los laboratorios AmILab y LITE
se diseñaron y programaron dos herramientas tecnológicas
pensadas para que personas con discapacidad intelectual
puedan beneficiarse del uso de las mesas multicontacto.
Dichas herramientas son DEDOS-Editor, una
herramienta de autor que permite diseñar actividades
educativas a profesores y profesionales de la educación y
DEDOS-Player, una aplicación pensada para su
funcionamiento en mesas multicontacto. La información
detallada del proyecto se puede consultar en la página Web:
http://hada.ii.uam.es/dedos.
2.1. DEDOS-Editor
DEDOS-Editor es una aplicación con la que los
profesionales de la educación pueden diseñar desde su
ordenador sus propias actividades educativas, adaptadas a
las necesidades específicas de sus alumnos. Para manejar
esta herramienta no es necesario tener conocimientos
informáticos previos gracias a su sencillez e intuitividad.
Los profesores deben diseñar sus actividades mediante
la metáfora del juego de cartas. Así, en el proceso de
diseño, el profesional crea sus actividades mediante el
arrastre y colocación de piezas sobre un área de edición que
simula ser una mesa física de trabajo. La elección de esta
metáfora se debe a tres cuestiones:
Es fácil de entender y conocida por todo el mundo.
Se puede trabajar sobre las propias cartas.
Permiten crear diferentes actividades cambiando los
contenidos pero manteniendo las mismas normas del
juego.
A su vez, la herramienta se ha diseñado con una
combinación entre la metáfora de interacción física (drag
and drop) caracterizada por la ausencia de menús o
interacciones secuenciales, y los paradigmas más intuitivos
de las aplicaciones informáticas del mercado más comunes
(OS X y PowerPoint).
En la herramienta de autor se
visualizan 4 elementos:
Zonas de trabajo. Pueden ser tanto individuales como
grupales.
Tarjetas. Pueden contener texto o imágenes.
Objetivos. Las actividades a realizar son seleccionar,
emparejar, trazar, y conteo.
Tiempo. Se incluye la posibilidad de determinar el
tiempo máximo en el que se debe realizar la tarea.
En la imagen 1 se puede ver la pantalla principal de
DEDOS Editor.
Imagen 1. DEDOS-Editor
2.2. DEDOS-Player
El desarrollo informático de la herramienta DEDOSPlayer se ha realizado haciendo uso de la librería FLING
(Flash Library for Interpreting Nature Gestures) [4]
desarrollada en el laboratorio de Inteligencia Ambiental
(AmILab) de la Universidad Autónoma de Madrid (UAM).
Esta biblioteca facilita a los programadores de
ActionScript abstraerse de los dispositivos de entrada
específicos y trabajar con eventos unificados de alto nivel.
Su objetivo es servir como punto de partida al programador
para la creación de aplicaciones sobre mesas multicontacto
sin que tenga la necesidad de conocer los detalles de cómo
se convierten las acciones de los dedos sobre la superficie
en gestos. Entre los dispositivos de entrada soportados,
además de mesas multicontacto, están los tradicionales
ratón y teclado [5].
36
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
FLING es un framework creado para el desarrollo de
aplicaciones multicontacto usando Adobe Flash, Adobe Air
o Adobe Flex (HREF2). Proporciona eventos singulares de
puntos de luz sobre la mesa, así como eventos de gestos
generados mediante una capa de interpretación. Su
estructura modular está enfocada a la inclusión de múltiples
métodos de interacción para que las aplicaciones resultantes
puedan ser manipuladas independientemente del contexto.
Implementa el reconocimiento de gestos con múltiples
dedos, un tapete virtual para la coexistencia de varias
aplicaciones usadas por varios usuarios simultáneamente, y
reconoce objetos tangibles mediante el uso de etiquetas
fiduciales.
Existen otros frameworks para desarrollar aplicaciones
multicontacto como reacTIVision [6], Libavg [7] o
TouchLib [8]. Se decidió utilizar FLING debido a la
funcionalidad que ofrece, sobre todo a la interfaz para el
reconocimiento de gestos naturales del usuario (seleccionar
un objeto, redimensionarlo, girarlo, etc.), y a que es
software libre que se puede actualizar en el caso que se
desee añadir más funcionalidad.
DEDOS-Player permite a los alumnos realizar las
actividades en la mesa multicontacto diseñadas con
anterioridad con DEDOS-Editor en el ordenador. Para poner
a disposición de los alumnos las actividades creadas con
DEDOS-Editor, el primer paso que tendrá que hacer el
profesor será configurar diferentes opciones:
Opciones básicas (véase la imagen 2):
o Número de jugadores. Se puede elegir de 1 a 4
jugadores. El reproductor multiplicará las zonas
individuales en la mesa, en función del número
elegido.
o Control de respuesta. Puede elegirse respuesta
instantánea si el profesor quiere que la primera
opción que pulse el alumno compute como
respuesta definitiva o, respuesta demorada si
queremos que el jugador tenga que pulsar en la
respuesta y luego otro botón de confirmación, de
esta forma, dejamos más tiempo al jugador para
decidir cuál es la respuesta correcta y no hay
opción a posibles confusiones.
o Dinámica de respuesta. Se puede establecer si los
jugadores pueden responder todos a la vez o si
deben hacerlo por turnos.
Imagen 2. Opciones básicas DEDOS-Player
-
Opciones avanzadas (véase la imagen 3):
Número de jugadores que responden. Con esta
opción el profesor puede elegir si es suficiente con
que uno de los jugadores responda para pasar a la
siguiente actividad o si tienen que contestar todos
los alumnos que estén alrededor de la mesa.
o Acierto en la respuesta. Si quiere que
necesariamente los alumnos tengan que responder
correctamente o se permite que se pueda pasar a la
siguiente actividad aunque la respuesta no sea
correcta.
o Modo de puntuación. Puede elegirse que los
jugadores jueguen de forma colaborativa, sumando
la puntuación de cada uno a un marcador común
para todos, o que por el contrario, jueguen de
manera competitiva, sumando cada jugador los
puntos a un marcador individual.
o Consenso en la respuesta. Con esta opción se
puede decidir si es necesario o no que todos los
jugadores
marquen
la
misma
respuesta
necesariamente para avanzar a la siguiente
actividad.
o
Imagen 3. Opciones avanzadas DEDOS Player
Se han considerado como opciones básicas aquellas que
cambian de una manera significativa el modo de
interaccionar con la mesa multicontacto (si tienen que
validar su respuesta, los turnos de los participantes, etc.)
mientras que en las opciones avanzadas se han incluido
aquellas que afectan sobre todo al modo de puntuación y al
resultado final de las actividades.
Por defecto, al abrir DEDOS Player, aparecen
configuradas las opciones siguiendo el criterio que desde el
equipo psicopedagógico de Down Madrid se ha creído
conveniente para no dificultar la tarea a los educadores que
usan la herramienta por primera vez. Éstas pueden ser
fácilmente configurables de tal forma que el profesional
pueda utilizar una misma actividad con objetivos distintos
en función de las opciones elegidas. De esta forma, una
misma actividad puede variar por ejemplo en función de si
los jugadores pueden responder todos a la vez o tienen que
responder siguiendo un turno, favoreciendo de esta forma la
comunicación entre los jugadores o que haya aprendizaje
por imitación.
A la hora de diseñar el reproductor se han contemplado
opciones de accesibilidad para los alumnos con
discapacidad intelectual. Así, el alumno puede
redimensionar su zona de juego para adaptarla a sus
necesidades visuales o colocar su zona de trabajo en un
espacio que le sea más adecuado.
37
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
3. Caso de estudio
Una vez diseñadas y desarrolladas las herramientas
DEDOS-Editor y DEDOS-Player, se llevó a cabo un estudio
con 52 personas con síndrome de Down y otras
discapacidades intelectuales, 19 de ellos hombres y 33
mujeres, de entre 18 y 34 años, todos ellos asistentes a los
distintos servicios de Down Madrid.
Los objetivos del estudio eran por un lado comprobar si
las personas con discapacidad intelectual eran capaces de
acceder a una tecnología tan novedosa como son las mesas
multicontacto y por otro lado si en el caso de poder manejar
dicha tecnología, pueden beneficiarse de su utilización en
las aulas, comprobando si hay aprendizaje significativo tras
su uso.
Con la intención de dividir a los sujetos en grupos
heterogéneos, éstos fueron evaluados mediante la escala de
inteligencia de Reynolds (RIAS). De esta forma se
formaron 16 grupos de entre 3 y 4 participantes por cada
grupo en función de su puntuación directa en el índice de
inteligencia general (IG) obtenida en dicha prueba. La
media aritmética obtenida por los sujetos en dicho índice
fue de 65,69. A partir de esta medida se hizo coincidir en el
mismo grupo a sujetos con puntuaciones altas, medias y
bajas para formar los grupos heterogéneos.
Para medir el aprendizaje, se diseñaron una serie de
actividades que sirvieran como pretest y postest y poder
obtener así una puntuación cuantitativa (ver anexo). El tema
elegido para dichas actividades fue el de instrumentos
musicales, elegido debido al escaso conocimiento previo
por parte de los protagonistas del estudio de dicho tema.
Tanto pretest como postest fueron realizados en soporte
papel, con un total de 16 preguntas con tres posibles
respuestas y sólo una verdadera, que los participantes
debían responder, obteniendo un punto por cada pregunta
acertada.
Entre pretest y postest, los sujetos realizaron una serie
de actividades sobre instrumentos musicales con la mesa
multicontacto. Se diseñaron 24 actividades con DEDOSEditor para poder ser utilizadas en la mesa multicontacto
gracias a DEDOS-Player. Se decidió que todas las
preguntas fueran de selección, evitando así posibles
dificultades de interacción a la hora de arrastrar elementos.
Las actividades se diseñaron de la misma forma que el pre y
postest, con la diferencia de que en este caso el soporte no
fue en papel si no sobre la mesa multicontacto, y en lugar de
marcar con un lápiz la respuesta correcta, en este los sujetos
debían seleccionarlas con sus propias manos.
Las instrucciones que se le dieron a los sujetos, previas a
las actividades con el pretest, mesa multicontacto y postest
fueron las mismas para comprobar así uno de los objetivos
del estudio, de qué manera son capaces de acceder a esta
nueva tecnología las personas con discapacidad intelectual.
En los 3 casos las instrucciones fueron las siguientes: “A
continuación vais a ver una serie de preguntas con tres
posibles respuestas. Tenéis que leer una por una y elegir la
respuesta correcta. Sólo una de las respuestas es la
correcta.”
Al tratarse de grupos de 3 o 4 participantes, los sujetos
se dispusieron alrededor de la mesa multicontacto de tal
forma que cada uno tuviera su “zona de juego”, donde
aparecía la pregunta y las alternativas de respuesta. No hubo
límite de tiempo para completar las actividades, la forma de
pasar de una pregunta a otra fue controlada por los
investigadores y no se avanzaba hasta que todos los sujetos
del grupo hubieran respondido a la pregunta.
Las sesiones con la mesa multicontacto se llevaron a
cabo en dos sesiones de trabajo con un día de descanso
entre medias para observar el posible aprendizaje entre una
y otra. Además fueron grabadas con dos videocámaras para
poder observar posibles interacciones entre los
participantes, pudiendo dar lugar a futuros estudios sobre
aprendizaje colaborativo.
Las imágenes 3 y 4 muestran los resultados obtenidos
por los alumnos tanto en el pre-test como en el post-test. En
el eje horizontal de ambas gráficas se representa la
puntuación obtenida, mostrando el número de respuestas
acertadas. Por otro lado, en el eje vertical se representa la
frecuencia o el número de usuarios que obtuvieron una
determinada puntuación.
Comparando las dos imágenes, se puede observar que el
número de aciertos en el post-test es más elevado en el pretest. La mediana extraída del pre-test es de 13 frente a la
mediana del post-test que es 14. Analizando los datos del
pre-test y del post-test mediante el test de Shapiro-Wilk, se
obtiene que las muestras no se ajustan a una distribución
normal (p <0.05). Por tanto, se utiliza la prueba de los
<
rangos con signo de Wilcoxon para analizar si hubo
aprendizaje significativo. Al aplicar esta prueba se obtiene p
0.05 por lo que se concluye que sí hubo aprendizaje
significativo por parte de los alumnos de Down Madrid en
las actividades realizadas sobre instrumentos musicales en
este estudio.
Imagen 3. Distribución de puntuaciones del pre-test
Imagen 4. Distribución de puntuaciones del post-test
Además, salvo algunas dificultades puntuales debido a
la luminosidad de la habitación donde se realizaron las
actividades con la mesa multicontacto, todos los
participantes fueron capaces de manejar de forma fluida
38
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
dicha tecnología, mostrándose además muy motivados por
aprender su funcionamiento.
4. Conclusiones
Esta experiencia novedosa muestra que las tecnologías
ofrecen nuevas posibilidades al ámbito educativo que hacen
que la motivación de los estudiantes se incremente mientras
interactúan con distintos dispositivos tecnológicos.
En el caso concreto del estudio presentado en este
trabajo, los 52 alumnos de Down Madrid interactuaron de
forma fluida realizando actividades de tipo de selección con
la mesa multicontacto. Además, como se ha visto en el
apartado anterior, los resultados obtenidos en el pre-test y
post-test son significativos y por tanto, demuestran que los
participantes aprendieron mientras realizaban actividades
educativas con la mesa multicontacto.
El uso de esta tecnología en el aula, no sólo añade un
valor motivacional para los alumnos, si no que permite un
tipo de trabajo que no permiten otras tecnologías, el trabajo
colaborativo. El hecho de que varias personas puedan
interactuar en una misma superficie horizontal, donde todos
los jugadores pueden ver los gestos y movimientos de los
demás, puede ser utilizado para un sinfín de objetivos
curriculares que hasta ahora la tecnología no permitía.
Además, el hecho de que sea el propio profesional de la
educación el que pueda diseñar las actividades en función
de las necesidades específicas de sus alumnos sin necesidad
de tener conocimientos informáticos previos, dotan a las
herramientas DEDOS de un gran potencial para el sector
educativo.
[1] Soto Pérez, F. J. “Tecnología y diversidad educativa:
oportunidades, riesgos y perspectivas de futuro”. Dirección
General de Ordenación Académica. Servicio de Atención a la
Diversidad. Consejería de Educación, Formación y Empleo.
Región de Murcia, España. 2006, p. 22.
[2] Cantón, P., González, Á. L., Mariscal, G., & Ruiz, C. (2012).
Applying new interaction paradigms to the education of children
with special educational needs. In Computers Helping People with
Special Needs, LNCS 7382 (pp. 65-72). Springer Berlin
Heidelberg.
[3] García-Herranz, M., Haya, P.A., Llinás, P., Martín, E.,
Montoro, G. & Mora, M.Á. (2010) Superficies multitáctiles
horizontales como soporte educativo. En Actas del XI Simposio
Nacional de Tecnologías de la Información y las Comunicaciones
en la Educación (ADIE) SINTICE 2010, 197-204.
[4] FLING: http://amilab.ii.uam.es/doku.php?id=fling
[5] Pablo Llinás, Manuel García-Herranz, Pablo A. Haya, and
Germán Montoro. 2011. Unifying events from multiple devices for
interpreting user intentions through natural gestures.
In Proceedings of the 13th IFIP TC 13 international conference on
Human-computer interaction - Volume Part I(INTERACT'11),
Pedro Campos, Nuno Nunes, Nicholas Graham, Joaquim Jorge,
and Philippe Palanque (Eds.), Vol. Part I. Springer-Verlag, Berlin,
Heidelberg, 576-590.
[6] ReacTIVision: http://reactivision.sourceforge.net/
[7] Libavg: http://www.libavg.de/
[8] TouchLib: http://nuigroup.com/touchlib/
39
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Apps Builder para Móviles Android: ¿Se pueden
crear Aplicaciones Móviles de Forma Fácil y
Accesible con un Lector de Pantalla?
Halena Rojas Valduciel
[email protected]
Resumen
El avance vertiginoso en el desarrollo de dispositivos
móviles ha pot enciado la creación de gran cantidad de
aplicaciones. Por ello, cada vez es más frecuente encontrar
herramientas que facilitan el desarrollo de e stas
aplicaciones a todo tipo de usuarios, sin que se requieran
conocimientos en programación. Puesto que ha aumentado
considerablemente la oferta y demanda de dispositivos con
sistema Android, incluso entre personas con discapacidad
visual, esta investigación pretende realizar una exploración
entre las herramientas de desarrollo de aplicaciones
Android más conocidas, para evaluar hasta qué punto se
pueden desarrollar c on ellas aplicaciones de forma
accesible utilizando un lector de pantalla.
Abstract
The vertiginous advance in the development of mobile
devices has potentialized the creation of great quantity of
applications. F or it, every time is more frequent to find
tools that facilitate the development from these applications
to user's type, without knowledge are required in
programming. Since it has increased the offer and demand
of devices considerably with system Android, even among
people with visual disability , this investigation seeks to
carry out an exploration among the tools of develop of
applications good known Android, to evaluate to what
extent they can be developed with them applications in an
accessible way using a screen reader.
1. Introducción
El avance vertiginoso de la tecnología, específicamente de
dispositivos móviles, pone al alcance de la mano del usuario
gran cantidad de información. Con los nuevos smartphones
táctiles que brindan acceso a internet de forma fácil y
continua, el acceso y la inclusión dentro de la llamada
sociedad de la información está solo a un toque de distancia
incluso para personas con discapacidad, quienes
antiguamente se veían excluidos por no tener acceso al uso
de este tipo de dispositivos.
En este sentido, empresas como Apple y Google Inc.
han venido incluyendo en los sistemas operativos para
móviles que desarrollan funciones y productos de apoyo que
brindan accesibilidad y mejoran la experiencia del usuario
en general. No obstante, el cambio que viene teniendo el
desarrollo de dispositivos móviles no solo se limita a la
inclusión de productos de apoyo o funciones que mejoren la
experiencia del usuario, ni tampoco se refieren únicamente
al cambio en los diseños o el uso de hardware especializado.
Hoy en día, mejorar la experiencia del usuario pasa también
por poner a su alcance la facilidad de desarrollar
aplicaciones móviles de forma sencilla, incluso sin
necesidad de tener conocimientos en programación. Y es
que el desarrollo de estos nuevos dispositivos táctiles ha
revolucionado el mercado, potenciando ampliamente nuevas
tendencias en el desarrollo de software para este tipo de
dispositivos [1].
Lo anterior se traduce en la creación de herramientas de
desarrollo de aplicaciones móviles, orientadas a todo tipo de
usuarios que facilitan el proceso de creación de
aplicaciones, abriendo así las posibilidades de obtener
aplicaciones variadas y de forma sencilla. Esto se hace más
evidente en el caso de el sistema operativo Android,
desarrollado por Google Inc. ya que con tener una cuenta de
correo de Google se puede acceder de forma fácil y
gratuita al Android Market, actual Google Play (tienda de
aplicaciones para móviles equivalente a la App Store de
Apple) [1], para poner al alcance de todos la aplicación que
se desee. Es así que en 2012, para el lanzamiento de la
versión 4.1 de Android, denominada Jelly Bean, Google
anunció que contaba con unas 600.000 aplicaciones en
Google Play, con más de 20 billones de descargas y unos
400 millones de dispositivos vendidos [2].
Es evidente entonces el auge que ha tenido la demanda
de dispositivos Android (incluso entre personas con
discapacidad) y por tanto, la oferta de aplicaciones para
estos dispositivos. Con este incremento tan
importante,
cabe preguntarse hasta qué punto pueden desarrollarse
aplicaciones de forma accesible a través de herramientas de
desarrollo en línea, si aún es frecuente encontrar
aplicaciones web cuyo grado de accesibilidad es
cuestionable.
Es en tal sentido, que surge la necesidad de realizar una
revisión de las herramientas de desarrollo de aplicaciones
móviles orientadas al sistema operativo Android que
pueden encontrarse actualmente, para explorar si es posible
desarrollar con ellas aplicaciones de forma accesible
utilizando un lector de pantalla.
Para ello, se investigó brevemente qué son las
herramientas de desarrollo on line de aplicaciones móviles,
se elaboró una lista de las más recomendadas y se
seleccionaron dos para evaluar el grado de accesibilidad
que proveen en su uso, intentando desarrollar una aplicación
sencilla con el soporte de un producto de apoyo (lector de
pantalla). La evaluación se llevó a cabo utilizando:
40
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
1.
Un ordenador con sistema operativo Windows en su
versión 6.1.7601.17514.
2.
Tres agentes de usuario (navegadores):
3.
•
Mozilla Firefox versión 17.0.5.
•
Internet Explorer versión 9.0.8112.16421.
•
Google Chrome versión 26.0.1410.64.
Los productos de apoyo utilizados fueron:
•
lector de pantalla JAWS versión 14.
•
NVDA versión 2012.3.1.
En los siguientes apartados se mostrarán los resultados
obtenidos de la revisión y la evaluación, así como las
conclusiones y algunas recomendaciones extraídas
luego de toda la investigación.
2. Herramientas para
Desarrollar aplicaciones móviles en Android
Las herramientas para desarrollar aplicaciones móviles
mejor conocidas como “App Builder” (por su nombre en
inglés), son entornos de desarrollo que resultan amigables
al usuario y por lo general, se acceden en línea. Estos
entornos están
orientados a usuarios
que no poseen
conocimientos de programación, aunque sí deberían tener
conocimientos mínimos en multimedia. Las herramientas
de este estilo están basadas en el concepto “hazlo tú mismo”
o “Do it yourself (DiY), con el fin de que usuarios con
conocimientos mínimos puedan desarrollar por sí solos sus
aplicaciones [3].
Las herramientas para desarrollar aplicaciones móviles
mejor conocidas como “App Builder” (por su nombre en
inglés), son entornos de desarrollo que resultan amigables
al usuario y por lo general, se acceden en línea. Estos
entornos están
orientados a usuarios
que no poseen
conocimientos de programación, aunque sí deberían tener
conocimientos mínimos en multimedia. Las herramientas
de este estilo están basadas en el concepto “hazlo tú mismo”
o “Do it yourself (DiY), con el fin de que usuarios con
conocimientos mínimos puedan desarrollar por sí solos sus
aplicaciones [3].
Este tipo de herramientas se caracteriza por presentar
interfaces gráficas que mejoran la experiencia del usuario y
reducen la curva de aprendizaje del entorno y por ende se
consideran fáciles de utilizar. Además de esto, en algunos
casos se ofrecen plantillas pre elaboradas según el tipo de
aplicación que se desee crear, simplificando enormemente
el tiempo requerido para desarrollar cualquier aplicación.
En tal sentido, son muchas las herramientas de este
estilo que pueden encontrarse actualmente. Algunas
permiten desarrollar aplicaciones nativas (aplicaciones
implementadas en el propio lenguaje del dispositivo e
integradas en él), otras están orientadas al desarrollo de
aplicaciones híbridas (aplicaciones desarrolladas en parte
con el entorno de desarrollo nativo y en parte en lenguaje
WEB [HTML 5]) y otras son denominadas web apps
(aplicaciones optimizadas para la pantalla del dispositivo
móvil sin estar integradas en él [4]), para plataformas
específicas o para el desarrollo de aplicaciones
multiplataforma.
No obstante,
el objetivo de esta
investigación se enfocó en aquellas más recomendadas o
populares para desarrollar aplicaciones móviles para
dispositivos con sistema operativo Android, destacándose
las siguientes:
•
•
•
•
•
Ibuildapp.com.
Andromo.com.
Appyet.com.
Freeandroidappmaker.com.
Appsgeyser.com.
A continuación, se resume la información de las
características generales de cada una de ellas, a través de
una tabla comparativa.
Tabla Nº 1. Características de las apps builder para android más conocidas
Nombre
Desarrollador Plataforma
Costo
Registro Idioma Tipo
Plantillas
App.
ibuildapp.com
iBuildApp Inc. Android/iOS Gratis(*) Si
Inglés
Web
Si
App
Nativas
Gratis
Si
Inglés
Nativas Si
andromo.com
Indigo Rose Android
(*)
Software
appyet.com
AppYet.com
Android
Gratis
Si
Inglés
Nativas No
freeandroidappmaker.com IntroWizard
Android
Gratis
No
Inglés
Web
Si
LLC
App
appsgeyser.com
Besttoolbars
Gratis
Android
Si
Inglés
Web/App
Si
(*) La primera aplicación puede ser gratuita, pero luego se requiere la suscripción a una tarifa específica.
41
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
3. Herramientas de desarrollo
seleccionadas
Las herramientas de desarrollo seleccionadas para
realizar
la
evaluación
fueron
andromo.com
y
freeandroidmaker.com. Los criterios utilizados para dicha
selección, se basaron en los principios propuestos y
adoptados en las Web Content Accessibility Guidelines 2.0
(WCAG 2.0)
“perceptible, operable, comprensible y
robusto” [5]. Adicionalmente, se realizó una revisión
automática con la herramienta “Examinator”, que arroja
además del informe de la revisión, un puntaje cuantitativo
(ranking) el cuál es utilizado en Sistemas como
walidator.net (Web Accessibility Framework) que permite
conocer el estado y la evolución de la accesibilidad de sitios
y portales web tomando en cuenta como referencia las
pautas de accesibilidad al contenido web (WCAG) 2.0 [6].
Puesto que el objetivo de esta investigación no se orientó
hacia la evaluación del grado de conformidad alcanzado
por dichas herramientas de desarrollo en relación a las
WCAG 2.0, se omiten en este artículo los resultados
obtenidos en la revisión automática de las herramientas. Sin
embargo, se consideró oportuno tomar dichas pautas como
referencia para la selección de las posibles herramientas de
desarrollo (App Builder) a utilizar en la investigación, dado
que los usuarios acceden a ellas desde agentes de usuario
(navegadores) con conexión a internet, es decir, son
herramientas en línea.
De igual forma, aunque esta investigación no se centró
en medir el grado de usabilidad de las herramientas de
desarrollo en su totalidad, se consideró importante tomar en
cuenta para la selección los criterios básicos que debe tener
en cuenta cualquier diseño de interfaz para brindar la mejor
experiencia de usuario: 1. Visibilidad del estado del sistema,
2. Adecuación entre el sistema y el mundo real, 3. Control y
libertad del usuario, 4. Consistencia y uso de
estándares/convenciones, 5. Prevención de errores, 6.
Reconocer es mejor que recordar, 7. Flexibilidad y
eficiencia de uso, 8. Estética y diseño minimalista, 9.
Ayudar a los usuarios a reconocer, diagnosticar y solucionar
errores y 10. Ayuda y documentación [7].
3.1.
Metodología empleada para la selección de
las herramientas de desarrollo a utilizar
Tal como se mencionara en el apartado anterior, el
objetivo de esta investigación no se enfocó en determinar el
grado de conformidad de las herramientas de desarrollo con
las WCAG 2.0; no obstante, dichas pautas se han utilizado
para definir unos criterios de evaluación que permitiesen
seleccionar aquellas herramientas que pudieran ofrecer un
uso más accesible al momento de crear una aplicación
cuando se utiliza un producto de apoyo, como es el caso del
lector de pantalla.
Para definir los criterios, se realizó una abstracción de
los principios en los que se basan las WCAG 2.0 y se
elaboró con ellos una matriz con la cual se llevó a cabo
parte de la evaluación. De igual forma, se tomó en cuenta el
resultado arrojado por el revisor automático Examinator, el
cual ofrece un puntaje cuantitativo en función de los perfiles
de usuario y de las fallas encontradas durante el proceso de
revisión.
A continuación, se describe detalladamente paso a paso
la metodología aplicada durante el proceso de selección, la
cual se obtuvo realizando una adaptación de la metodología
utilizada para las evaluaciones de páginas web, logrando al
final una metodología simplificada que contempla dos fases
de revisión (automática y manual) con un número inferior
de páginas examinadas.
A. Fase de revisión automática: Para la fase de revisión
automática se ha utilizado Examinator en las páginas
“Index” de cada herramienta de desarrollo; y en aquellas
que incluyen registro, en la página del formulario de
registro. En el caso de las herramientas de desarrollo que no
incluyen registro, se seleccionó la primera página que
ofreciera un formulario durante el proceso de creación de la
aplicación.
B. Fase de revisión manual: Para la fase de revisión
manual se ha utilizado una matriz de evaluación, la cual
emplea los criterios definidos a partir de la abstracción de
los principios de las WCAG 2.0, cuyo formato se muestra a
continuación.
42
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Tabla Nº 2. Formato de la matriz de evaluación elaborada con los criterios definidos en base a los
principios de las WCAG 2.0.
Criterio
La información y la interfaz de la herramienta pueden percibirse en
su totalidad utilizando un lector de pantalla.
La herramienta proporciona una o varias alternativas al CAPTCHA
visual presente en formularios de registro.
La herramienta proporciona una o más alternativas al contenido o
documentación (instrucciones de uso, video tutoriales).
La herramienta no incluye salidas de audio que interfieran con la
síntesis de voz del lector de pantalla.
La herramienta proporciona acceso a sus funciones a través del
teclado.
Si la herramienta ofrece atajos de teclas (shortcuts) estos no
interfieren con los atajos propios del lector de pantalla.
La herramienta proporciona el tiempo necesario para realizar las
funciones y leer o usar el contenido.
La herramienta no hace uso de métodos como el refrescamiento
para actualizar los contenidos.
La herramienta proporciona sistemas de navegación (salto de
bloques, búsqueda y migas de pan) que pueden operarse de forma
sencilla con lector de pantalla.
La herramienta ofrece una organización jerárquica (uso de
encabezados de sección) sencilla de operar con lectores de pantalla.
La herramienta ofrece contenido textual fácil de leer y comprender
utilizando un lector de pantalla.
La herramienta se comporta de forma predecible cuando se accede
a ella con lector de pantalla.
La herramienta ofrece métodos de entrada de datos, accesible
cuando se utiliza un lector de pantalla.
La herramienta provee suficiente información para realizar
distintas funciones evitando errores.
La herramienta ofrece métodos de corrección de errores.
La herramienta puede utilizarse con lectores de pantalla diferentes.
La herramienta puede utilizarse con agentes de usuario diferentes.
Total criterios
Porcentaje de cumplimiento
Se Cumple No
el Criterio
Cumple
Criterio
se No Aplica el
El Criterio
43
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
La matriz se elaboró en Microsoft Excel 2007 para
facilitar el análisis posterior. Se utilizaron fórmulas como
“CONTAR.SI” y fórmulas para calcular el porcentaje, para
así obtener un resultado porcentual de cumplimiento de los
criterios.
Finalmente, se ha hecho una comparativa entre las
evaluaciones de cada herramienta de desarrollo, en la que se
pudo observar que las herramientas de desarrollo
Andromo.com y freeandroidmaker.com obtuvieron mejores
resultados en la revisión automática con Examinator (7.2 y
6.7, respectivamente) y en la revisión manual con la matriz
elaborada (70.58% y 64.70%) mientras las otras tres
herramientas obtuvieron resultados menos favorecedores
tanto en la revisión automática (ibuildapp.com 4.1,
appyet.com 5.6 y appsgeyser.com 6.0), como en la revisión
manual (39.58%, 54. 72% y 58.67%, respectivamente) y por
esa razón se han descartado.
En el apartado correspondiente a los resultados obtenidos se
presentarán los hallazgos observados en las herramientas de
desarrollo seleccionadas respecto a los principios de
usabilidad mencionados en apartados anteriores.
4. Selección de aplicación a
desarrollar
Luego de una revisión sobre el uso que dan los usuarios
a sus smartphones, en la que se pudo conocer que alrededor
del 14% de la población mundial posee un dispositivo
inteligente y que a estos se les da diversos usos, entre los
que se pueden mencionar el acceso a internet y redes
sociales, alcanzando en algunos países hasta el 97%[8]; se
consideró oportuno seleccionar el desarrollo de una
aplicación que facilitase el acceso a la información
publicada en bitácoras o blogs, dado el auge que esta
herramienta ha venido teniendo en los últimos años,
habiendo aumentado considerablemente la cantidad de sitios
e información disponible en internet de diversos usuarios
que fácilmente desearían promocionar sus contenidos.
Tomando en cuenta además que la mayoría de blogs
pueden generar un Feed y que la opción de desarrollar
lectores para este tipo de contenidos está contemplada en las
herramientas de desarrollo seleccionadas para llevar a cabo
la investigación, la opción de crear un lector de RSS o
Feeds resultó muy atractiva. En el siguiente apartado se
mostrarán los resultados obtenidos al intentar crear un lector
de RSS o Feeds con el apoyo de un lector de pantalla, a
través de tres agentes de usuarios (navegadores) distintos.
5. Resultados obtenidos
Antes de mostrar los resultados obtenidos, se hará un
breve resumen del funcionamiento de cada herramienta de
desarrollo a modo de información general. Es importante
destacar que las pruebas realizadas con los productos de
apoyo y los agentes de usuario, se realizaron de forma
programada, estableciendo intervalos de tiempo
entre
prueba y prueba de una semana aproximadamente, de
forma que no se estableciera un esquema de trabajo
rutinario y poder medir así qué tan fácil de recordar es el
proceso de creación de aplicaciones con cada herramienta,
lo que está estrechamente relacionado con los criterios 6 y 7
de usabilidad mencionados en apartados anteriores, así
como con la experiencia del usuario.
5.1.
Andromo.com
Andromo.com es un app builder que permite realizar
una aplicación gratuita al inicio, pero que requiere de la
suscripción a un plan de tarifas, tanto para disfrutar de todas
las funcionalidades que ofrece (sobre todo las relacionadas
con la monetización), como para una amplia distribución en
Google Play o la creación de diversas aplicaciones. Para
crear una aplicación, el usuario debe rellenar un formulario
de registro y verificar su cuenta a través de un enlace
enviado por correo electrónico antes de poder acceder a la
interfaz de proyectos y sus funciones. Una vez hecho esto,
el usuario deberá darle nombre a la aplicación y es entonces
cuando tendrá disponible la interfaz del proyecto. Dicha
interfaz está organizada en pestañas (lista desordenada tipo
menú con pestañas) las cuales adquieren dinamismo a través
de jQuery, permitiendo activar y desactivar contenido de la
página (en este caso formularios). Entre las pestañas que se
pueden encontrar están: información de la aplicación,
actividades, estilos, escritorio, monetización, construcción y
vitrina. Una vez se ha realizado todo el proceso, a través de
la pestaña de creación se crea la aplicación, lo que puede
tardar algunos minutos dependiendo de qué tan ocupado
esté el servidor. Una vez creada la aplicación, se envía un
correo con un link de descarga para que el usuario
descargue su aplicación y la pruebe en algún dispositivo
Android antes de distribuirla en Google Play, lo que puede
hacerse a través de la pestaña vitrina. Es importante
mencionar que esta herramienta de desarrollo está en idioma
inglés y no ofrece soporte a otros idiomas.
Descrito brevemente el funcionamiento de la
herramienta, se procede a mostrar los hallazgos y resultados
encontrados durante las pruebas con Jaws y NVDA. Para
facilitar su comprensión, los resultados se presentan según
cada paso a realizar:
1. Registro: En líneas generales, el proceso de
registro es accesible. Para el formulario no se utilizan
CAPTCHAS ni ningún otro sistema de comprobación
adicional al enlace por correo electrónico. Con NVDA la
interacción con el formulario de suscripción es estable en
los tres agentes de usuario utilizados para la prueba. Sin
embargo, con Jaws se pudo observar variabilidad en la
interacción con cada agente de usuario, presentando mejor
comportamiento o estabilidad con Internet Explorer 9,
seguido por Google Chrome, en donde se encontró que las
condiciones y acuerdos de uso parecen estar contenidas en
un cuadro de edición de solo lectura e incluso la casilla de
verificación solo puede accederse activando dicho control
(el cuadro de edición que contiene las condiciones y
términos de uso). Este comportamiento podría,
probablemente, tomarse como una forma de garantizar que
se han leído dichas condiciones, pero resulta extraño con
lector de pantalla. Respecto a Mozilla Firefox, se encontró
que la interacción con la interfaz puede generar confusión.
El comportamiento del producto de apoyo es un poco
errático respecto al foco. Al utilizar las teclas de acceso
rápido propias del lector no logra ubicarse en el control,
dejando el foco más bien en la etiqueta. Incluso se pudo
observar en ocasiones que el sintetizador verbaliza el texto
44
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
de una etiqueta, pero está ubicado en otro campo del
formulario. Aún así se puede realizar el registro.
2. Verificación: la verificación de la cuenta no ofrece
barrera alguna con Jaws o NVDA. Se destaca que, al
verificar la cuenta, se realiza el ingreso a la herramienta y se
puede proceder de inmediato a iniciar el proceso de
creación.
3. Creación de la aplicación: El proceso de creación
de la aplicación con esta herramienta se basa en el llenado
de varios formularios, los cuales se pueden manejar sin
mayores inconvenientes con ambos productos de apoyo.
Los formularios poseen asociación explícita del elemento
label (etiqueta) con su respectivo input (control de
formulario) y en cada caso se ofrece información adicional
que indica qué información se debe incluir y de qué forma.
La interacción de ambos productos de apoyo con el menú en
pestañas no representa ninguna barrera, aunque pudiera
generar algo de confusión a usuarios principiantes que no
hayan tenido contacto anterior con este tipo de menús. El
atajo de teclas que ofrece Jaws para este tipo de elementos
funciona correctamente con Mozilla Firefox e Internet
Explorer, mientras que con Google Chrome no está
disponible el atajo. Las imágenes e íconos relacionados a
la aplicación a crear poseen un atributo ALT del estilo
“Default-app-icon”; el cuál no resulta demasiado claro y no
se puede saber con exactitud cuál es el ícono por defecto.
Sin embargo, la herramienta contempla que el usuario
pueda agregar sus propios íconos e imágenes y da la
información respecto al tamaño que requiere cada uno, con
lo que puede suplirse de alguna forma lo poco apropiado del
texto del atributo ALT de las imágenes.
Por otra parte, en relación a la usabilidad, se observó el
empleo de mensajes de error, los cuales resultaron
accesibles con ambos lectores de pantalla. Además, se
indica de forma concreta como corregir el error. Asimismo,
previo a cada formulario, hay un breve resumen del objetivo
de cada opción y se incluye un enlace que lleva a
instrucciones detalladas de la opción y sus funciones. Al
pulsar en el enlace, se abre una nueva pestaña en el agente
de usuario, aunque no se notifica de esto de ninguna
manera. También se da indicaciones explícitas de guardar
los cambios realizados, antes de pasar a cualquier otra
opción. Esta herramienta permite guardar los cambios del
proyecto y continuar más tarde, mientras no se haya creado
aún la aplicación. Para crear la aplicación, basta pulsar el
enlace ubicado en la pestaña correspondiente. Los mensajes
en esta etapa se pueden acceder sin problemas con ambos
lectores de pantalla en los tres agentes de usuario
empleados. Finalmente, al revisar el correo electrónico y
descargar la aplicación a través del enlace que ofrece la
herramienta, se abre un cuadro de diálogo de descargas
clásico, que permite bajar al ordenador el archivo con
extensión apk. En esta última fase no se observaron
incidencias que representen una barrera para los usuarios
con discapacidad visual con ninguno de los lectores de
pantalla utilizados.
5.2.
FreeAndroidAppMaker.com
FreeAndroidAppMaker es una app builder que permite
crear una aplicación de forma expedita. No requiere de
suscripción y es totalmente gratuita. El usuario solo debe
seleccionar el tipo de aplicación que desea crear,
seguidamente configurarla y posteriormente puede escoger
entre distribuirla directamente en Google Play o
descargarla. Todo se lleva a cabo a través del llenado de
formularios y no se requiere de confirmaciones por correo
ni ningún otro paso adicional. La herramienta está en
idioma inglés y no soporta ningún otro idioma.
Tal como en el caso anterior, se mostrarán los resultados
y hallazgos encontrados, según cada paso a realizar:
1. Selección de tipo de aplicación: Una vez se decide
crear la aplicación hay que pulsar en los enlaces “Free on
line app builder”, o “Free android app maker”, para llegar a
la pantalla que ofrece las diversas categorías de aplicaciones
que se pueden crear. La lista de categorías se presenta con
un elemento de tipo encabezado que contiene un enlace que
lleva a la siguiente pantalla. Bajo cada encabezado, hay un
texto que da información breve sobre el tipo de aplicación.
Con ambos lectores de pantalla en los tres agentes de
usuario se puede acceder a dichos encabezados y pulsar en
el enlace, que es el método de selección del tipo de
aplicación.
2. Configuración: la pantalla o interfaz de
configuración consta de un formulario que hay que rellenar.
En el caso de la aplicación seleccionada (lector de RSS
Feeds), el primer formulario solicita la dirección del Feed
del blog, en conjunto con un botón que permite avanzar al
siguiente paso. En este formulario no se observa el uso del
elemento label (etiqueta), aunque hay un texto presentado
en un elemento de encabezado que intenta explicar qué
información se debe ingresar en el cuadro de texto. Si se
intentan usar los atajos de teclas propios del Jaws, se
alcanza el cuadro de texto y se puede acceder al valor que
contiene por defecto, que representa una guía para el
usuario de qué formato debe tener la dirección del feed que
se ingrese. Dicha información desaparece al activar el
formulario a través del evento onBlur de Javascript. Este
comportamiento es igual en los tres navegadores. Sin
embargo, al realizar la misma tarea con NVDA, el
comportamiento no es igual en Internet Explorer y no se
accede al
cuadro de texto utilizando su atajo
correspondiente, aunque utilizando las teclas cursor (flechas
direccionales), se puede acceder al valor por defecto del
cuadro de texto. En Google Chrome hay que esperar unos
segundos a que se cargue completamente la página para que
el foco del lector de pantalla (NVDA) se estabilice y se
pueda acceder al formulario con los atajos de teclas propios
del producto de apoyo, mientras que en Mozilla firefox el
comportamiento es igual que el observado con Jaws.
Seguidamente, Al pulsar en el botón “Next”, puede
aparecer parte de la información del blog en los cuadros de
texto correspondientes, además del resto de controles que
permiten personalizar la aplicación. En este formulario los
cuadros de texto sí presentan un elemento label (etiqueta)
asociado, lo que permite hacer uso de los atajos propios de
Jaws y NVDA sin problemas. De igual forma, los combo
box y los check box se identifican sin dificultad con los
atajos propios de ambos lectores de pantalla. Ahora bien,
esta interfaz presenta adicionalmente controles de tipo
radio, con el fin de seleccionar los íconos de la aplicación.
En estos controles, si bien puede accederse usando la tecla
correspondiente, no hay información correctamente
asociada y el texto alternativo de las imágenes (íconos) no
es claro o intuitivo para saber qué tipo de ícono se
45
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
selecciona. La forma de saber a qué opción pertenecen es
utilizando las teclas cursor. Este comportamiento se observó
con ambos lectores de pantalla en los tres agentes de
usuario. Por otra parte, las dos casillas (checkbox)
disponibles están relacionadas con la aceptación de las
condiciones y términos de uso y con la opción de distribuir
directamente la aplicación en Google Play. Esta última
casilla está verificada por defecto y si se desverifica, al
pulsar en el botón “Submit” se ofrece un enlace para
descargar la aplicación ya creada, o sea el archivo con
extensión “apk”. Este último procedimiento puede
realizarse de igual forma con ambos lectores de pantalla en
los tres agentes de usuario, a través del cuadro de diálogo
clásico de descargas para plataformas Windows.
En relación a la usabilidad La herramienta ofrece
mensajes de error, aunque no posiciona el foco nuevamente
en el campo de formulario de forma automática. La
herramienta provee breve información sobre la causa
probable del error, además de un enlace de información
adicional a modo de ayuda. No se observaron otros
mensajes que brindasen información detallada al usuario de
cómo personalizar las opciones de configuración de la
aplicación.
6.1.
Conclusiones
Aunque el objetivo central de esta investigación no era
evaluar el grado de conformidad de las herramientas (App
Builder) respecto a las WCAG 2.0, puesto que se utilizaron
sus principios para definir una lista de criterios que
facilitara la selección de las herramientas a utilizar, sí que
se pudieron concluir en torno a sus principios, algunas
cosas interesantes en relación al uso accesible que ofrecen
dichas herramientas a personas con discapacidad visual
usuarios de lectores de pantalla:
A. Perceptible: ambas herramientas intentan cumplir
con este principio, sin embargo presentan debilidades en
cuanto a los textos alternativos de las imágenes y en el caso
de Free Android App Maker también en cuanto a algunos
elementos de formulario que no son correctamente
perceptibles con lector de pantalla.
B. Operable: Ambas herramientas cumplen este
principio puesto que se pueden llevar a cabo las actividades
que implican el desarrollo de una aplicación utilizando el
teclado y un lector de pantalla. Ninguna de las herramientas
hace uso de temporizadores o elementos que pudieran
interferir en la navegación y ubicación del usuario durante
el proceso de creación de la aplicación.
C. Comprensible: Ambas herramientas ofrecen la
información redactada de forma comprensible, aunque hay
que destacar que solo se encuentran en inglés y no ofrecen
cambio de idioma. En cuanto a la interfaz, Andromo
presenta una interfaz que pudiera ocasionar confusión a
usuarios ciegos que interactúen por primera vez con menús
de tipo pestaña con interactividad proporcionada con
jQuery. Sin embargo, puede decirse que la curva de
aprendizaje es corta y en poco tiempo se puede utilizar la
herramienta sin problemas. Asimismo, se ofrecen ayudas
para evitar y corregir errores destacándose particularmente
las alternativas ofrecidas por Andromo.com. Por otra parte,
Free Android App Maker proporciona dos enlaces con texto
distinto que dirigen al mismo destino, pero el texto (en
ambos casos) no resulta demasiado intuitivo y puede
provocar (por lo menos las primeras veces) que el usuario
pierda tiempo en acceder a la fase de selección del tipo de
aplicación.
D. Robusto: En general, Ambas herramientas ofrecen
el contenido de forma que puede ser interpretado por los dos
lectores de pantalla utilizados en esta investigación y con
tres agentes de usuario distintos.
Como se mencionó anteriormente los resultados
detallados de la revisión automática realizada con
Examinator se omiten por no ser objeto de análisis en esta
investigación, sin embargo, cabe mencionar que el
validador reportó algunos problemas en ambas
herramientas, pero que son perfectamente corregibles y
mejorables y que en sí no tuvieron repercusión en la
exploración y evaluación realizada con los productos de
apoyo.
En cuanto a la usabilidad de ambas herramientas se
puede concluir que andromo.com, aunque de entrada pueda
parecer una herramienta más compleja de manejar por un
usuario principiante, contempla más a fondo los principios
del diseño de interfaz de Nielsen, ya que, permite mayor
control, personalización y flexibilidad sobre las funciones
que ofrece y la interfaz es consistente con un diseño
bastante sencillo. La ayuda y documentación está disponible
y es muy detallada y una vez se conoce el funcionamiento
de la herramienta el tiempo de ejecución de las actividades
se reduce considerablemente. Si bien es cierto que implica
muchas más actividades y procedimientos, la experiencia
final del usuario puede llegar a ser más satisfactoria que con
Free Android App Maker, que siendo más simple, no ofrece
las mismas posibilidades y por ende el usuario tiene menos
control sobre los procedimientos de configuración de la
aplicación a desarrollar. Tampoco con esta herramienta se
cuenta con mucha información sobre los procedimientos y
actividades, en comparación con andromo.com.
Como conclusión final, hay que decir que con estas dos
herramientas se puede crear una aplicación móvil para
Android de forma relativamente fácil y utilizando un
producto de apoyo como son los lectores de pantalla en
plataformas Windows.
6.2.
Recomendaciones
En vista del auge que están teniendo no solo los
dispositivos móviles, sino también el desarrollo de
aplicaciones para móviles incluso a través de estas
herramientas de desarrollo (App Builder) se considera
recomendable, realizar otros estudios de este estilo que
permitan evaluar qué tan accesibles son estas herramientas
para otras plataformas como iOS, Simbian o Windows
Phone; y que finalmente pueda hacerse un estudio
comparativo entre las diversas herramientas que ofrezca
información al usuario con discapacidad de cuáles son las
alternativas más idóneas.
Asimismo, se considera oportuno realizar este estudio
tomando en cuenta otras discapacidades, lo que permitiría
conocer hasta qué punto estas herramientas entran dentro de
las nuevas tendencias relacionadas al diseño universal.
Por otra parte, es importante considerar otras líneas de
investigación relacionadas a estas herramientas, como
46
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
puede ser evaluar si las aplicaciones desarrolladas bajo esta
metodología son accesibles y brindan soporte a productos
de apoyo para dispositivos móviles; y hasta qué grado
pueden ser utilizadas por personas con discapacidad.
Por último, es recomendable realizar una evaluación
completa en base a las WACG 2.0 para verificar el grado
de conformidad con dichas pautas. También es importante
verificar hasta qué punto este tipo de herramientas cumple
con la Visión General de las Pautas de Accesibilidad para
Herramientas de Autor (ATAG) y con la Visión General de
las Pautas de Accesibilidad para Aplicaciones de Usuario
(UAAG) y posteriormente presentar un informe que pueda
servir de referencia tanto para los desarrolladores de estas
herramientas, como para los usuarios que se dediquen a
crear aplicaciones móviles a través de las mismas.
7. Referencias
1.
Blanco, P.; Camarero, J.; Fumero, A.; Werterski, A. y
Rodríguez, p. (2009). Metodología de desarrollo ágil para sistemas
móviles: Introducción al desarrollo con Android y el iPhone.
Universidad Politécnica de Madrid.
2.
Flores, J. (jun. 27, 2012). Google Play tiene 600,000
aplicaciones y más de 20 billones de aplicaciones descargadas. [En
línea]. Disponible: http://es.ubergizmo.com/2012/06/google-play-
tiene-600000-aplicaciones-gy-mas-de-20-billones-de-aplicacionesdescargadas/
3.
HAFO. (feb. 18, 2013). App Builders: solución para el
desarrollo de aplicaciones móviles. [En línea]. Disponible:
http://blog.aplicacionesmovil.cogm/aplicaciones-celular/appbuilders/
4. Fernández, A. (feb. 20, 2013). Aplicaciones web vs.
aplicaciones nativas vs. aplicaciones híbridas. [En línea].
http://blogthinkbig.com/aplicaciones-web-nativasDisponible:
hibridas/
5.
SIDAR. (Dic. 15, 2009). Pautas de accesibilidad para el
contenido
web (WCAG) 2.0. [En línea]. Disponible:
http://www.sidar.org/traducciones/wcag20/es/
6.
Carreras, O. (). Validadores de Accesibilidad y
usabilidad
web.
[En
Línea].
Disponible:
http://www.usableyaccesible.com/recurso_misvalidadores.php
7.
Nielsen, J. (ene. 1, 1995). 10 Heuristics for User
Interface
Design.
[En
línea].
Disponible:
http://www.nngroup.com/articles/ten-usability-heuristics/g
8.
Nielsen J. (2013). Mobile consumer report. [PDF].
Disponible:
http://www.nielsen.com/content/dam/corporate/us/en/reportsdownloads/2013%20Reports/Mobile-Consumer-Report-2013.pdf
47
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Comunicador Táctil: Comunicación para Sordociegos
Antonio Bermúdez Cabra
CIDAT-ONCE
[email protected]
Juan Ramón Jiménez García
CIDAT-ONCE
[email protected]
Eugenio Romero Rey
Unidad técnica sordoceguera ONCE
[email protected]
Juan Miguel Castellano García
CIDAT-ONCE
[email protected]
Chelo Sacristán Aragón
CIDAT-ONCE
[email protected]
Beatriz Arregui Noguer
Unidad técnica sordoceguera ONCE
[email protected]
Resumen
Las personas sordociegas se encuentran con dificultades
para la comunicación presencial debidas a la imposibilidad
de compartir información con interlocutores desconocidos o
semidesconocidos que, en general, no saben o no dominan
las formas y sistemas alternativos de comunicación
utilizados por ellas. La tecnología actual, y en particular los
dispositivos móviles, ha permitido el desarrollo de este
proyecto, cuya finalidad es la de ofrecer una nueva vía de
comunicación en las citadas situaciones.
Se han utilizado teléfonos inteligentes y tabletas
(iPhone, iPad y dispositivos con Android) como canal para
el proceso comunicativo que se produce entre dos personas.
La aplicación desarrollada pretende recrear la comunicación
entre dos personas, una de las cuales es sordociega. Para el
interlocutor sordociego se han tenido en cuenta dos perfiles
de usuario: personas sordociegas que son sordas pero que
tienen visión que les permite leer los mensajes del teléfono
aunque sea ampliando el tamaño de los mismos, y otro
perfil de personas sordociegas que son igualmente sordas
pero también ciegas totales y que utilizarán un revisor de
pantallas para acceder a la información que muestre la
aplicación.
El proceso comunicativo es uno de los principales
problemas a l os que se tienen que enfrentar las personas
sordociegas en su vida diaria. Este proyecto desarrolla una
ayuda técnica que les ofrece una vía más para comunicarse
con las personas de su alrededor. La ayuda técnica tendrá
dos maneras de utilizarse, que dependerá de si la persona
sordociega tiene resto de visión o no. La existencia de dos
versiones de la aplicación se justifica debido al diferente
uso que cada grupo de usuarios sordociegos (con o s in
resto de visión) hacen de la tecnología que se ha decidido
utilizar como base para desarrollar la solución. La
aplicación va dirigida, en todos los casos, a pe rsonas
sordociegas sin resto de audición. Por ese motivo, en
cuanto a la deficiencia auditiva, no se señalan diferencias
respecto a los usuarios en el uso de la aplicación.
Abstract
Communication is one of the greatest challenges that
deafblind people have to face in their daily lives. This
project develops an accessibility solution that offers deaf
blind people another method to communicate with others.
There are two different ways to use this communication
application depending on whether the deaf blind person has
residual sight or is totally blind. Two versions are therefore
made available for the same application as each group of
deafblind users (blind or visually impaired) makes a
different use of the technology that will be employed in
order to form the basis to develop a s olution. As this
application is targeted at deaf blind people without residual
hearing, no differences are made between the users of the
solution.
1. Introducción
2. Estado del arte
Para plantear el escenario actual del problema, se deben
tratar dos aspectos: cómo resuelven ahora mismo las
personas sordociegas el problema de la comunicación y
hasta qué punto utilizan la tecnología que existe en estos
momentos (smartphones, etc.).
2.1. Comunicación de sordociegos
Las personas sordociegas utilizan formas de
comunicación que no son compartidas con el resto de la
sociedad. Cuando intentan resolver situaciones cotidianas
que implican una interacción comunicativa, como por
ejemplo hacer compras, pedir una cita médica, preguntar
por una dirección o la cantidad a pagar, tienen muchas
dificultades para comprender lo que les dice su interlocutor,
y para hacerse entender.
48
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Los recursos que han venido utilizando son las tablillas
alfabéticas de comunicación en braille o vista, la escritura
de mensajes con rotulador, la expresión de gestos naturales,
la escritura de letras mayúsculas con el dedo índice sobre la
palma de la mano, los comunicadores braille-vista y
también, la utilización de recursos humanos como guíasintérpretes.
2.2. Tecnología para sordociegos
Aprovechando el potencial de las aplicaciones para
dispositivos táctiles, surge la idea de crear un recurso que
les permita a las personas sordociegas comunicarse de
manera presencial, emitir un mensaje y obtener la respuesta
de forma escrita, posibilitando así que el intercambio
comunicativo sea más fácil.
Gracias a ayudas técnicas como las líneas Braille o los
revisores de pantalla, las personas sordociegas tienen acceso
a parte de la tecnología existente (ordenadores,
smartphones, etc.) por lo que estas plataformas no les son
extrañas. Con su uso, y con las adaptaciones necesarias en
cada caso, las personas sordociegas cubren sobre todo sus
necesidades de comunicación a distancia a través del
intercambio de información textual: sms, mail, chat, etc. No
existe, sin embargo, ninguna aplicación en español dirigida
específicamente a cubrir esta necesidad concreta y que
contemple las características y especiales necesidades
derivadas de la combinación de la deficiencia visual y
auditiva.
3. Tecnología
utilizados
y
métodos
Así, se desarrolla una herramienta para personas que
tienen una pérdida auditiva tal, que no comprenden los
mensajes hablados y una discapacidad visual en distinto
grado que les permite la comunicación a través del
intercambio de información escrita si ésta se les presenta de
forma accesible.
Los teléfonos inteligentes se han convertido en uno de
los dispositivos más utilizados por cualquier persona,
también entre usuarios sordociegos. Por su gran expansión,
por las prestaciones que ofrecen y por contar con pantalla
táctil, se han elegido los teléfonos iPhone y Android como
base para el desarrollo de la aplicación. También se utilizan
ayudas técnicas como teclados-líneas Braille y revisores de
pantalla.
Para que la comunicación sea efectiva y se pueda
producir, se ofrecerán los siguientes códigos a los
interlocutores dependiendo de sus posibilidades y de su rol
de emisor o receptor en cada ocasión.
En el papel de emisor:
• Sordociego con resto de visión: Utilizará la
pantalla táctil del dispositivo para, con gestos que
simulan los caracteres, escribir.
• Sordociego total: Utilizará su teclado-línea Braille
para escribir mensajes, de la misma manera que en
cualquier otra aplicación del móvil, utilizando el
revisor de pantallas.
• Usuario sin discapacidad: Utilizará el teclado en
pantalla habitual y, si el dispositivo lo admite, el
reconocimiento de voz.
En el papel de receptor:
• Sordociego con resto de visión: Con una
ampliación de los caracteres, configurable y hecha
desde la propia aplicación (es decir, sin necesidad
de un magnificador de pantallas) podrá leer el
mensaje que su interlocutor le acaba de escribir.
• Sordociego total: Accederá a través del código
Braille al mensaje escrito por su interlocutor
gracias al revisor de pantallas y a su teclado-línea
Braille.
• Usuario sin discapacidad: Podrá leer el mensaje
escrito por el interlocutor sordociego en una
pantalla estándar del dispositivo móvil.
3.1. Comunicador táctil para sordociegos con resto
de visión
Este tipo de usuarios necesita dos funcionalidades en la
aplicación: un código que pueda aplicar en el smartphone
para generar sus propios mensajes; y una ampliación de los
caracteres que forman los mensajes que se van
intercambiando durante la comunicación.
Para la primera se ha creado un reconocedor de gestos
que permite escribir caracteres utilizando la pantalla táctil y
que es independiente del tamaño o de la posición de la
pantalla en la que se realicen los mismos. Está diseñado de
forma que la realización de los gestos está apoyada en las
destrezas grafomotoras y por tanto sobre un menor
requerimiento visual para su realización, además de
disponer de feedback táctil por vibración para la adecuada
realización de los trazos, en los dispositivos que lo
permitan.
La segunda funcionalidad es cubierta ofreciendo al
usuario la posibilidad de configurar uno de entre cuatro
tamaños de letra y la posibilidad también de configurar un
tema de colores con altos contrastes.
Figura 1. Pantalla de inserción de texto para el
usuario sordociego con resto de visión.
49
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
3.1.1. Reconocimiento de caracteres. El algoritmo intenta
reconocer qué carácter ha querido dibujar el usuario
analizando el trazo que éste ha realizado sobre la pantalla
táctil del dispositivo. Para ello guarda las coordenadas de
todos los puntos por los que pasa el trazo desde que se toca
la pantalla hasta que se levanta el dedo de ésta. A
continuación se calcula el cuadrado más pequeño que
contenga completamente todo el trazo creado por el usuario.
Además, hace que el resultado no dependa de la posición en
la que se hizo el gesto en pantalla.
Figura 2. Ejemplo del trazo de la letra C.
Se divide el cuadrado que rodea la figura en tres filas y
tres columnas iguales. Esta división convierte el cuadro en
nueve casillas de un tamaño similar. Cada una de las
casillas resultantes se numera de 0 a 8 (de arriba a abajo y
de izquierda a derecha).
tiene asociadas varias secuencias válidas. Así, pequeñas
modificaciones en el trazo del usuario no afectarán al
resultado de reconocer un carácter. Además, se han
comprobado todas las secuencias para asegurar que ninguna
combinación de letras diferentes se asemeja lo suficiente
para crear falsos positivos. El proceso de creación de
secuencias, las pruebas realizadas y los resultados obtenidos
con usuarios reales de la aplicación permiten asegurar que
ambos objetivos se han cumplido.
3.1.2. Otras funcionalidades. Todas las acciones se
realizan con gestos táctiles sobre cualquier parte de la
pantalla (doble toque con un dedo, toque con dos dedos,
etc.). Esto ofrece a una persona sordociega un método de
entrada cómodo y fácil. También dispone de mensajes
pregrabados, que permiten al usuario mostrar de forma
rápida en la pantalla mensajes útiles, ya sea en situaciones
generales (pedir ayuda para coger un autobús) o en
situaciones que se haya preparado con anterioridad
(conversación con el cajero del banco del día siguiente). La
aplicación permitirá tanto su creación como su gestión y
clasificación. Además, permite copiar un texto al
portapapeles del dispositivo para pegarlo en otra aplicación,
y enviar por correo electrónico o por SMS un texto escrito.
Ofrece, tanto una ayuda del funcionamiento global de la
aplicación y de referencia de los gestos que se pueden
utilizar en cada pantalla, como un espacio de aprendizaje en
el que se muestra cómo hay que hacer el gesto que
identifica a cada carácter reconocible.
3.2. Comunicador táctil para sordociegos totales
Figura 3. Numeración de las casillas.
El algoritmo calculará la secuencia de casillas por la que
ha pasado el trazo que realizó el usuario y dará una
secuencia numérica indicando el trazo realizado.
Posteriormente se buscará si esa secuencia está entre las que
tiene como secuencias válidas y, en caso de ser así, se
determinará a qué carácter corresponde.
Figura 4. División en 9 zonas del trazo realizado
para la letra C.
Por ejemplo, la secuencia para la imagen 4, comenzando
desde la parte superior derecha del trazo, será 2, 1, 0, 3, 6, 7,
8. El algoritmo buscará entre las secuencias que tiene
definidas como válidas y encontrará que esta secuencia está
asignada a la letra C. Si la secuencia trazada por el usuario
no corresponde a ninguna letra el algoritmo la busca en
sentido contrario. De esta forma es posible empezar el trazo
en cualquiera de los extremos de la letra.
El principal objetivo del algoritmo es reconocer en el
mayor número de casos posibles el carácter que el usuario
ha querido escribir. Pero también debe reducir el número de
falsos positivos, es decir, el número de veces que la
aplicación escribirá un carácter distinto al que el usuario
intentó dibujar. Para cumplir ambos objetivos cada carácter
Para desarrollar esta versión de la aplicación se debe
tener en cuenta que el usuario sordociego trabaja con el
teléfono inteligente a través de ayudas técnicas. Así, utiliza
un revisor de pantallas y un teclado-línea Braille conectada
al dispositivo mediante Bluetooth que le sirve, tanto de
interfaz de entrada como de salida con las aplicaciones
instaladas en el teléfono.
La parte visual de la aplicación queda en segundo plano,
ya que el usuario accederá a las funcionalidades de la
aplicación mediante dichas ayudas técnicas. No obstante no
será olvidada ya que en los momentos en los que el usuario
no sordociego utilice la aplicación, ésta deberá ser lo
suficientemente clara, intuitiva y funcional para él. Esta
versión mantiene todas las funcionalidades de la anterior,
siendo la única diferencia la manera en la que el usuario las
ejecutará.
4. Resultados
En el momento actual se tienen desarrolladas, casi al
completo, las primeras versiones de la aplicación, tanto para
iPhone como para Android, orientadas a usuarios
sordociegos con resto de visión.
Los comentarios de las personas que lo han utilizado son
muy positivos y parece que la aplicación va a cubrir esa
necesidad de las personas sordociegas. Se tienen pensadas
nuevas funcionalidades para futuras versiones de la
aplicación que se unirán a las sugerencias que ofrezcan los
usuarios reales que utilicen esta primera versión.
Durante el desarrollo se crearon herramientas que han
resultado ser de utilidad para otros escenarios (por ejemplo
50
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
para niños ciegos en la escuela). Se abre la posibilidad de
afrontar el desarrollo de nuevos proyectos que reutilicen
partes importantes de éste.
En resumen, se presenta una aplicación cuyos aspectos
más relevantes son los siguientes:
• Es una aplicación que permite la comunicación
utilizando un dispositivo de uso habitual.
• Tanto en la definición como en las pruebas han
estado implicados los usuarios finales (Unidad
Técnica de Sordoceguera de la ONCE), por lo que
es una aplicación basada en las necesidades reales
de los mismos.
• Es una aplicación flexible para el usuario final, al
permitir añadir mensajes pregrabados, modificar
parámetros de la configuración, etc.
• Dispone de un tutorial de aprendizaje para las
primeras veces que se utilice.
• Ofrece una gran integración con otras
funcionalidades y aplicaciones existentes ya en el
dispositivo móvil, como son el uso del portapapeles,
el envío de mensajes SMS o el de correo
electrónico, etc.
• Es una aplicación gratis.
5. Discusión
Existen en el mercado dos aplicaciones que abordan la
misma problemática que el Comunicador táctil. La primera
de ellas se llama HIMS Chat y está desarrollada por la
empresa Fingertip Communication HIMS. Es una
aplicación diseñada para facilitar la comunicación entre una
persona sordociega total y una persona vidente, utilizando
una conexión Bluetooth entre el iPhone y un dispositivo
Braille de la propia empresa HIMS. La aplicación permite
guardar mensajes pregrabados y salvar la conversación que
se ha mantenido para su posterior revisado.
A diferencia del comunicador táctil, HIMS no permite otro
método de entrada a la persona sordociega que el teclado
Braille de su dispositivo, por lo que los sordociegos que
tengan un resto de visión no podrán hacer uso de él de una
manera eficiente con HIMS.
La segunda de ellas se llama TouchTalk y está orientada
a sordociegos con resto de visión. La mayor diferencia
respecto al comunicador táctil es el que los gestos para los
caracteres a escribir dependen de la posición de la pantalla
en la que se escriban para ser reconocidos. Además, dichos
gestos necesitan de un aprendizaje bastante mayor que los
ofrecidos por el Comunicador táctil. Por otro lado, la
aplicación TouchTalk ofrece funcionalidades importantes
para el usuario final como la gestión de mensajes
pregrabados o la posibilidad de guardar una conversación.
6. Bibliografía
[1] Daniel Álvarez Reyes, Beatriz Arregui Noguer, Carlos Cenjor
Español, Myriam García Dorado, Pilar Gómez Viñas, Elvira
Martín Hernández, Ángel Martín-Blas Sánchez, M.a Teresa Martín
Sastre, M.a Victoria Puig Samaniego, M.a Altagracia Reguera
Muñoz, Eugenio Romero Rey, Carlos Manuel Santos Plaza, M.A
Mar Zorita Díaz, La sordoceguera. Un análisis multidisciplinar,
ONCE, Madrid, 2004.
51
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Estudio de la Eficiencia y Optimización del Subtitulado para Sordos. Método de Pequerrecho Subtitulación
Pequerrecho Subtitulación
[email protected]
Resumen
La oferta de subtitulado para sordos ha aumentado en
los últimos años, pero la comunidad sorda demanda
calidad además de cantidad. Hasta el momento, el
subtitulado varía mucho entre cadenas y proveedores, pero
no parece cubrir las expectativas de los usuarios finales
actuales y no ha conseguido ampliar el perfil de los
usuarios de este tipo de subtítulos, ya que no s e ajustan
suficientemente a las necesidades específicas de la
heterogénea comunidad sorda y hacen que los usuarios
sigan siendo una minoría. Este estudio, realizado con una
amplia muestra de usuarios, pretende fijar pautas, eliminar
malas prácticas y creencias erróneas en este tipo de
subtitulado y homogeneizar el servicio para ampliar su
audiencia, además de proponer nuevas líneas de
investigación.
Abstract
During the last years, the offer of subtitling for the deaf
and the hard of hearing increased, but the deaf community
demands quality as well as quantity. Subtitles differ
significantly between TV channels and s uppliers, but these
services do not seem to fulfill all the expectations of the
final users and are unable to extend the profile of users of
this kind of subtitles, as they do not adjust sufficiently to the
specific needs of the heterogeneous deaf community, being
used only by a minority. This study involved a wide sample
of users. Thus, it is its intention to establish rules, as well as
to avoid bad practices and erroneous ideas about this
special kind of subtitling, in an effort to homogenize this
service, in order to extend its audience, and to propose new
lines of research on this subject.
1. Introducción
El subtitulado para personas con discapacidad auditiva
viene realizándose desde hace muchos años, pero es ahora
cuando parece cobrar mayor protagonismo debido a las
exigencias de las legislaciones vigentes en cuanto a
volumen de horas de emisión accesibles. En cambio, en la
práctica, parece que la calidad ha quedado excesivamente
relegada con respecto a la cantidad, algo que, sin duda,
demuestran las reiteradas quejas de las distintas
asociaciones de sordos y como recogen las actas de los
congresos AMADIS 2010 y AMADIS 2012, por ejemplo.
Desde la creación de Pequerrecho Subtitulación,
decidimos que nuestra máxima sería siempre la calidad y
que nuestra prioridad sería no sólo el cliente, sino, también,
el usuario final de los subtítulos. Por eso, decidimos llevar a
cabo un estudio meramente práctico que nos permitiese, por
un lado, conocer las necesidades reales de la comunidad
sorda en general y analizar su grado de satisfacción con los
subtítulos que se le ofertan actualmente y, por otra parte,
buscar y comprobar una fórmula más adecuada que
permitiese aumentar el número de usuarios de subtítulos
para sordos y mejorar la calidad de esos subtítulos.
Como empresa de subtitulado, en ningún momento
hemos tenido interés en realizar un estudio teórico, sino un
análisis y una comprobación que nos permitiesen generar
normas y pautas que nuestros subtituladores y revisores,
tanto lingüísticos como técnicos, pudiesen adoptar para
ofrecer un mejor servicio al usuario final y homogeneizar
nuestro producto con independencia de las personas que
intervengan en cada proyecto.
Una vez extraídas y comprobadas estas pautas, hemos
trabajado durante dos años aplicándolas en todos los
proyectos reales de subtitulado para sordos, por lo que
hemos tenido ocasión de pulir estas técnicas al enfrentarnos
a las dificultades y retos del subtitulado profesional y
verificar su adaptabilidad en función de los distintos tipos
de contenido.
2. Estudio práctico de la
opinión de los usuarios sordos
Por su naturaleza, un estudio sobre subtitulado para
sordos debe considerar parámetros exclusivos de esta
tipología (cf. De Linde, 1996 [1]; Arnáiz, 2012 [2]) por lo
que, a pesar de que tiene aspectos en común con otros tipos
de subtitulado, requiere la evaluación de las necesidades
específicas de los usuarios finales, que van más allá de la
inclusión del contenido sonoro. Para ello, es fundamental
contrastar la efectividad de las distintas técnicas con el
espectador que necesita este subtitulado para acceder a la
producción audiovisual.
2.1. Los talleres y la muestra de usuarios
52
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Para la realización del estudio, nos pusimos en contacto
con distintos profesionales oyentes que se comunican
diariamente con personas sordas y con la FAXPG
(Federación de Asociaciones Sordas de Galicia), que se
mostró muy interesada en nuestro proyecto y nos
proporcionó intérpretes de lengua de signos para los talleres
realizados en la Asociación de Personas Sordas de Santiago
de Compostela, la Asociación de Personas Sordas de Vigo,
la Asociación de Personas Sordas de Ferrol y la Asociación
de Personas Sordas de Ourense. Los vídeos utilizados
fueron cedidos por Televisión de Galicia para este fin.
En cada uno de los talleres, preguntábamos si los
usuarios utilizaban habitualmente el servicio de subtitulado
y si eran capaces de seguir los subtítulos. A continuación,
proyectamos
diferentes
contenidos
audiovisuales
subtitulados en gallego y español con distintos grados de
velocidad y complejidad de diálogo. Con esto, pretendíamos
conocer la opinión de los usuarios sobre los subtítulos que
podían encontrar en los distintos canales de televisión y
poner a prueba nuestro método de subtitulado. Para ello,
realizamos preguntas al aire para generar debates entre
propios asistentes, que se sentían más cómodos para opinar
y expresar sus capacidades reales al hablar entre ellos.
Gracias a los distintos talleres que organizamos,
reunimos una muestra de usuarios de 70 personas sordas de
entre 18 y 65 años. Entre los sujetos se encontraban
personas signantes y no signantes con capacidades de
lectura muy heterogéneas, por lo que consideramos que este
estudio supone una buena indicación de la funcionalidad de
estos subtítulos para la comunidad sorda en general.
2.2. Comprobación del método de subtitulado de
Pequerrecho Subtitulación
La gran participación de las personas sordas que
asistieron en cada una de las localizaciones nos permitió
cumplir nuestros objetivos con creces, de modo que
pudimos confirmar que el método de subtitulado para
sordos que utilizamos desde entonces permite seguir los
subtítulos de forma cómoda no sólo a aquéllos que ya
usaban los subtítulos que ofrecen las distintas cadenas, sino,
también, a quienes no los utilizaban porque no conseguían
leerlos por completo.
Además, queríamos que los usuarios nos comentasen si
notaban algún tipo de diferencia entre los subtítulos para
sordos que se ven habitualmente en televisión y los
subtítulos que nosotros les habíamos mostrado y los
resultados fueron sorprendentes: a pesar de que sí habían
seguido los nuevos subtítulos perfectamente, no percibieron
diferencias notables, por lo que los métodos utilizados para
facilitarles la comprensión y lectura de los subtítulos les
habían pasado desapercibidos. Incluso, al proyectar los
vídeos sin sonido, comprobamos que ni siquiera los
intérpretes de lengua de signos se habían percatado de las
adaptaciones.
Posteriormente, explicamos a los asistentes de todos los
talleres cuáles habían sido dichas adaptaciones y ninguno de
ellos se mostró incómodo con la idea de que se realizasen,
ya que no suponían una omisión de información, censura o
resumen del contenido y, sin embargo, les permitían un
mejor acceso al mismo, incluso cuando el diálogo resultaba
más rápido.
3. Comparación con la norma
UNE 153010:2012 [3]
El método de subtitulado de Pequerrecho Subtitulación
toma como base la normativa UNE 153010 de 2003 [4], que
estaba vigente en el momento del comienzo del estudio.
Como veremos en apartados posteriores, este método de
subtitulado difiere de la norma en los hábitos y usos que los
usuarios que participaron en este estudio rechazaron durante
los talleres. No obstante, dado que la normativa vigente
actualmente es la de 2012 y que constituye una revisión de
la anterior, en este apartado veremos los puntos comunes
entre este nuevo método de subtitulado y la norma actual.
3.1. Aspectos en común
La normativa española ha constituido una buena base
sobre la que trabajar para encontrar las pautas que nos
permitiesen optimizar el subtitulado para sordos. Así,
respetamos el uso de los colores para la identificación de los
personajes en función de su relevancia en la producción y
estamos completamente de acuerdo en que los subtítulos
con diálogo deben situarse en la parte inferior central de la
pantalla, excepto en aquellos casos en que tapen
información importante, en cuyo caso se desplazarán
momentáneamente a la parte superior central de la pantalla.
Utilizamos pautas muy similares en cuanto a la forma de
dividir una frase en dos líneas y coincidimos en el uso de
dos líneas como máximo, pero no en la opción de usar hasta
tres líneas en casos excepcionales, ya que invade
excesivamente la pantalla y resulta demasiada cantidad de
texto como para poder seguir la acción de la imagen. Así
mismo, deben utilizarse líneas diferentes para identificar
cada personaje y, en ningún caso, se utilizarán los puntos
suspensivos para indicar que la frase no empieza o no acaba
en un subtítulo. De hecho, los criterios gramaticales y
ortográficos de cualquier subtitulado deberán ser siempre
los establecidos por la Real Academia Española para el
español o por su homólogo para las distintas lenguas, ya que
cualquier incorrección genera confusión en el espectador.
Esto significa que el texto de los subtítulos debe puntuarse
como si se tratase de cualquier documento escrito.
Tal y como indica la norma, la información contextual
se refleja entre paréntesis y en mayúsculas en la misma
posición que el diálogo, pero siempre trataremos de evitar
las redundancias. Debemos tener en cuenta que el
espectador sordo está prestando atención a la imagen y, por
ejemplo, si estamos viendo claramente a un personaje llorar
o reír, no necesita que lo indiquemos en los subtítulos.
Los subtítulos que indiquen los denominados efectos
sonoros, es decir, los sonidos no producidos por uno de los
personajes o realizados por un personaje no identificado, se
sitúan en la parte superior derecha de la pantalla de forma
sustantivada (por ejemplo: “llanto”, “timbre”, “música”). El
hecho de que se encuentre en esa posición de la pantalla
indica que se trata de un sonido, por lo que no utilizaremos
expresiones como “suena el timbre” o “llaman a la puerta”
ni los indicaremos entre paréntesis.
53
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
4. Necesidades
del usuario sordo
específicas
Neves (2005) [5] afirma que los subtítulos deben ofrecer
tanto diálogo y tanta información acústica como se pueda,
de la forma más clara posible y todo en perfecta sincronía
con la imagen y con un ritmo adecuado que permita la
lectura. Siempre que no caigamos en el extremo de la
redundancia y la saturación de texto en pantalla, esta
afirmación define los principales requisitos que deben
cumplir los subtítulos para sordos. Pero, ¿cómo podemos
cubrir estas necesidades de un modo eficaz, homogéneo y
objetivo?
4.1. Efectividad de la transcripción literal
La normativa española defiende la literalidad de los
subtítulos, especificando que no deben aclararse los sentidos
figurados y que sólo se pueden tomar licencias de
adaptación en aquellos casos en que la velocidad del
diálogo sea elevada o las oraciones sean demasiado largas.
Otros autores defienden que muchos usuarios pueden
utilizar los subtítulos como ayuda complementaria de la
lectura de labios y que, si éstos difieren, podría generarse
confusión en el usuario (Kyle, 1996) [6]. Neves (2005)
descarta este argumento, ya que hay muy pocos programas
cuyo tratamiento visual permita una lectura de labios
efectiva, algo que tampoco sería posible en programas
doblados.
Sin embargo, el miedo a perder información o a la
censura, además de motivos de tipo político, han motivado
la demanda de transcripciones literales de diálogos en el
subtitulado por parte de algunos sectores de la comunidad
sorda. Ante esta afirmación, debemos tener en cuenta que la
propia heterogeneidad de la comunidad sorda desaconseja la
transcripción literal, como aseguran Arnáiz (2012) y Neves
(2005) y como queda demostrado por estudios como el de
Sancho-Aldridge e IFF Research Ltd (1996) [7], ya que sólo
logran comprenderla una minoría de personas sordas porque
ésta no tiene en cuenta las necesidades de comprensión
específicas de los usuarios. Esto ha motivado la defensa
utópica de que el espectador con falta de audición debería
poder elegir entre más de un tipo de subtitulado en función
de sus aptitudes de lectoescritura. Claramente, esta opción
no es viable debido a los costes que supondría.
4.2. Adaptación
Una vez descartada la efectividad de la transcripción
literal, nos corresponde aclarar en qué consiste la
adaptación de los subtítulos para sordos y, para ello, es
necesario establecer los aspectos que plantean una mayor
dificultad para la mayoría de la población con problemas de
audición. En este sentido, Neves (2005) comenta que el
texto debe estar orientado al usuario final y que los
subtituladores son oyentes que casi nunca tienen
conocimiento real del entorno cognitivo y social de la
audiencia meta, ya sea debido a la falta de formación o al
hecho de que desconocen que los usuarios de este servicio
no comparten su mismo idioma y/o cultura. Por eso, no es
suficiente plantearse qué información necesitaría un oyente
que, de repente, no pudiese oír, sino cómo procesan la
información y cuáles son los problemas a los que se
enfrentan las personas sordas.
En este caso, el método utilizado en este estudio se
centra en acelerar el proceso cognitivo de comprensión más
que en acelerar el simple proceso de lectura. Es decir, no se
trata sólo de que dé tiempo a leer el texto, sino que dé
tiempo a comprenderlo. En palabras de Gutt (1991) [8], se
trata de proporcionar la misma interpretación sin que la
audiencia necesite realizar un esfuerzo innecesario para
procesarla.
Cabe destacar que, dado que la comunidad sorda es tan
heterogénea, no todos los posibles usuarios de los subtítulos
tienen la misma formación, capacidad de lectura,
comprensión y uso de la lengua, por ejemplo. En este
sentido, los subtítulos para sordos están siempre orientados
a un perfil de usuario muy determinado: usuarios oralistas
con índices de alfabetización medio-altos y destrezas
lectoras elevadas (cf. Arnáiz, 2012). Esto limita
enormemente el acceso de otros miembros de la comunidad
sorda a los subtítulos ofrecidos actualmente. Si bien es
cierto que determinados usuarios son reticentes a la
reformulación del subtítulo para dotarlo de características
más idóneas para signantes (cf. Lorenzo, 2010ª [9]; Pereira,
2010 [10]), el hecho de orientar los subtítulos sólo para una
élite de esta comunidad discrimina al resto de miembros de
la misma.
En cualquier caso, la adaptación no debe incluir ningún
tipo de omisión, resumen o alteración de la información ni
censura o simplificación de vocabulario, por lo que los
usuarios que ya tienen acceso a los servicios de subtitulado
también se verán beneficiados por este método de
subtitulado, ya que garantiza una mayor calidad de los
subtítulos gracias a una gran atención al detalle, a las
distintas medidas adoptadas para facilitar la lectura y la
comprensión y a las tareas de revisión.
4.2.1. Interpretación de sentidos figurados y metáforas.
Según podemos extraer de estudios como el de Quigley y
Paul (1984) [11], los niños sordos carecen de una base
importante de conocimientos y suelen tener problemas para
comprender deducciones y lenguaje figurado, así como
dificultades con otros aspectos lingüísticos que se
desarrollan de forma automática en los niños oyentes. Esto
no significa que los niños sordos sean menos inteligentes
que los oyentes, sino que se inician en la lectura con unas
destrezas de comprensión del lenguaje menos desarrolladas
debido a déficits cognitivos, lingüísticos y de experiencia.
Además, Myklebust [12] describe, ya en su estudio de 1964,
que las personas sordas tienen problemas para comprender
ideas abstractas, al igual que existe numerosa bibliografía
de autores que relatan estos mismos problemas en la
comprensión de metáforas (cf. Iran-Nejad, Rittenhouse y
Morreau, 1981 [13]; Rittenhouse y Kenyon, 1991 [14];
Gilbertson y Kahmi, 1995 [15]; Wolgelmuth, Kahmi y Lee,
1998 [16]). De hecho, los sujetos sordos tienden a
comprender las metáforas de forma literal (cf. Johnson y
Myklebust, 1967 [17]; Furth, 1973 [18]; Boatner y Gates,
1975 [19]; Conrad, 1979 [20]; Takashi, 1999 [21]). Así, por
ejemplo, si nos encontramos con alguien por la calle y le
decimos “¡Qué bien te veo!”, podría entenderse de forma
literal como “Hoy veo estupendamente” en lugar de “¡Qué
guapa estás!”. Por eso, para tratar de comprender estas
metáforas y sentidos figurados, el usuario debe realizar un
54
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
mayor esfuerzo y consumir tiempo del que se carece en una
obra subtitulada. Por lo tanto, es preciso substituir estas
expresiones por su significado y mantener los matices y el
tono del original.
4.2.2. Estructuras sintácticas complejas. Schmitt (1968)
[22] afirma que la mayoría de los problemas de lectura de
las personas sordas se deben a que tienen interiorizadas
estructuras lingüísticas que son diferentes a las utilizadas en
la lengua oral y, según Thompson (1927) [23] y Brasel y
Quigley (1975) [24], estos problemas se ven especialmente
acentuados en el caso de personas con sordera prelocutiva.
Entre los elementos que constituyen una estructura
compleja, se incluyen las oraciones de relativo, la voz
pasiva y los complementos (cf. Neves, 2005).
Así, siempre que sea posible, trataremos de simplificar
estas estructuras complejas de la forma menos traumática
posible, sin resumir ni alterar la información. Además, es
preciso mantener, en todo momento, la coherencia y
cohesión del texto entre sí y con la imagen (cf. Mayoral,
Kelly y Gallardo, 1988 [25]). Esto facilitará la lectura y
comprensión de los subtítulos al evitar confusiones que
despistan al espectador y le hacen perder tiempo.
4.2.3. Formas verbales flexionadas. Para todas aquellas
personas que trabajan habitualmente con personas sordas,
especialmente en aprendizaje lingüístico o interpretación, es
conocido que la mayoría de la comunidad sorda tiene
problemas para interpretar los tiempos verbales y
desprender el sujeto elíptico a partir de la forma verbal
flexionada. Esto queda documentado en numerosos estudios
empíricos (cf. Rivera, 2008 [26]; Herrera, Puente, Alvarado
y Ardilla, 2007 [27]).
Stockseth (2002) [28] afirma que se podría explicar el
déficit en la comprensión de las flexiones verbales
demostrado por los sujetos sordos por la falta de
codificación de estos morfemas funcionales, especialmente
debido a que se encuentran en posición final de las palabras.
De hecho, este fenómeno se produce en mayor o menor
medida en otras lenguas, como demuestra el estudio de
Liechtenstein (1998) [29], en el que los sujetos no
codificaban el morfema “-ing”, sufijo de los gerundios, con
los que se forma el tiempo presente continuo en inglés. El
mismo autor afirma que algunos de los sujetos de su estudio
incluso habían comentado que no pronunciaban el final de
algunas palabras al hablar.
Para salvar esta dificultad, trataremos de utilizar,
siempre que sea posible, tiempos verbales simples y
especificaremos siempre el sujeto de la oración.
Recordemos que todas estas medidas están destinadas a
agilizar los procesos de comprensión, por lo que, aunque
esto implique el uso de más caracteres, reducirá el tiempo
necesario para la lectura y comprensión del subtítulo. Esto
tampoco debería resultar un problema si empezamos a
aprovechar mejor la retransmisión de subtítulos a través de
la TDT, que nos permite el uso de un mayor número de
caracteres (hasta 42 por línea en casos excepcionales) y la
omisión de la caja negra, que tapa parte de la imagen. La
distinción de las letras de los subtítulos con respecto a los
colores de la imagen queda garantizada gracias al contorno
negro que ya utilizan muchas cadenas en sus emisiones.
4.2.4. Pronombres de tercera persona. Existen numerosos
estudios que señalan los problemas de las personas sordas
con las pronominalizaciones (cf. Quigley y Paul, 1984
[30]). Los pronombres de primera y segunda persona
resultan más fáciles de identificar, pero, los de tercera
persona de singular y plural pueden suponer un problema
añadido, en parte, por la influencia de la lengua de signos.
Al signar, se identifican las personas con su nombre. Si,
de repente, dejamos de referirnos a “Juan” con este nombre
y hablamos de “él”, puede interpretarse que hablamos de
otra persona distinta, que la persona sorda aún no conoce y
que, definitivamente, no es Juan. Según pudimos comprobar
en nuestro estudio, el uso del nombre de la persona en lugar
de los pronombres de tercera persona de singular o plural
permite el seguimiento más cómodo de los subtítulos a
personas que no suelen utilizarlos por la dificultad que les
supone.
5. Aspectos técnicos
facilitan la lectura
que
Además de todas estas adaptaciones centradas en
agilizar la comprensión del texto de los subtítulos por parte
de un mayor número de usuarios sordos, existen medidas
que podemos adoptar para agilizar la lectura y localización
de los subtítulos no sólo para usuarios con problemas de
audición, sino, también para usuarios de subtítulos
interlingüísticos.
El tiempo empleado leyendo subtítulos aumenta en
paralelo a la velocidad en que entran y salen y el espectador
les da prioridad, por lo que deja de prestar atención a la
acción de la imagen (Jensema, Skarkawy, Danturthi, Burch
y Hsu, 2000 [31]). Por eso, los subtítulos deben generarse
de forma que el espectador pueda seguirlos cómodamente al
mismo tiempo que atiende a la imagen.
5.1. Sincronía y permanencia en pantalla
Según la norma UNE 153010:2012, la entrada y salida
de los subtítulos debe coincidir con el movimiento de los
labios, los cambios de plano, la locución o la información
sonora. Además, los estándares de ITC (1999) [32] afirman
que los cambios de plano reflejan, normalmente el inicio o
final de un discurso y que, por lo tanto, el subtitulador debe
tratar de insertar un subtítulo en un cambio de plano cuando
éste esté en sincronía con el locutor. Neves (2005) se
muestra de acuerdo con esta afirmación y advierte que los
subtítulos de las obras con abundantes cambios de plano
tendrán un tempo más rápido y exigirán un mayor esfuerzo
por parte del espectador y del subtitulador.
Ahora bien, la práctica cotidiana y la experiencia con
distintos tipos de producciones y, por lo tanto, con diversos
métodos de planificación cinematográfica, nos han
permitido comprobar que la regla de los cambios de plano
va a menudo en detrimento de la legibilidad del subtítulo.
En primer lugar, la voz no siempre respeta los cambios de
plano y no podemos dejar de incluir información por
guiarnos a pies juntillas por estas indicaciones. Además,
aunque la voz desaparezca con el cambio de plano, si
sacamos el subtítulo sin que dé tiempo a leerlo, es como si
no existiera, porque no cumple su función y porque genera
ansiedad y confusión. Por todo eso, el cambio de plano
55
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
constituye un aspecto secundario a la hora de sincronizar los
subtítulos.
El inicio del subtítulo debe entrar en pantalla con el
inicio de la voz, pero debería permanecer en pantalla unos
momentos más que la voz para asegurar su lectura. Además,
debemos acostumbrar al espectador a un tempo cómodo de
entrada y salida de subtítulos, por lo que es necesario
establecer un tiempo mínimo entre la salida de un subtítulo
y la entrada del siguiente y el tiempo mínimo de exposición
de un subtítulo, por breve que sea, debería ser un segundo.
Es necesario tener en cuenta que no todas las palabras se
leen igual de rápido, es decir, con el mismo número de
caracteres, las palabras de uso más habitual se leerán más
rápidamente que, por ejemplo, tecnicismos o nombres
propios.
5.2. Uso preferente de dos líneas
Otros autores (D’Ydewalle, Van Rensbergen y Pollet,
1987 [33]) comentan que es preferible el uso de dos líneas,
porque, al perder menos tiempo cambiando la posición de
los ojos entre la imagen y los subtítulos, se deja más tiempo
para la lectura de éstos. El método de subtitulado de
Pequerrecho Subtitulación también da preferencia al uso de
dos líneas, aunque el número total de caracteres nos permita
utilizar sólo una, ya que, de este modo, el texto queda más
centrado en la pantalla. Si tenemos en cuenta que la acción
suele producirse en la parte central de la pantalla, los ojos
tendrán que recorrer menos distancia para localizar el texto
y volver a la imagen que si tienen que seguir el texto de una
esquina a otra antes de volver a la imagen. Además, en el
estudio hemos comprobado que esta técnica permite reducir
significativamente el tiempo de lectura de los subtítulos en
comparación con los subtítulos de una única línea, porque el
espectador también localiza antes los subtítulos al estar
siempre tan centrados como sea posible.
Jensema et al. (2000) afirman en su estudio que la
tendencia general es mirar siempre hacia el centro, buscar
luego el inicio del subtítulo y, al acabar de leerlo, volver a
echar un vistazo a la imagen hasta la aparición del siguiente
subtítulo. Si conseguimos reducir la velocidad de lectura y
que la información esté lo más próxima posible al centro de
la acción sin taparla, conseguiremos también que el
espectador lea más cómodamente y tenga tiempo de seguir,
además, la imagen y disfrutar de la producción audiovisual.
5.3. Uso del guión
Neves (2005) comenta que, en España, existe una
incoherencia en el uso de la puntuación para identificar los
cambios de locutor y parece que cada cadena utiliza su
propia norma. Por su parte, sugiere que los subtítulos
deberían utilizar las convenciones de puntuación que se
utilizan para cualquier texto escrito, como ocurre en países
como Portugal, ya que esto facilita el seguimiento del
diálogo. Los asistentes a los talleres corroboran esta
afirmación, ya que defienden el uso del guión como en
cualquier texto escrito. Así,el método de Pequerrecho
Subtitulación utiliza el guión (seguido siempre por un
espacio para ayudar a identificar más rápido la primera
palabra) en ambas líneas cuando hablan dos personajes
dentro del mismo subtítulo, con independencia del color
asignado a cada personaje.
6. Intentos
ineficaces
de
adaptación
Existen numerosos estudios y normativas que proponen
distintas formas de adaptación. Aquí mencionamos algunas
que hemos tenido ocasión de poner a prueba en nuestro
estudio y que han sido descartadas por nuestra muestra de
usuarios.
6.1. Indicación de didascalias
Para indicar las características propias de la forma de
hablar de un personaje o el tono, si es que se considera
necesario, la normativa vigente aconseja su aclaración entre
paréntesis y en mayúsculas en la misma posición que el
diálogo. Por ejemplo: “(TARTAMUDEA)”, “(SUSURRA)”,
“(IRÓNICO)”... Los resultados obtenidos en este estudio
coinciden plenamente con lo que propone esta norma, pero
incluimos aquí los casos en que sea necesario indicar que una
voz está en off, ya que la lectura de la cursiva siempre es un
poco más lenta que la lectura de la letra redonda.
6.1.1. Emoticonos. Esta técnica, recomendada en la anterior
normativa española y por otros autores (cf. Pereira y
Lorenzo, 2005 [34]), resulta demasiado subjetiva, como
demuestra Neves (2005) al mostrar el uso diferente de los
mismos emoticonos en distintos países. Además, requiere
una interpretación de los emoticonos por parte del usuario
de los subtítulos que implica más tiempo para el proceso de
comprensión de los mismos.
6.1.2. Saltos de línea y representaciones literales. De
Linde y Kay (1999) [35] sugieren indicar el sarcasmo o la
ironía con los signos (!) y (?) al final del subtítulo. Esta
opción queda descartada, al igual que otras de similares
características porque su uso en la lengua escrita no es
habitual y su significado es muy poco conocido por la
mayoría de la población, por lo que los usuarios también
tendrían que descifrar su significado.
Queda excluida también la técnica de De Linde y Kay
(1999) sobre el uso de un salto de línea en combinación con
puntos suspensivos al final de la primera línea y al principio
de la segunda para indicar pausas por duda (cf. Pereira et al.,
2005) por su subjetividad, ya que los sujetos del estudio
manifestaron rechazo por todos aquellos usos especiales de
signos o símbolos para el subtitulado que difieran de la
normativa de la Real Academia Española y que requieran una
explicación previa de su interpretación para que el usuario
medio de los subtítulos los comprenda. Así, quedaría
excluido el uso de # para la indicación de canciones, al igual
que el uso del emoticono de la nota musical, por problemas
para que lo reconozcan los distintos sistemas de retransmisión
de subtítulos.
Esto mismo ocurre con la representación ortotipográfica
del tartamudeo (por ejemplo: “T-t-t-tú no lo p-p-puedes
saber”) que proponía la anterior normativa española y
recogida también en otras normativas y estudios (cf. BBC,
2009 [36]; Pereira et al., 2005), ya que provoca confusión y
ralentización de la lectura.
6.2. Abreviaturas
56
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
La normativa vigente recoge el uso de abreviaciones en
las etiquetas identificativas. Una vez más, esto requiere una
asociación deductiva para identificar la abreviación siempre
que aparezca con el nombre completo del personaje, por lo
que provocaría confusión y pérdida de tiempo. Además, si el
espectador no ve el contenido desde el principio o, por el
motivo que sea, se pierde la etiqueta que asocia el nombre a
la abreviatura, el seguimiento de los subtítulos sería aún más
difícil.
7. La importancia
revisión
de
la
Al margen de lo comentado anteriormente, muchos de los
errores que se encuentran en la práctica profesional del
subtitulado se deben a la falta de revisión. Así, es fácil
encontrarse faltas de ortografía, errores gramaticales y de
puntuación, erratas, incoherencias en la asignación de
colores, omisión de subtítulos... Muchos de estos errores se
solucionarían con una revisión exhaustiva por parte de un
profesional distinto al subtitulador que haya realizado el
subtitulado. En el caso de Pequerrecho Subtitulación, en
todos los proyectos participa un subtitulador, un revisor
lingüístico y un revisor técnico.
Además de por falta de revisión, en algunos casos, las
incorrecciones con respecto a la normas establecidas por la
Real Academia Española son intencionadas. Éste es el caso
del uso que se realiza en algunas cadenas de televisión de los
puntos suspensivos para indicar que una frase no acaba o
empieza en ese subtítulo o del signo de exclamación o
interrogación sólo al final de la oración. Tampoco se
recomienda el uso de paréntesis en el texto del diálogo: se
prefiere, para estos casos, el uso de comas o la reformulación.
Los errores de sincronización son muy habituales y se
deben a distintas causas: en ocasiones, son descuidos del
subtitulador y podrían solucionarse prestando más atención y
con las revisiones; en otros casos, se deben a errores técnicos
en la retransmisión de los subtítulos o a que el vídeo que
maneja el subtitulador no comienza en el mismo tiempo que
el vídeo que se maneja en la cadena de televisión.
8.
Futuras
investigación
líneas
de
En vista de los resultados obtenidos en este estudio y de la
fantástica disposición de las personas sordas que participaron
en el mismo, Pequerrecho Subtitulación continuará
realizando talleres para seguir evaluando el subtitulado y para
buscar más fórmulas que permitan optimizar el servicio con
adaptaciones como las mencionadas anteriormente. Así
mismo, pretendemos llegar a cuantificar con mayor exactitud
el porcentaje de miembros de la comunidad sorda que
consiguen acceder a los subtítulos con el método de
Pequerrecho Subtitulación y cuáles son sus características
específicas, porque, sin duda, esta información también
contribuirá a la ampliación del rango de posibles
espectadores.
En cuanto a la adaptación de los subtítulos, creemos que
sería interesante estudiar en profundidad la comprensión de
las metáforas y sentidos figurados y la pronominalización de
los objetos directos e indirectos. Las estructuras sintácticas
también plantean un reto interesante, como se puede
comprobar en el estudio de Stockseth (2002), ya que deja
patente que el orden de los elementos de la oración por sí solo
puede constituir un impedimento importante para su correcta
comprensión.
En cuanto al aspecto técnico, podría ser beneficioso para
el sector hacer un análisis de la adecuación del software de
retransmisión de subtítulos y la sugerencia de mejoras en el
mismo, por ejemplo, para que acepte el uso de ciertos
símbolos o que se permita el solapamiento de dos subtítulos
sin que deban entrar a la vez en pantalla, necesario en algunos
casos para la indicación de diálogo y efectos sonoros.
9. Conclusiones
Este estudio nos ha proporcionado información muy
relevante sobre las necesidades de los usuarios finales de los
subtítulos para sordos, lo que nos ha permitido ofrecerles este
servicio a sujetos que, habitualmente, no pueden utilizarlo.
Para esto, se realiza una adaptación que resulta mucho menos
traumática de lo que puede parecer a priori; prueba de ello es
la aprobación unánime de este tipo de medidas por parte de
los participantes en el estudio, independientemente de si ya
eran o no usuarios habituales de productos subtitulados o no.
Es importante tener en cuenta que el método de subtitulado
de Pequerrecho Subtitulación no incluye y no acepta
simplificaciones de vocabulario, cambios de registro,
omisiones de información o métodos de censura. Se trata
simplemente de facilitar el acceso a la obra utilizando
técnicas que contribuyan a agilizar el proceso cognitivo de
comprensión y que ayuden a que la lectura sea más cómoda y
rápida para que el usuario pueda disfrutar de la obra
prestando también atención a la imagen.
Además de comprobar la eficacia de este método, hemos
conseguido generar pautas y normas internas que nos
permiten homogeneizar todos los trabajos, a pesar de que
estén realizados por distintos subtituladores y de que pasen
una revisión lingüística y una revisión técnica realizada por
profesionales distintos al subtitulador.
Además de en la aceptación de nuestro método de
subtitulado, también encontramos unanimidad en el rechazo a
cualquier uso fuera de la normativa de la Real Academia
Española de signos de puntuación o símbolos. Nos repitieron
en varias ocasiones que no entendían por qué tenían que
aprender una norma para leer y escribir y otra para
comprender los subtítulos, por lo que lo lógico es utilizar
siempre las normas oficiales de la lengua correspondiente.
Esta exigencia de respeto a las normas establecidas incluye la
corrección gramatical y ortográfica, la coherencia en la
aplicación de colores, etc. Y ello porque cualquiera de estas
infracciones provoca confusión y ralentización en el proceso
de lectura y comprensión, además de desconfianza en la
fiabilidad de todos los demás subtítulos. Esto nos lleva a la
necesidad de implantar sistemas de trabajo que incluyan una
revisión realizada por un profesional distinto al subtitulador,
ya que no cabe duda de que una única persona no puede
proporcionar garantías de calidad suficientes.
Los resultados arrojados por este estudio plantean
numerosos campos posibles de investigación que
consideramos muy interesantes y creemos que pueden
identificar nuevas fórmulas para la optimización del servicio.
Así mismo, creemos que supone un gran avance hacia la
57
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
mejora de la calidad, la uniformidad, la regulación y la
objetivización del subtitulado para sordos, así como una
significativa ampliación del número de usuarios que pueden
beneficiarse de este servicio.
10. Bibliografía
[1] De Linde, Z. Le sous titrage intralinguistique pour les sourds
et les malentendants. En Gambier, Y. (Ed.). (1996). Les transferts
linguistiques dans les medias audiovisuelles. Presses
Universitaires du Septentrion. París. 1996.
[2] Arnáiz, V. Los parámetros que identifican el subtitulado para
sordos. Análisis y clasificación. Monti: Monografías de traducción
e interpretación, 4, 103-132. 2012.
[3] Asociación Española de Normalización y Certificación
(AENOR). Norma Española UNE 153010. Subtitulado para
personas sordas y personas con discapacidad auditiva. AENOR.
Madrid. 2012.
[4] Asociación Española de Normalización y Certificación
(AENOR). Norma Española UNE 153010. Subtitulado para
personas sordas y personas con discapacidad auditiva.
Subtitulado a través del teletexto. AENOR. Madrid. 2003.
[5] Neves, J. Audiovisual Translation: Subtitling for the Deaf and
Hard-of-Hearing. University of Surrey-Roehampton. Tesis
doctoral. Londres. 2005.
[6] Kyle, J. Switched On: Deaf People’s Views on Television
Subtitling. Previous Reports. 1996.
[7] Sancho-Aldridge, J. y IFF Research Ltd. Good News for Deaf
People: Subtitling of National News Programmes. Independent
Television Commission. Londres. 1996.
[8] Gutt, E. Translation and Relevance: Cognition and Context.
Basil Blackwell. Oxford. 1991.
[9] Lorenzo, L. Subtitling for deaf and hard of hearing children in
Spain. A case study. En Matamala, A. y Orero, P. (Eds.) (2010).
Listening to Subtitles: Subtitles for the Deaf and Hard of Hearing.
Peter Lang, 115-138. Berna. 2010a.
[10] Pereira, A. M. Criteria for elaborating subtitles for deaf and
hard-of-hearing adults in Spain: Description of a c ase study. En
Matamala, A. y Orero, P. (Eds.) (2010). Listening to Subtitles:
Subtitles for the Deaf and Hard of Hearing. Peter Lang, 87-102.
Berna. 2010.
[11] Quigley, S. y Paul, P. Language and Deafness. College-Hill
Press. California. 1984.
[12] Myklebust, H.R. The Psychology of Deafness. Grune and
Stratton. Nueva York. 1964.
[13] Iran-Nejad, A., Rittenhouse, R. y Morreau, L. Metaphor and
conservation in deaf and hard-of-hearing children. American
Annals of the Deaf, 126, 450-453. 1981.
[14] Rittenhouse, R. y Kenyon, P. Conservation and metaphor
acquisition in hearing-impaired children. Some relationships with
communication mode, hearing acuity, schooling and
age. American Annals of the Deaf, 136, 313-320. 1991.
[15] Gilbertson, M. y Kamhi, A. Novel word learning in children
with hearing-impairment. Journal of Speech and Hearing
Research, 38, 630-641. 1995.
[16] Wolgelmuth, K., Kahmi, A. y Lee, R. Metaphor performance
in children with hearing impairment language. Language, Speech
& Hearing Services in Schools, 29, 216-232. 1998.
[17] Johnson, D. y Myklebust, H. Learning disabilities.
Educational principles and practices. Grune & Stratton Inc. Nueva
York. 1967.
[18] Furth, H. Pensamiento sin lenguaje: Implicancias
psicológicas de la sordera. 1981. Madrid. 1973.
[19] Boatner, M. y Gates, J. A dictionary of American
idioms. Barron's Educational Series. Nueva York. 1975.
[20] Conrad, R. From gesture to language in hearing and deaf
children. Gallaudet University Press. Washington, D.C. 1979.
[21] Takashi, S. Metaphor interpretation by students with hearing
impairements. Japanese Journal of Special Education, 37:2, 59-69.
1999.
[22] Schmitt, P. Deaf Children’s Comprehension and Production
of Sentence Transformations and Verb Tenses. University of
Illinois. Tesis doctoral. Illinois. 1968.
[23] Thompson, H. An experimental study of the beginning
reading of deaf-mutes. AMS Press. 1972.
[24] Brasel, K. E. y Quigley, S. The Influence of Early Language
and Communication Environments on t he Development of
Language in Deaf Children. University of Illinois. Urbana,
Illinois. 1975.
[25] Mayoral, R., Kelly, D. y Gallardo, N. Concept of constrained
translation. Non-linguistic perspectives of translation. Meta:
Journal des traducteurs, 33:3. 1988.
[26] Rivera, Cristina. Evaluación del lenguaje en un alumno con
hipoacusia. Innovación y experiencias educativas, 13. 2008.
http://www.csicsif.es/andalucia/modules/mod_ense/revista/pdf/Numero_13/CRIS
TINA_RIVERA_1.pdf
[27] Herrera, V., Puente, A., Alvarado, J. M. y Ardilla, A. Códigos
de lectura en sordos: la dactilología y otras estrategias visuales y
kinestésicas. Revista Latinoamericana de Psicología, 39:2, 269286. 2007.
[28] Stockseth Danzak, R. Comprensión de la sintaxis española
por lectores sordos chilenos. Revista signos, 35:51-52, 271-290.
2002.
[29] Lichtenstein, Edward H. The Relationships Between Reading
Processes and English Skills of Deaf College Students, Journal of
Deaf Studies and Deaf Education, 3 (2), 80-134. 1998.
[30] Brasel, K. E. y Quigley, S. The Influence of Early Language
and Communication Environments on t he Development of
Language in Deaf Children. University of Illinois. Urbana,
Illinois. 1975.
[31] Jensema, C., Sharkawy, S., Danturthi, R. S., Burch, R. y Hsu,
D. Eye movement patterns of captioned television viewers.
American Annals of the Deaf, 145:3, 275-285. 2000.
[32] Independent Television Commission (ITC). Guidance on
Standards
for
Subtitling.
Ofcom.
1999.
http://www.ofcom.org.uk/static/archive/itc/uploads/ITC_Guidance
_on_Standards_for_Subtitling.doc
[33] D’Ydewalle, G., Van Rensbergen, J. y Pollet, J. Reading a
message when the same message is available auditorily in another
language: The case of subtitling. Eye movements: From physiology
to cognition, 313-321. 1987.
[34] Pereira, A. M. y Lorenzo, L. Evaluamos la norma UNE153010. Subtitulado para personas sordas y personas con
discapacidad auditiva. Subtitulado a través del teletexto. 2005.
[35] De Linde, Z. y Kay, N. The Semiotics of Subtitling. St.
Jerome. Manchester. 1999.
[36] British Broadcasting Corporation (BBC). Online Subtitling
Editorial
Guidelines.
2009.
http://www.bbc.co.uk/guidelines/futuremedia/accessibility/subtitli
ng_guides/online_sub_editorial_guidelines_vs1_1.pdf
58
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Efficency and Optimization Study of the Subtitles for
the Hard of Hearing.
The Method of Pequerrecho Subtitulación
Pequerrecho Subtitulación
[email protected]
Abstract
During the last years, the offer of subtitling for the deaf
and the hard of hearing increased, but the deaf community
demands quality as well as quantity. Subtitles differ
significantly between TV channels and s uppliers, but these
services do not seem to fulfill all the expectations of the
final users and are unable to extend the profile of users of
this kind of subtitles, as they do not adjust sufficiently to the
specific needs of the heterogeneous deaf community, being
used only by a minority. This study involved a wide sample
of users. Thus, it is its intention to establish rules, as well as
to avoid bad practices and erroneous ideas about this
special kind of subtitling, in an e ffort to homogenize this
service, in order to extend its audience, and to propose new
lines of research on this subject.
Resumen
La oferta de subtitulado para sordos ha aumentado en
los últimos años, pero la comunidad sorda demanda
calidad además de cantidad. Hasta el momento, el
subtitulado varía mucho entre cadenas y proveedores, pero
no parece cubrir las expectativas de los usuarios finales
actuales y no ha c onseguido ampliar el perfil de los
usuarios de este tipo de subtítulos, ya que no s e ajustan
suficientemente a las necesidades específicas de la
heterogénea comunidad sorda y hacen que los usuarios
sigan siendo una minoría. Este estudio, realizado con una
amplia muestra de usuarios, pretende fijar pautas, eliminar
malas prácticas y creencias erróneas en este tipo de
subtitulado y homogeneizar el servicio para ampliar su
audiencia, además de proponer nuevas líneas de
investigación.
1. Introduction
Subtitling for deaf and hard of hearing people has been
offered to users for many years, but it is now when it seems
to become increasingly visible due to the legal requirements
for accessibility applicable to broadcasting. However, it
seems quality has actually been excessively set aside,
compared to quantity. This is clearly proven by the several
complaints of the different Spanish associations of deaf and
hard of hearing people, as included in the records of the
AMADIS 2010 and AMADIS 2012 Accessibility
conferences, for example.
Since the foundation of Pequerrecho Subtitulación, we
decided our key principle would always be quality and our
priority would not only be the client, but also the final user
of our subtitles. Thus, we decided to carry out a practical
study that would allow us, on the one hand, to get to know
the real needs of the deaf community in general, as well as
to analyze their satisfaction with the subtitles currently
broadcasted; and, on the other hand, to search and check a
better method which would enable us to increase the
number of users of this kind of subtitles and improve their
quality.
As a subtitling company, we never intended to make a
theoretical study, but an analysis and verification that would
let us create rules and guidelines for our subtitlers and
linguistic and technical checkers to follow, in order to offer
a better and more homogeneous service to the final user,
regardless of who takes part in each project.
After extracting and checking these guidelines, we
worked for two years using them in all our real projects of
subtitling for the deaf, so we had the chance to improve
these techniques sorting out the challenges and difficulties
of professional subtitling and to verify their adaptability to
different kinds of audiovisual content.
2. Practical study about the
opinion of the deaf and hard
of hearing users
Due to its nature, any study on subtitling for the deaf
should consider parameters that belong exclusively to this
typology (cf. De Linde [1], 1996; Arnáiz, 2012 [2]). Thus,
although some of its elements are common to other kinds of
subtitles, it requires the consideration of the final user
specific needs, which goes beyond the inclusion of
ambience sounds. Therefore, it is essential to corroborate
the efficiency of the different techniques with the user who
actually needs these subtitles to understand the audiovisual
production.
2.1. The workshops and the sample of users
To carry out this study, we contacted different hearing
professionals who communicate with deaf people every day
and the FAXPG (Federation of Galician Deaf Associations),
59
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
which was very interested in our project and provided us
with the sign language interpreters we needed for the
workshops we organized at the Associations of Deaf People
in Santiago de Compostela, Vigo, Ferrol and Ourense. The
videos used at the workshops were specifically provided by
the Galician public television (TVG) for this purpose.
In each workshop, we asked the attendees if they usually
used subtitles on TV and if they were able to read them.
Then, we showed them several subtitled audiovisual
contents, both in Galician and Spanish, with dialogues of
different levels of speed and complexity. This way, we
intended to find out the attendees' opinion about the
subtitles they could find on TV and test our own subtitling
method. To do that, we asked them a number of questions to
generate debate and we realized they seemed to feel much
more comfortable expressing their opinions and real
capacities talking to other members of their own
community.
Thanks to these workshops, we gathered a sample of 70
deaf people between 18 and 65 years old. Among the
attendees, there were sign language speakers and non-sign
language speakers with very different reading capabilities,
so we believe this study is a good indication of the
functionality of these subtitles for the deaf community in
general.
2.2. Verification of the Subtitling Method created
by Pequerrecho Subtitulación
The great involvement of the deaf people who took part
in each of our workshops allowed us to meet our objectives
in an overwhelming manner, as we could confirm that the
subtitling method we have been using since then lets them
read the subtitles so easily that all of them could enjoy the
audiovisual production, not only those individuals who
already used the subtitles available on TV, but also those
who could not use them until now because they could not
get to read them completely.
Besides, we wanted the users to tell us whether they
could find or not any apparent difference between the
subtitles for deaf that are currently available on TV and
those we had just shown them and the results were amazing:
despite being able to read these last subtitles perfectly, they
could not find any evident differences, so the methods used
to ease the understanding and reading of the subtitles were
not perceived by them. Furthermore, when showing the
videos without audio, we realized those adaptations went
unnoticed even for the sign language interpreters.
Subsequently, we explained the attendees all the
adaptations made in those subtitles and none of them
expressed any inconvenience for those changes, as without
any omission, censure or summary of information, they
provided them with a better access to the content of the
videos, even at points with especially fast dialogues.
3. Comparison with the UNE
153010:2012 Regulation [3]
The subtitling method created by Pequerrecho
Subtitulación takes the UNE 153010 Regulation of 2003 [4]
as a starting point, as it was applicable in Spain when this
investigation started. As we will see in subsequent sections,
our method differs with the Spanish regulation about some
habits and uses disapproved by the users who took part in
the aforementioned workshops. Nevertheless, considering
that the current Spanish applicable regulation was approved
in 2012 and that it is a review of the previous regulation of
2003, the following section will show the common elements
between our subtitling method and the applicable Spanish
regulation.
3.1. Common elements
The Spanish regulation constituted a good starting point
to investigate the rules that would allow us to optimize the
subtitles for the deaf. Thus, we respect the use of colors to
identify the different characters considering their relevance
in the story and we totally agree with placing the subtitles
with dialogues in the lower central part of the screen, except
when they would cover important information, in which
case, we would momentarily move them to the upper central
part of the screen. We use similar guidelines to divide the
subtitles in two lines and accept the use of a maximum of
two lines per subtitle, but not the chance to use up to three
lines in exceptional situations, as a three-line subtitle would
invade the screen excessively and it would be difficult to
read that much text and follow the action of the video at the
same time. Also, the dialogue of each character should be
represented in a different line, and suspension points should
never be used to indicate that a sentence does not begin or
finish in a given subtitle. In fact, the grammatical and
orthographical criteria of any subtitle should always be that
established by the Royal Academy of the Spanish Language
or its equivalent for each language, as any mistake would
confuse the audience. This means the text in the subtitles
should be written and punctuated just as that in any other
written document.
Just as the Spanish regulation establishes, the context
information should be represented in brackets, in capital
letters and in the same position used for the dialogues, but
we will always try to avoid redundancies. We must keep in
mind that the deaf spectator is paying attention to the image,
so, for example, if we can clearly see a character crying or
laughing, there is no need for that to be specified in the
subtitle.
The subtitles that indicate the sound effects, meaning the
ambience sounds, not produced by any of the characters or
by an unidentified character, are placed on the upper right
part of the screen and expressed by nouns (for example:
“cry”, “bell”, “music”). The fact of the text being on that
part of the screen means it represents a sound, so it is not
necessary to use expressions like “the bell rings” or
“somebody knocks on the door” or to write it in brackets
either.
4. Specific Needs of the Deaf
User
Neves (2005) [5] puts forth that subtitles should offer as
much speech and acoustic information as possible, in the
clearest way possible and all of that in perfect synchrony
with the video and with an adequate tempo that allows
reading. As long as we do not take it to the extreme of
redundancy and saturation of text on screen, this statement
60
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
defines the main requirements that subtitles for deaf people
should accomplish. But how can we meet these needs in an
efficient, homogeneous and objective way?
4.1. Effectiveness of Literal Transcription
The Spanish regulation stands up for the literalness of
subtitles, specifying that no figurative meanings should be
explained and that the subtitler can only decide to make an
adaptation in those cases when the speed of the dialogue is
fast or if the sentences are too long. Other authors defend
that many users can use subtitles as a complementary help
to lip reading and, if they differ, the user might get confused
(cf. Kyle, 1996) [6]. However, Neves (2005) dismisses this
argument, as there are few programs with visual treatments
that allow an effective lip reading, which is not feasible
either for dubbed programs.
However, the fear to loss or censure of information,
apart from political issues, caused the demand of literal
transcriptions of dialogues as subtitles by some sectors of
the deaf community. Considering this statement, we must
keep in mind that the heterogeneous nature of the deaf
community makes the use of literal transcriptions
unadvisable, as stated by Arnáiz (2012) and Neves (2005)
and as proven by researchers like Sancho-Aldridge and IFF
Research Ltd (1996) [7], because only a minority of deaf
people gets to understand them and they do not take into
account the specific understanding needs of the possible
users. This fact led to the utopian defense of the need of
more than one kind of subtitling available depending on the
reading capacity of the deaf users. This is clearly not an
option considering the high costs it would imply.
4.2. Adaptation
Once we have dismissed the effectiveness of literal
transcriptions, we should explain what “adaptation of
subtitles for deaf people” means. To do that, it is necessary
to establish those aspects that pose a greater difficulty for
most of the hard of hearing people. In this sense, Neves
(2005) explains that the text should be directed to its final
user and that subtitlers are hearing people who hardly ever
have any real knowledge of the cognitive and social
environment of their target audience, whether it is due to the
lack of specific training or to the fact that they ignore that
the users of this service do not share their own language
and/or culture. Thus, it is not enough to consider which
information would a hearing person need in case they
suddenly could not hear anymore. It is necessary to know
how deaf people process information and which are the
main problems that they have to face. In this case, the
subtitling method used in this study focuses on accelerating
the cognitive understanding process rather than just
speeding up the reading process. That is, it is not just a
matter of having enough time to read the subtitles, but also
to understand them. As Gutt (1991) [8] puts it, it is about
providing the intended interpretation without putting the
audience to unnecessary processing effort.
It should be noted that, given the heterogeneous nature
of the deaf community, not all the possible subtitle users
have the same level of education, reading, understanding
and usage of language, for example. In this sense, the
subtitles for deaf people are always aimed to a very specific
user profile: oralist users with a medium-high level of
literacy and high reading capacities (cf. Arnáiz, 2012). This
fact restricts tremendously the access of other members of
the deaf community to the subtitles currently offered.
Although it is true that certain users are reluctant to
rephrasing of subtitles to make them more available for sign
language users (cf. Lorenzo, 2010a [9]; Pereira, 2010 [10]),
creating subtitles just for the elite of this community
discriminates against all the other members of such
community.
Adaptation should never include any kind of omission,
summary, censure or alteration of information nor any sort
of vocabulary simplification, so that the users who already
have access to the current subtitling services on TV would
also take advantage of this method, as it guarantees a better
quality in subtitles, thanks to a greater attention to detail, to
the different guidelines followed to ease reading and
understanding and to a thorough checking process.
4.2.1. Interpretation of figurative meanings and
metaphors. As we can draw from authors like Quigley and
Paul (1984) [11], deaf children lack a base of substantial
knowledge as well as inferential skills and understanding of
figurative language, and they often have problems too with
other linguistic skills which develop automatically in
hearing children. This does not mean deaf children are less
intelligent than hearing children, just that they start learning
reading with less developed language understanding skills,
due to cognitive, linguistic and experience deficits. In the
article Myklebust wrote in 1964 [12], it is stated that deaf
people have problems to understand abstract ideas and there
is also an extensive bibliography about their troubles to
understand metaphors (cf. Iran-Nejad, Rittenhouse and
Morreau, 1981 [13]; Rittenhouse and Kenyon, 1991 [14];
Gilbertson and Kahmi, 1995 [15]; Wolgelmuth, Kahmi and
Lee, 1998 [16]). ). In fact, deaf subjects tend to understand
metaphors in a literal way (cf. Johnson and Myklebust,
1967 [17]; Furth, 1973 [18]; Boatner and Gates, 1975 [19];
Conrad, 1979 [20]; Takashi, 1999 [21]). Thus, for example,
if our feet hurt because we have walked for a long time and
we say, “My feet are killing me!”, it could be literally
understood as “I’m going to die because of my feet”,
instead of, “My feet hurt really bad”. Therefore, in order to
try to understand these metaphors and figurative meanings,
the user must make a greater effort and waste more time
than available when watching a subtitled audiovisual
production, so it is necessary to substitute this kind of
expressions for their literal meaning, always keeping the
nuances and the tone of the original script.
4.2.2. Complex syntactic structures. Schmitt (1968) [22]
states that most of the reading problems of deaf people are
due to the fact that their internalized linguistic structures are
different to those used in the oral language and, according
to Thompson (1927) [23] and Brasel and Quigley (1975)
[24], these problems are particularly relevant in the case of
people with prelingual deafness. Among the elements that
constitute a complex structure are relative clauses, passive
voices and complements (cf. Neves, 2005).
Consequently, whenever possible, we will try to
simplify those complex structures trying to make that
adaptation in the less traumatic way, without summarizing
or changing information. It is also necessary to keep, at all
61
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
times, the coherence and cohesion of the text itself and of
the text with the video (cf. Mayoral, Kelly and Gallardo,
1988 [25]). This will ease the process of reading and
understanding the subtitles as it avoids confusions that
would make the spectator lose concentration and, therefore,
waste time.
4.2.3. Conjugated verbs. For all those people who work
regularly with deaf and hard of hearing people, particularly
as language teachers or sign language interpreters, it is well
known that most members of the deaf community have
problems to understand verb tenses and deduce the elliptical
subject out of the verb (a usual feature of Spanish
language). This is clearly documented by several empirical
studies (cf. Rivera, 2008 [26]; Herrera, Puente, Alvarado
and Ardilla, 2007 [27]).
Stockseth (2002) [28] affirms the deficit in understanding of
verb tenses shown by deaf subjects could be explained by
the lack of codification of those functional morphemes,
particularly because of their position at the end of the word.
In fact, this phenomenon is also present to a gr eater or
lesser extent in other languages, as proven by the study of
Liechtenstein (1998) [29], where subjects did not codify the
gerund morpheme “-ing” of the present continuous tense in
English. This author also states that some of the subjects in
that study even admitted they did not pronounce the end of
some words when speaking.
To overcome this difficulty, we will use, whenever possible,
simple verbal tenses and we will always specify the subject
in the sentence (which is often omitted in Spanish). It
should be remembered that all these techniques are aimed to
speed up the comprehension processes and, therefore, even
if they imply the use of more characters, the time needed to
read and understand the subtitles will be reduced. This
would not be a problem either if we start taking advantage
of the possibilities the DTT offers in terms of subtitle
broadcasting, which allows us to use more characters (up to
42 per line in exceptional cases) and to omit the black box
that covers part of the image on the screen. The letters can
be perfectly differenced from the colors on the screen
thanks to a black outline which is already being used by
many TV channels.
4.2.4. Third-person pronouns. There are many studies that
point out the problems of deaf people with
pronominalization (cf. Quigley and Paul, 1984 [30]). The
first-person and second-person pronouns are easier to
identify, but both singular and plural third-person pronouns
can be a further difficulty, partially, because of the
influence of sign language.
When using sign language, people are identified by their
own name. If, suddenly, instead of saying “John”, we refer
to the same person as “he”, it might be understood as a
reference to somebody else, somebody the deaf person does
not know yet but, definitely, not John. As we could verify in
our investigation, the use of the person's name instead of a
singular or plural third-person pronoun allows a
comfortable reading of the subtitles by deaf people who
usually cannot use them.
5. Technical aspects to ease
reading
Besides all these adaptations focused on accelerating the
comprehension of the text in the subtitles by a greater
number of deaf users, there are also techniques we can
adopt to speed up the process of reading and finding
subtitles on screen, and this not only for deaf and hard of
hearing people, but also for users of interlinguistic subtitles.
Time spent reading subtitles increases proportionally
with the speed of the subtitles’ ins and outs and the
audience gives priority to the text, so they stop paying
attention to the action in the video (Jensema, Skarkawy,
Danturthi, Burch and Hsu, 2000 [31]). Thus, subtitles
should be created in such a way that they can be
comfortably read while paying attention to the video.
5.1. Synchrony and time on screen
According to the Spanish Regulation UNE
153010:2012, the appearance and disappearance of the
subtitles on screen should coincide with lip movement, time
cuts and voice or audio information. Besides, the ITC
standards (1999) [32] establish that the time cuts usually
reflect the beginning or the end of a speech and, therefore,
the subtitler should try to insert the subtitle in a time shot
when it is in synchrony with the speaker. Neves (2005)
agrees and observes that the subtitles of productions with
several time cuts will have a faster tempo and will require a
greater effort both by the spectator and the subtitler.
However, quotidian practice and experience with
different types of productions and, therefore, with several
methods of scene treatment, allowed us to verify that this
rule about the time cuts often goes against the legibility of
the subtitles. First, we must consider the fact that the voice
does not always respect time cuts, so we cannot follow
these indications unquestioningly to the point of leaving out
information. On top of that, even if the voice disappears
with the time cut, if we take the subtitle out of the screen
before it can be read, it is useless, as it does not accomplish
its purpose, producing anxiety and confusion. Thus, the
time cut is a secondary aspect in our synchronization
method.
The subtitle should appear on screen coinciding with the
exact moment when the voice starts, but it should stay on
screen a bit longer than the voice in order to guarantee
reading. In addition, we must get the audience used to a
comfortable rhythm of appearance and disappearance of the
subtitles, so it is necessary to establish a minimum
timeframe between the end of a subtitle and the beginning
of the next one. Also, even if a subtitle is short, the
minimum time of exposition on screen should be one
second. We should also take into account that not every
word requires the same time to be read: even with the same
number of characters, words that are more commonly used
are read faster than, for example, technical terms or proper
names.
5.2. Preferential use of two lines
Some authors (D’Ydewalle, Van Rensbergen and Pollet,
1987 [33]) prefer the use of two lines per subtitle because
the audience wastes less time shifting their look from the
subtitles to the image and viceversa and this increases the
amount of time available to read. The subtitling method of
Pequerrecho Subtitulación also prefers the use of two lines
62
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
per subtitle, even if the total number of characters allows
the use of just one. This way, the text is more centered and,
considering that the action of the audiovisual production is
usually shown at the center of the screen, the eyes will have
to move a shorter distance to find the text and go back to the
image compared with those productions with long, one-line
subtitles, which make us constantly go from one extreme of
the screen to the other. In addition, in this investigation, we
have confirmed that this technique allows us to significantly
reduce the reading time in comparison to those subtitles
with one single line, because the audience can also find the
subtitles faster when they are as centered as possible.
Jensema et al. (2000) prove in their study that the
general tendency is to always look at the center, then to find
the beginning of the subtitle and, after reading it, to look at
the image again until the appearance of the next subtitle on
screen. If we get to reduce the reading speed needed and
place the information at the center, as close to the action as
possible without overlapping it, we will also help the
audience to read the subtitles more comfortably, so that they
have enough time to follow the image and, therefore, enjoy
the audiovisual production.
5.3. Use of hyphen
Neves (2005) explains that, in Spain, there is an
incoherent use of punctuation marks to identify different
speakers and that each TV channel seems to apply its own
rules. This author suggests that subtitles should use the same
punctuation conventions used for any other kind of written
text, just as it happens in countries like Portugal, as a means
of easing the reading of the dialogues. The attendees to our
workshops corroborated this statement, as they suggested the
hyphen should be used just like in any other kind of text.
Thus, the method of Pequerrecho Subtitulación uses the
hyphen (always followed by a blank space, which allows a
faster identification of the next word) in both lines when two
characters speak in the same subtitle, regardless of the color
assigned to each character.
6.
Ineffective
attempts
adaptation
There are many studies and regulations that propose
different types of adaptation. Here, we mention some of those
that we had the chance to check during this investigation and
that were rejected by the sample of users taking part in this
study.
6.1. Indication of voice nuances
To indicate those features that conform the way a
character speaks or the tone of their voice, if considered
necessary, the current Spanish regulation suggests that this
clarification should be made in capital letters and in brackets
sharing the same position of the dialogue. For example:
“(STUTTERS)”, “(WHISPERS)”, “(IRONIC)”... This study
fully agrees with the Spanish regulation in this aspect, but
here we include those cases when it is necessary to indicate
that a voice comes from off screen, instead of using italics, as
it always takes a little longer to read them.
6.1.1. Emoticons. This technique, recommended by the
previous Spanish regulation and other authors (cf. Pereira
and Lorenzo, 2005 [34]), seems to be too subjective, as
Neves (2005) confirms, explaining the different uses of the
same emoticons in different countries. Also, emoticons
require further interpretation by the users of the subtitles and
this translates into more time to understand the subtitles.
6.1.2. Line breaks and literal representations. De
Linde and Kay (1999) [35] suggest that sarcasm or irony
should be represented by (!) and (?) at the end of the subtitle.
This option was discarded, just as other similar proposals,
because its use in written language is not common and its
meaning is very little known. Thus, users would also need to
decipher it.
We also exclude the technique of De Linde and Kay
(1999) about the use of line breaks combined with suspension
points at the end of the first line and the beginning of the
second line to indicate hesitation pauses (cf. Pereira et al.
2005) because of its subjectivity. In fact, the users who took
part in the study rejected any use of signs or symbols in
subtitles that might differ from the uses specified by the
Royal Academy of the Spanish Language, as this kind of
special use would require a previous explanation of its
interpretation so that the average user can understand the text.
Thus, the use of # to represent songs and the use of an image
of a musical note are excluded, as this last option is not
recognized by most software used to broadcast subtitles. This
is also applicable to the orthotypographical representation of
stutter (for example, “B-b-b-but you don’t k-k-k-know that”),
suggested by the previous Spanish regulation and also by
other regulations and studies (cf. BBC, 2009 [36]; Pereira et
al., 2005), as it confuses the audience and slows down the
reading process.
6.2. Abbreviation
The applicable Spanish regulation accepts the use of
abbreviations in the characters' identification tags. Once
again, a deductive process is required to identify the
abbreviation with the complete name of the character every
time it appears on screen. This would confuse the audience
and make them waste time. Besides, if, for any reason, the
spectator cannot see the beginning of the video or does not
see the tag that identifies the name of the character with the
abbreviation, the understanding of the subtitles would be
even more difficult.
7. The relevance of checking
In addition to all the above mentioned, many of the
mistakes found in professional subtitling are due to a lack of
checking. Therefore, it is easy to find spelling, grammatical
and punctuation errors, as well as errata, lack of coherence in
color assignation, subtitles omitted... Many of these mistakes
can be avoided if a professional other than the subtitler
exhaustively checks the work. In our case, Pequerrecho
Subtitulación has three different people working in each
project: a subtitler, a language checker and a technical
checker.
Besides the aforementioned lack of checking, some of
these mistakes and inaccuracies regarding the regulations of
the Royal Academy of the Spanish Language are deliberate.
63
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
This is the case of the use of suspension points by some TV
channels to show that a sentence does not start or finish in a
given subtitle or the use of interrogation and exclamation
marks only at the end of a sentence, which is an absolutely
wrong use in Spanish. We also advise against the use of
brackets for the text of the dialogue; in the cases where the
use of brackets would be required, it is better to use commas
or even rephrase the sentence.
Synchronization mistakes are very common and due to
different causes. Sometimes, they are a consequence of the
carelessness of the subtitler and they could be sorted out by
simply paying more attention and by doing a careful
checking. In some other cases, they are caused by technical
problems occurred during the subtitle broadcasting or by the
fact of the video used by the subtitler being different from the
broadcasted video.
8. Future lines of research
Considering the results of this study and the fantastic
willingness of the deaf people who took part in it,
Pequerrecho Subtitulación will go on organizing this kind of
workshops to evaluate subtitles and search for new formulas
to optimize our service with adaptations like those mentioned
above. Additionally, we intend to quantify more precisely the
percentage of members of the deaf community who can use
subtitles with the method of Pequerrecho Subtitulación and to
find out more about their specific needs, because,
undoubtedly, this information will also contribute to increase
the range of our possible target audience.
Regarding the adaptation of subtitles, we believe it would
be interesting to study in depth the understanding of
metaphors and figurative language, as well as the
pronominalization of direct and indirect objects. Syntactic
structures may present an interesting challenge, just as the
investigation of Stockseth (2002) confirms, showing that the
order of the parts of a sentence itself can be a relevant
obstacle to understand it correctly.
As for the technical aspect, it would be beneficial for this
sector to analyze the adequacy of the subtitle broadcasting
software and to suggest some upgrades so that it allows the
use of certain symbols or the overlapping of subtitles with no
need for them to appear on screen at the same time, which is
sometimes necessary to indicate dialogue and ambience
sounds at the same time, for example.
9. Conclusions
This study provided us with very relevant information
about the needs of the final users of subtitles for deaf people,
which allowed us to offer this service to subjects who cannot
usually use them. To do this, we make an adaptation that is
much less traumatic than it may seem a priori, which is
evidenced by the unanimous approval of these measures by
the attendees to the workshops, regardless of whether they
already used subtitles regularly or not. It must be remembered
that the subtitling method of Pequerrecho Subtitulación does
not include or accept any kind of simplification of
vocabulary, modification of the register, omission of
information or censure. We simply ease the access to the
audiovisual work using techniques that contribute to speed up
the cognitive understanding process and that help to make
reading more comfortable and faster so that the user can
enjoy the production, while paying attention to the image at
the same time.
As well as confirming the efficiency of this method, we
have also created internal guidelines and regulations that
allow us to homogenize all our projects, despite of the fact
that they are made by different subtitlers and that all the
projects go through both language and technical checking
processes, carried out by professionals other than the
subtitler.
The attendees to our workshops were not only unanimous
in accepting our subtitling method, but also in rejecting any
use of symbols and punctuation marks different to that
established by the Royal Academy of the Spanish Language.
In fact, they even told us several times that they did not
understand why they had to learn a linguistic regulation to
read and write and another one to understand subtitles. The
logical choice, then, would be to always use the official
regulations for each language. This demand of compliance
with the established guidelines includes grammatical and
orthographical correction, coherence in the assignment of
colors, etc. That is because any infraction of these established
guidelines can cause confusion, slow down the reading and
understanding processes and also produce mistrust in the
accuracy of all the subtitles. This requires the implantation of
a working system that includes the aforementioned checking
processes made by professionals other than the subtitler, as
there is no doubt that a single person cannot provide enough
quality guarantees.
The results thrown by this study set out many interesting
possible fields of future research that might identify new
formulas to optimize subtitling. Besides, it would be a
significant step to improve the quality, uniformity, regulation
and objectivization of subtitles for deaf people, as well as to
achieve an important extension of the number of users that
might benefit from subtitling.
Finally, we would like to thank the CESYA (Spanish
Center for Subtitling and Audio Description) for their
orientation and help to have this study published, as well as
for their ceaseless work in favor of deaf and blind people.
10. Bibliography
[1] De Linde, Z. Le sous titrage intralinguistique pour les sourds
et les malentendants. In Gambier, Y. (Ed.). (1996). Les transferts
linguistiques dans les medias audiovisuelles. Presses
Universitaires du Septentrion. Paris. 1996.
[2] Arnáiz, V. Los parámetros que identifican el subtitulado para
sordos. Análisis y clasificación. Monti: Monografías de traducción
e interpretación, 4, 103-132. 2012.
[3] Asociación Española de Normalización y Certificación
(AENOR). Norma Española UNE 153010. Subtitulado para
personas sordas y personas con discapacidad auditiva. AENOR.
Madrid. 2012.
[4] Asociación Española de Normalización y Certificación
(AENOR). Norma Española UNE 153010. Subtitulado para
personas sordas y personas con discapacidad auditiva.
Subtitulado a través del teletexto. AENOR. Madrid. 2003.
[5] Neves, J. Audiovisual Translation: Subtitling for the Deaf and
Hard-of-Hearing. University of Surrey-Roehampton. PhD Thesis.
London. 2005.
[6] Kyle, J. Switched On: Deaf People’s Views on Television
Subtitling. Previous Reports. 1996.
64
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[7] Sancho-Aldridge, J. and IFF Research Ltd. Good News for
Deaf People: Subtitling of National News Programmes.
Independent Television Commission. London. 1996.
[8] Gutt, E. Translation and Relevance: Cognition and Context.
Basil Blackwell. Oxford. 1991.
[9] Lorenzo, L. Subtitling for deaf and hard of hearing children in
Spain. A case study. In Matamala, A. and Orero, P. (Eds.) (2010).
Listening to Subtitles: Subtitles for the Deaf and Hard of Hearing.
Peter Lang, 115-138. Bern. 2010a.
[10] Pereira, A. M. Criteria for elaborating subtitles for deaf and
hard-of-hearing adults in Spain: Description of a case study. In
Matamala, A. and Orero, P. (Eds.) (2010). Listening to Subtitles:
Subtitles for the Deaf and Hard of Hearing. Peter Lang, 87-102.
Bern. 2010.
[11] Quigley, S. and Paul, P. Language and Deafness. College-Hill
Press. California. 1984.
[12] Myklebust, H.R. The Psychology of Deafness. Grune and
Stratton. New York. 1964.
[13] Iran-Nejad, A., Rittenhouse, R. and Morreau, L. Metaphor
and conservation in deaf and hard-of-hearing children. American
Annals of the Deaf, 126, 450-453. 1981.
[14] Rittenhouse, R. and Kenyon, P. Conservation and metaphor
acquisition in hearing-impaired children. Some relationships with
communication mode, hearing acuity, schooling and
age. American Annals of the Deaf, 136, 313-320. 1991.
[15] Gilbertson, M. and Kamhi, A. Novel word learning in
children with hearing-impairment. Journal of Speech and Hearing
Research, 38, 630-641. 1995.
[16] Wolgelmuth, K., Kahmi, A. and Lee, R. Metaphor
performance
in
children
with
hearing
impairment
language. Language, Speech & Hearing Services in Schools,
29, 216-232. 1998.
[17] Johnson, D. and Myklebust, H. Learning disabilities.
Educational principles and practices. Grune & Stratton Inc. New
York. 1967.
[18] Furth, H. Pensamiento sin lenguaje: Implicancias
psicológicas de la sordera. 1981. Madrid. 1973.
[19] Boatner, M. and Gates, J. A dictionary of American
idioms. Barron's Educational Series. New York. 1975.
[20] Conrad, R. From gesture to language in hearing and deaf
children. Gallaudet University Press. Washington, D.C. 1979.
[21] Takashi, S. Metaphor interpretation by students with hearing
impairments. Japanese Journal of Special Education, 37:2, 59-69.
1999.
[22] Schmitt, P. Deaf Children’s Comprehension and Production
of Sentence Transformations and Verb Tenses. University of
Illinois. PhD Thesis. Illinois. 1968.
[23] Thompson, H. An experimental study of the beginning
reading of deaf-mutes. AMS Press. 1972.
[24] Brasel, K. E. and Quigley, S. The Influence of Early
Language and Communication Environments on the Development
of Language in Deaf Children. University of Illinois. Urbana,
Illinois. 1975.
[25] Mayoral, R., Kelly, D. and Gallardo, N. Concept of
constrained
translation.
Non-linguistic
perspectives
of
translation. Meta: Journal des traducteurs, 33:3. 1988.
[26] Rivera, Cristina. Evaluación del lenguaje en un alumno con
hipoacusia. Innovación y experiencias educativas, 13. 2008.
http://www.csicsif.es/andalucia/modules/mod_ense/revista/pdf/Numero_13/CRIS
TINA_RIVERA_1.pdf
[27] Herrera, V., Puente, A., Alvarado, J. M. and Ardilla, A.
Códigos de lectura en sordos: la dactilología y otras estrategias
visuales y kinestésicas. Revista Latinoamericana de
Psicología, 39:2, 269-286. 2007.
[28] Stockseth Danzak, R. Comprensión de la sintaxis española
por lectores sordos chilenos. Revista signos, 35:51-52, 271-290.
2002.
[29] Lichtenstein, Edward H. The Relationships Between Reading
Processes and English Skills of Deaf College Students, Journal of
Deaf Studies and Deaf Education, 3 (2), 80-134. 1998.
[30] Brasel, K. E. and Quigley, S. The Influence of Early
Language and Communication Environments on the Development
of Language in Deaf Children. University of Illinois. Urbana,
Illinois. 1975.
[31] Jensema, C., Sharkawy, S., Danturthi, R. S., Burch, R. and
Hsu, D. Eye movement patterns of captioned television viewers.
American Annals of the Deaf, 145:3, 275-285. 2000.
[32] Independent Television Commission (ITC). Guidance on
Standards
for
Subtitling.
Ofcom.
1999.
http://www.ofcom.org.uk/static/archive/itc/uploads/ITC_Guidance
_on_Standards_for_Subtitling.doc
[33] D’Ydewalle, G., Van Rensbergen, J. and Pollet, J. Reading a
message when the same message is available auditorily in another
language: The case of subtitling. Eye movements: From physiology
to cognition, 313-321. 1987.
[34] Pereira, A. M. and Lorenzo, L. Evaluamos la norma UNE153010. Subtitulado para personas sordas y personas con
discapacidad auditiva. Subtitulado a través del teletexto. 2005.
[35] De Linde, Z. and Kay, N. The Semiotics of Subtitling. St.
Jerome. Manchester. 1999.
[36] British Broadcasting Corporation (BBC). Online Subtitling
Editorial
Guidelines.
2009.
http://www.bbc.co.uk/guidelines/futuremedia/accessibility/subtitli
ng_guides/online_sub_editorial_guidelines_vs1_1.pdf
65
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Desarrollo e implementación de un Proceso de
evaluación de conductores con movilidad
reducida en miembros superiores para el manejo
de vehículos automóviles
Juan C. Chicote
Fundosa Accesibilidad S. A. Vía
Libre
jcchicote.accesibilidad@funda
ciononce.es
Manuel Romero
Caradap S. L.
mromero.caradap@fundaciono
nce.e
Resumen
El presente artículo muestra el desarrollo e
implementación de un proceso de evaluación de
conductores con movilidad reducida en sus miembros
superiores, dividido en dos bloques: por una parte, la
medición de la capacidad funcional en un e valuador
experimental, y por otra, la evaluación de la capacidad de
conducción realizada en un vehículo real. El evaluador
experimental desarrollado en este proyecto se denomina
J4D “Joystick-for-Driving”, y consiste en una herramienta
experimental, modular, transportable y adaptativa que
permite realizar la valoración funcional del manejo y
control de vehículos a motor por parte de usuarios que van
a conducir desde su silla de ruedas. La segunda etapa del
proceso consiste en la realización de una serie de pruebas
prácticas de conducción con un vehículo real en un circuito
cerrado, y con el vehículo en movimiento, donde se tratan
de reproducir las condiciones de circulación más próximas
a la realidad.
Abstract
This paper shows the development and implementation
of a procedure for the driving assessment of people with
reduced mobility in its upper members, which is divided into
two major phases: on t he one hand, the fitness to drive
assessment in an e xperimental tool, and by the other hand
the drive ability assessment in a real vehicle. The evaluator
developed in this project is known as J4D Joystick-fordriving, and consists of an experimental tool, transportable,
modular and adaptive that allows the driving assessment of
people who are going to drive motor vehicles without
leaving their wheelchair. The second step of the procedure
is based in the realization of a s eries of practical driving
tests with a real vehicle in a closed circuit, where they try to
reproduce conditions of car movement closer to the reality.
1. Introducción
Juan F. Dols
Universidad Politécnica de
Valencia
[email protected]
El concepto de Persona con Movilidad Reducida
(PMR)[1] incluye a un colectivo muy heterogéneo, en el
que se incluyen las personas que se desplazan en silla de
ruedas, personas con discapacidad sensorial (visión,
audición), personas con enfermedades cardíacas o
respiratorias, o con alguna enfermedad que le impida un
desplazamiento normal (artritis, alergias, etc.), personas
mayores, personas con alguna pérdida de movilidad
temporal (con miembros escayolados y usando muletas,
personas portadoras de carros de bebé, etc.). En el presente
trabajo el concepto se circunscribe a personas con
movilidad reducida en sus extremidades, por ejemplo,
personas con tetraplejia.
En España según la encuesta sobre discapacidad,
autonomía personal y situaciones de dependencia (EDAD)
[2] Hay 448.400 personas que presentan problemas en la
conducción, o el 1,06% de la población.
De esta forma, el presente artículo propone un modo de
evaluar la capacidad de conducción de candidatos a
conductor con movilidad reducida mediante una
herramienta diseñada para el colectivo objeto de estudio.
Igualmente, dicho artefacto ha sido diseñado con funciones
de
entrenamiento
y
rehabilitación
funcional,
complementando a la prueba práctica en un vehículo
automóvil.
2. Estado del arte
Un interfaz de control para el manejo del vehículo
automóvil son los denominados joystick, los cuales
presentan varias configuraciones, pudiendo con un único
dispositivo manejar la dirección, aceleración y frenado, al
igual que funciones auxiliares (apertura de puertas,
encendido, luces, etc.) [3].
Por otro lado, el marco legal que establece los requisitos
para obtener o renovar el permiso de conducir en España a
los candidatos a conductor es el Reglamento General de
Conductores (RGC) [4], destacando la aptitud psicofísica,
los conocimientos teóricos, así como las aptitudes y
66
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
comportamientos prácticos como condiciones necesarias y
suficientes para obtener dicha licencia.
La obtención y renovación del permiso de conducción
para personas con discapacidad física ha sido analizada en
varias iniciativas[5] [6].
3. Proceso de evaluación de
candidatos a conductor con
movilidad reducida
El presente proceso se divide en dos bloques: Por una
parte, la evaluación de la capacidad funcional en un
evaluador experimental, y por otra, la evaluación de la
capacidad de conducción realizada en un v ehículo real.
El primer bloque utiliza el simulador de conducción,
denominado “Joystick-for-driving” (J4d) para el tratamiento
de la información inicial (anamnesis del conductor), seguido
de una configuración a medida del usuario. Posteriormente,
se realizan una batería de simulaciones de conducción.
la autoescuela, realizando posteriormente su examen
práctico según el procedimiento legal establecido.
4. Conclusiones
En el presente artículo se muestra un proceso de
evaluación de candidatos a conductor con movilidad
reducida en sus extremidades superiores, que, dividido en
dos grandes etapas, permite evaluar por una parte, la
capacidad funcional en un evaluador experimental, y por
otra, la evaluación de la capacidad de conducción realizada
en un vehículo real.
La herramienta experimental denominada J4D Joystickfor-Driving (Simulador para la valoración de la capacidad
de conducción con Joystick en conductores con movilidad
reducida), permite la valoración de la capacidad funcional,
así como habilitar al candidato en el manejo de interfaces
mecánicos y la coordinación visual, siendo las dimensiones
de entrenamiento y rehabilitación físicas y neurológicas
aspectos positivos del uso de la herramienta.
De ulteriores pruebas con usuarios y técnicos en
rehabilitación se derivarán futuras versiones y mejoras del
proceso que permitan optimizar tanto el propio
procedimiento como la prueba de concepto desarrollada.
5. Referencias
Foto 1. Simulador de conducción J4D.
El resultado de esta evaluación inicial permite la
determinación de la tipología de productos de apoyo
(Joystick, mini volante) más adecuada al tipo de conductor,
así como la ubicación espacial que deben tener éstos
mandos en el puesto de conducción.
La segunda fase del procedimiento
consiste en la
realización de una serie de pruebas prácticas de conducción
en un circuito cerrado.
Atendiendo al diseño de la adaptación del vehículo
automóvil los puntos a verificar básicos son la autonomía en
la entrada y salida del vehículo, la utilización de los
sistemas de retención (cinturón de seguridad y anclaje de
la silla de ruedas), control de los mandos de conducción
primarios: acelerador, frenos y la dirección) y mandos
secundarios: indicador de la
dirección, bocina, elevalunas, luces, limpia y lavaparabrisas,
etc., así como garantizar la estabilidad del tronco del
conductor.
Esta segunda etapa de evaluación permite, ya con el
vehículo en movimiento, la realización de una batería de
pruebas prácticas en circuito cerrado que, atendiendo a las
recomendaciones y exigencias que establece la normativa
vigente sobre obtención del permiso de conducir, tratarán de
reproducir condiciones de circulación lo más próximas a la
realidad.
Una vez superado el proceso de evaluación descrito, el
candidato a conductor ya dispone del vehículo y los
productos de apoyo perfectamente definidos, para poder
iniciar el procedimiento de aprendizaje y entrenamiento en
REGLAMENTO (CE) No 1107/2006 DEL
[1]
PARLAMENTO EUROPEO Y DEL CONSEJO de 5 de
julio de 2006 sobre los derechos de las personas con
discapacidad o movilidad reducida en el transporte aéreo.
Diario Oficial de la Unión Europea. (2006). Bruselas,
Bélgica.
[2] INE. Encuesta sobre Discapacidad, Autonomía Personal y
situaciones de Dependencia (EDAD). Metodología. Instituto
Nacional de Estadística. (2008). Madrid, España.
[3] Peters, B & Östlund J. “Joystick Controlled Driving for
Drivers with Disabilities. A Driving Simulator Experiment.
Technical Report”. Swedish National Road and Transport
Research Institute. 2005.
[4] Real Decreto 818/09, de 8 de Mayo de 2009, por el que se
aprueba el Reglamento General de Conductores. BOE nº 138, de 8
de Junio.
5] Hekstra, A. (Coord). Quavadis project. Quality and use
aspects of vehicle adaptation for disabled. Final Report.
Contrat Nr: B2000 ITREN. 2003.
6] Peters, B., Falkmer, T., Bekiaris, A. & Sommer, S:
CONSENSUS – Networking in the European Union for
assessment of fitness to drive for drivers with disabilities.
TRANSED 2004. Hamamatsu, Japan.
67
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Agradecimientos
La investigación descrita en este artículo ha sido
promovida y financiada por la Fundación ONCE para la
cooperación e inclusión de personas con discapacidad, bajo
la dirección de D. Jesús Hernández Galán Ph.D., Director
de Accesibilidad Universal.
(http://www.fundaciononce.es/ES/AmbitosActuacion/Acces
ibilidad/Paginas/Inicio.aspx).
Fundación ONCE no se responsabiliza de las opiniones
expresadas por los autores en este artículo.”
68
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
INTERAGAMES: Control accesible de videojuegos
para Xbox 360, PS3, Wii y PC.
David Conde1, Raúl Suárez1, Gemma Hornero1, Marcos Quílez1, Sergio Domingo2, Maria Rodríguez2, Borja Romero2, Oscar Casas1
1
Grupo de Instrumentación, sensores e interfaces. EETAC. UPC
2
B&J adaptaciones
[email protected], [email protected], [email protected]
Resumen
Este trabajo presenta una nue va plataforma de
interacción de usuarios con discapacidad con los juegos de
las principales videoconsolas comerciales. El sistema
diseñado habilita el acceso a l as diferentes plataformas
existentes en el mercado (Xbox 360, PS3, Wii y PC) y a
cualquier juego, a personas que antes no podían plantearse
jugar, mejorando sus perspectivas de ocio. El usuario no
tiene que aprender a utilizar un nuevo dispositivo
específico, sino que podrá seguir utilizando los ratones o
joysticks adaptados que normalmente usa para acceder al
ordenador o para controlar el entorno. Además, el sistema
admite el uso añadido de mandos que puedan accionarse
con diferentes partes del cuerpo, así como la selección de
acciones mediante pulsación o bar rido. La adaptación de
los mandos y joysticks se ve complementada con el diseño
de software personalizable para cada usuario y juego. Éste
permite la implementación de macros para asignar una
serie de combinaciones o secuencias de teclas a los botones
de los controladores de entrada, facilitando el acceso a las
acciones más complicadas de los videojuegos.
allows the implementation of macros to assign a
combination or a fast sequence of buttons by pressing only
to one button, providing the access to the more complicated
videogames actions.
The result is a device for people with disabilities to
enjoy alone or with friends of the current videogames in the
market.
1. Introducción
Los videojuegos se han convertido en una parte muy
importante de la cultura y de la sociedad actual, siendo una
de las formas de ocio preferidas. Tradicionalmente han sido
vistos como un tipo de entretenimiento exclusivo para
personas jóvenes, pero esta concepción ha ido cambiando a
lo largo del tiempo [1].
El resultado es un di spositivo para que las personas
con discapacidad puedan disfrutar solas o c on sus amigos
de los videojuegos más actuales del mercado.
Según diversos estudios recopilados por Naciones
Unidas en 2004, entre un 10 % y un 20 % de la población
mundial son personas con algún tipo de discapacidad [2].
De éstas, un número importante agrupa a personas con
problemas cognitivos o de motricidad que impiden su
acceso directo a la mayoría de los videojuegos comerciales.
This paper presents a ne w interface platform between
users with disabilities and the major games of the main
commercial videogames platforms. The designed system
enables the access to the different platforms on the market
(Xbox 360, PS3, Wii and P C) and to any game, to the
people who previously couldn’t play, improving their
entertainment prospects. The user doesn’t have to learn
how to use a new specific device, because they can still use
the adapted mice or joysticks they usually use to access the
computer or to control the environment. In addition, the
system supports the added use of controllers which can be
handled with different parts of the body as well as actions
selected by pressing or by sweeping. The adaptation of the
controllers and joysticks are complemented with the design
of customizable software for each user and game. This
Jugar a videojuegos puede ser una actividad de alto
valor para las personas con discapacidad y personas
mayores. Más allá del puro entretenimiento, puede mejorar
el rendimiento cognitivo, puede ayudar a la rehabilitación
de pacientes que han sufrido un ictus, la rehabilitación de
determinadas funciones en el caso de pacientes con daño
cerebral adquirido [3][4][5], etc. Por ejemplo, en Canadá, la
clínica de Rehabilitación Glenrose [6] está usando la
consola Wii (con el juego Wii Sports) como ayuda en
terapias de rehabilitación de hemiplejías; en el año 2003,
IBM patentó un sistema de permitía el entrenamiento y
rehabilitación física utilizando los videojuegos existentes
[7], y en el año 2009 se patentó una aplicación que utilizaba
los videojuegos para realizar terapia física y ocupacional, a
Abstract
69
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
la vez que medía los movimientos motores y se utilizaba
como elemento de rehabilitación cognitiva [8].
acceso de las personas con discapacidad a toda la oferta
de juegos.
El objetivo principal de este proyecto es desarrollar
nuevos modelos de interacción con videojuegos comerciales
de las videoconsolas Xbox360, PS3, Wii y juegos para PC a
través del desarrollo de un sistema de acceso universal
basado en hardware y personalizable según las necesidades
del usuario, para mejorar las perspectivas de ocio de
personas con diversidad funcional.
2. Desarrollo de periféricos específicos adaptados que
permiten el acceso a determinadas consolas y
videojuegos pero con severas limitaciones (modificación
hardware).
La solución planteada habilitará el acceso a los
videojuegos comerciales a personas que antes no podían
plantearse
jugar,
con
una
solución
asequible
económicamente, no invasiva, fiable y escalable.
El usuario no tendrá que aprender a utilizar un nuevo
dispositivo específico para jugar, sino que podrá seguir
utilizando los ratones adaptados que normalmente utiliza
para acceder al ordenador, o bien diferentes mandos que
pueda accionar con diferentes partes del cuerpo y
seleccionar acciones mediante barrido, para disfrutar solo o
con sus compañeros de juego de gran parte de los
videojuegos más actuales del mercado.
El sistema propuesto no está planteado para habilitar el
acceso a videojuegos basados en sensores de movimiento de
las consolas Wii, Xbox 360 y PS3 y que no necesitan que el
usuario utilice los mandos de control tradicionales. El
sistema que planteamos en sí mismo es una alternativa a
estos mandos, y no contempla el desarrollo de programas
específicos en el campo de la visión artificial y el
tratamiento de imágenes en tiempo real, como sería el caso
de un proyecto que habilitase el acceso a videojuegos
basados en sensores de movimiento. Gran parte del público
objetivo de nuestro proyecto (sobre todo en casos de
parálisis cerebral) realiza movimientos “espásticos”
(movimientos bruscos incontrolados) y a cambio posee una
relativamente buena motricidad fina siendo capaz de utilizar
determinados tipos de ratones y conmutadores sin
problemas.
Por otro lado, a pesar del lanzamiento de videojuegos
basados en sensores de movimiento, todavía existe una
larga lista de videojuegos de las plataformas Wii, Xbox 360
y PS3 disponibles en Europa que utilizan los mandos
tradicionales de control que proporcionan estas consolas.
2. Estado del arte
Hasta ahora, la superación del acceso a videojuegos para
personas con discapacidad ha contemplado dos posibles
soluciones:
1. Desarrollo de videojuegos específicos para la
rehabilitación física y/o cognitiva de personas con
discapacidad (modificación software). Aunque es una
solución muy atractiva y ha presentado resultados muy
positivos, aumenta el coste de los desarrollos y limita el
En paralelo a estos desarrollos en los últimos años han
aparecido adaptaciones mecánicas de mandos de
videojuegos basadas en el movimiento natural. Es el caso,
entre otras, de Wii o Kinect. Estas nuevas interfaces han
permitido el desarrollo, por ejemplo, de soluciones en
rehabilitación o comunicación pero quedan muy limitadas
en el caso de personas con discapacidad severa, debido a la
propia naturaleza del control de estos juegos.
Actualmente existen dos alternativas comerciales en el
desarrollo de periféricos específicos adaptados:
a) El acceso al ordenador como forma de acceso al
videojuego. En este caso, se pueden encontrar
dispositivos de acceso como joysticks, ratones de bola,
sistemas de seguimiento de la cabeza o la mirada…
(figura 1). Todos estos sistemas ofrecen un método
eficiente de acceso a las funciones del ratón de un
ordenador. Sin embargo, mayoritariamente se limita su
uso a los juegos “no dependientes del tiempo”, por
ejemplo juegos de ajedrez, estrategia por turnos, etc.
Quedando excluidos de esta lista los juegos más
complejos que necesitan el uso rápido de combinaciones
de teclas.
Figura 1. Solución de acceso al
ordenador
b) Mandos específicos para personas con discapacidad. Es
posible encontrar en el mercado mandos diseñados para
ser utilizados con una sola mano, con la boca, con los
botones más grandes… (figura 2) Estos dispositivos
tienen severas limitaciones; la mayoría son
modificaciones de los mandos estándares o gamepads,
con botones de mayor tamaño o entradas de conmutador,
y son válidos únicamente para determinadas consolas
y/o videojuegos. Además, la no adaptación de los
juegos conlleva que, aunque estas plataformas permiten
el acceso a los videojuegos no solventan el problema de
la limitación del control avanzado, con numerosas
acciones en paralelo, que requieren la mayoría de
70
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
juegos. Permiten jugar pero las posibilidades de obtener
buena puntuación son prácticamente nulas.
Estos dispositivos presentan severas limitaciones; en
general, la mayoría son modificaciones de los gamepads
estándar con los botones más grandes o bien accesibles
mediante conmutadores con conectores tipo Jack, y válidos
únicamente para determinadas consolas.
3. Arquitectura del sistema
propuesto
La arquitectura del sistema se presenta en la figura 3 y
está divida en tres bloques:
-
Por todo ello, un acceso eficiente a los videojuegos
para personas con discapacidad tiene que resolver los
siguientes problemas:
-
-
Figura 2. Solución basada en mandos
alternativos
a) Reducción de la cantidad de botones que los gamepads
tradicionales ofrecen. Presentar 16 o más opciones de
movimiento a una persona con discapacidad severa
puede resultar demasiado complejo. De este modo, se
debe utilizar un número menor de botones que permita
redefinir las funciones asignadas a cada botón para cada
juego y usuario.
b) Automatización de las secuencias o combinaciones
rápidas de botones. Algunas acciones de los videojuegos
requieren la ejecución de una secuencia rápida de
botones que con los dispositivos existentes muchas
personas no pueden realizar.
c) Control de los gamepads con cualquier parte del cuerpo.
Para poder maximizar el número de acciones que una
persona con discapacidad pueda ser capaz de llevar a
cabo, es necesario que los controladores tengan un
diseño modular que se puedan adaptar a cualquier parte
del cuerpo, donde al usuario le resulte más cómodo.
Una solución eficaz, requerirá pues de un diseño
hardware, para adaptar las interfaces hombre-máquina
habitualmente utilizadas por las personas con
discapacidad y el diseño de un software que permita
reducir tanto el número de botones de control, como la
necesidad de su uso en paralelo.
Entradas del sistema (Bloque 1): Se trata de un
sistema HUB USB que permite la entrada y gestión
de hasta cuatro dispositivos simultáneamente. De
esta manera un usuario podrá conectar hasta 4
controladores diferentes simultáneamente que
podrán ser accionados con distintas partes del
cuerpo, aumentando así el número de acciones que
podrán realizar. Por ejemplo, un joystick podrá ser
controlado con una sola mano, otro joystick en
forma de pedal, etc.
Procesado de las acciones (Bloque 2): Este bloque
corresponde a la inteligencia del sistema y se
encarga de leer las macros programadas y
transformar las entradas de los dispositivos HID
realizadas por los usuarios con sus controladores
adaptados en acciones válidas del videojuego. De
esta manera, un usuario podrá controlar las acciones
requeridas por los videojuegos, utilizando sus
controladores adaptados a sus necesidades.
Salidas del sistema (Bloque 3): Corresponde a los
módulos de salida para cada una de las diferentes
videoconsolas disponibles en el mercado (PS3, PC,
Wii y Xbox 360). Tiene que ser capaz de
comunicarse con los sistemas propietarios de cada
videoconsola.
A continuación se presenta el detalle del diseño
hardware y software de cada uno de estos bloques.
Figura 3. Arquitectura del controlador
3.1. Diseño hardware
3.1.1. Bloque 1 - Entradas. Corresponde al sistema HUB
USB. En la solución propuesta se necesitan un mínimo de
ocho entradas de USB para los diferentes elementos,
distribuidos de la siguiente manera: 4 x USB – Joysticks
HID estándar de entrada (incluyendo teclado y ratón), 1 x
USB – Joystick Xbox 360 utilizado para la autenticación del
sistema en las videoconsolas de Xbox 360, 1 x USB –
Memoria USB donde se almacenarán las macros y 2 x USB
– Puertos USB internos necesarios para el bloque 3.
71
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Debido a que la arquitectura interna del procesador
utilizado, se presenta el control de únicamente dos USB, se
necesita incorporar a la entrada un HUB de siete entradas
como mínimo. En nuestro caso, se ha optado por utilizar la
solución Belkin “7-port Powered Mobile HUB”, con 7
puertos USB disponibles que presenta una alta velocidad de
transferencia de datos (hasta 480 Mbps) y es
multiplataforma (MAC/PC/Linux).
Como controladores de entrada el usuario podrá utilizar
cualquier sistema de control con salida genérica HID. En
este sentido y dentro del proyecto se tiene previsto
desarrollar dos dispositivos nuevos joystick HID adaptados:
el joystick por barrido y el joystick a medida.
Joystick por barrido. Para las personas con discapacidad
severa es fundamental la utilización de sistemas de
selección indirectos como el barrido, que reducen al mínimo
la necesidad de precisión por parte del usuario a expensas
del tiempo. Este joystick ha de ser un dispositivo de
funcionamiento HID estándar en el que la salida se escoge
por barrido de manera que el usuario pueda acceder a “n”
(típicamente 6 u 8) funciones diferentes, que gracias al
controlador se convertirán en acciones de videojuegos
combinando una única acción física (pulsar el conmutador)
con el parámetro tiempo. Conectando el joystick al
ordenador mediante un pequeño software, será posible
configurar los parámetros más importantes del barrido
como:
el
tiempo
de
secuencia,
el
modo,
antirebotes/antirepeticiones, etc. En la figura 4 se detalla la
arquitectura de la solución propuesta. Un ejemplo de este
tipo de controladores es el Track-IT [9], dispositivo creado
por Pretorian Technologies Ltd (Reino Unido), que permite
realizar el movimiento del cursor y los clics propios de un
ratón. La selección se realiza por barrido utilizando un
conmutador externo, sin embargo no permite acceder a
videojuegos.
LED1
LED2
LED3
LED4
LED5
LED6
ASD
CONMUTADOR 1
JACK
JOYSTICK
LED7
CONMUTADOR
1
JACK1
CONMUTADOR
2
JACK2
CONMUTADOR
3
JACK3
CONMUTADOR
4
JACK4
CONMUTADOR
5
JACK5
CONMUTADOR
6
JACK6
CONMUTADOR
7
JACK7
CONMUTADOR
8
JACK8
LED
ASD
JOYSTICK
ASD
USB
CONTROLADOR
Figura 5. Arquitectura del joystick a medida
3.1.2. Bloque 2 - Procesado. En este bloque se interpretan
las acciones hechas por los diferentes joysticks HID
conectados en el bloque de entrada, se procesan las macros
y se ejecutan las acciones de salida necesarias para el
bloque tres, en el menor tiempo posible. En nuestro caso se
ha optado por utilizar la plataforma digital Raspberry Pi
(figura 6 [10]), basada en un SoC (System-on-a-Chip,
circuito integrado que incluye todos los componentes de un
ordenador o de cualquier otro sistema electrónico en un solo
chip) Broadcom BCM2835, que contiene un procesador
central (CPU) ARM1176JZF-S a 700 MHz. Tiene unas
dimensiones reducidas, similar a una tarjeta de crédito, y
consigue desarrollar las funciones de un ordenador con
sistema operativo GNU/Linux. De esta manera, mediante la
programación de macros, se podrá procesar y convertir en
tiempo real cualquier entrada del sistema efectuada con un
dispositivo HID en la combinación de botones o palancas
que requiera cada videojuego.
LED8
ASD
USB
CONTROLADOR
Figura 4. Arquitectura del joystick por barrido
Figura 6. Arquitectura del joystick a medida
Joystick a medida. Facilitará el acceso a videojuegos a
personas que utilizan conmutadores y ratones para acceder
al ordenador y especialmente a personas con parálisis
cerebral, convirtiendo estos elementos en joysticks de tipo
HID, válidos como entradas del sistema. De esta manera, se
podrán conectar conmutadores externos (de 1 a 8) para
realizar múltiples acciones. El caso más típico sería, por
ejemplo, para un sistema de 8 conmutadores de tipo botón
grande, asignar los cuatro primeros a los cuatro botones de
acción de un joystick HID y los 4 siguientes a los 4 botones
de dirección. A continuación se puede observar la
arquitectura de la solución propuesta.
3.1.3. Bloque 3 - Salidas. Una vez tenemos procesadas las
acciones realizadas por los usuarios con sus joysticks
adaptados y convertidas en acciones válidas para un
videojuego, es necesario comunicarle dichas acciones a las
videoconsolas. Este bloque está formado por dos circuitos
integrados que se encargan de establecer la comunicación
con los sistemas propietarios de cada videoconsola. Para
poder establecer dicha conexión, se necesita que el sistema
sea capaz de comportarse como un gamepad USB-slave
(PC, PS3 y Xbox 360) e I2C-slave (Wii) y entienda los
protocolos propietarios de cada plataforma. Debido a la
arquitectura interna de la Raspberry Pi (USB-host e I2Chost), se necesita un dispositivo adicional capaz de generar
dichas salidas. En la solución propuesta se ha decidido
72
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
utilizar el microcontrolador de bajo coste Atmega32u4
(Atmel) y el conversor USB-serie FT232RL (FTDI) para
implementar esta funcionalidad.
START
Complementando estos diseños y con el fin de informar
al usuario en todo momento de la configuración del sistema
y posibles incidencias, se ha diseñado una pequeña interfaz
de usuario formada por seis leds, y tres botones pulsadores
que podrían ser controlados externamente por pulsadores
específicamente diseñados para personas que presenten
problemas de movilidad severos.
SETUP INTERFACE
INIT HARDWARE
LOAD MACROS
LOAD INPUTS
START CONSOLE PROTOCOL
3.2. Diseño software
3.2.1. Bloque 2 - Procesado. Como se ha mencionado
anteriormente, es fundamental para el sistema interpretar las
acciones hechas por los diferentes joysticks HID conectados
en el bloque uno (entradas), procesar las macros y ejecutar
las acciones de salida necesarias para el bloque tres
(salidas), en el menor tiempo posible. Para ello, se ha
desarrollado un software que se ejecuta directamente sobre
Raspbian (sistema operativo de Raspberry Pi basado en
Debian [11]) y que realiza las siguientes acciones:
a) Gestión de la interfaz de usuario. Detecta las pulsaciones
sobre los botones de la interfaz de usuario de forma
periódica por polling (sondeo) conectados en los pines
GPIO de la Raspberry Pi y ejecuta las acciones
correspondientes (actualiza la consola seleccionada
como salida y el estado de los LEDs).
b) Lectura de las acciones realizadas por los joysticks HID
conectados en el bloque 1. La librería Open Source SDL
(Simple DirectMedia Layer [12]) es una biblioteca
multimedia multiplataforma diseñada para proporcionar
acceso a bajo nivel al audio, teclado, ratón, joystick,
hardware 3D a través de OpenGL y framebuffer de
video 2D. De esta manera, se pueden detectar y procesar
cada unos de los eventos generados por los dispositivos
utilizados como entradas.
c) Carga de macros en memoria (almacenadas en un
fichero de la memoria USB). Cada macro asociada a un
juego se almacenará en una memoria USB. Cuando
queramos jugar a un juego determinado, bastará con
introducir la memoria USB correspondiente y el sistema
cargará las macros almacenadas en su interior.
d) Conversión de las acciones de los joysticks HID en
acciones de videojuego. Cada evento realizado por uno
de los dispositivos de entrada se tiene que convertir en
acciones de videojuego válidas establecidas en las
macros. A modo de ejemplo, podemos configurar una
macro que simule la pulsación del gatillo R1 de la
PlayStation 3 (botón utilizado comúnmente para
disparar en los videojuegos de acción) cuando se detecte
la pulsación sobre el botón derecho del mouse adaptado
conectado.
NO
SUCCESSFUL?
YES
GET INPUT EVENTS
PROCESS EVENTS
SEND ACTIONS
RELOAD?
YES
NO
NO
CHANGE MODE?
YES
UPDATE CONSOLE MODE
Figura 7. Diagrama de funciones bloque 2
En el siguiente diagrama (figura 7) se muestran de forma
general las diferentes funciones que realiza el software
diseñado en el bloque 2.
73
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
A grandes rasgos, el sistema al arrancar inicializa la
interfaz de usuario y el hardware interno. Acto seguido
carga las macros desde una memoria flash USB e inicializa
todos los controladores de videojuegos conectados en las
entradas USB (hasta un máximo de 4). A continuación, se
establece la comunicación con la videoconsola por defecto
(la que se utilizó por última vez). Si el proceso ha resultado
satisfactorio, se procesan periódicamente (cada 16 ms)
todos los eventos realizados por los controladores de
entrada y se convierten en acciones válidas del videojuego.
Esta secuencia no se detiene hasta que no se pulse sobre el
botón de reload, se cambie la consola seleccionada o se
apague el sistema.
3.2.2. Bloque 3 - Salidas. Para que las acciones procesadas
por el bloque 2 puedan ser atendidas por las videoconsolas,
se necesita convertirlas al lenguaje propietario de cada
sistema (Wii, PC, PS3 y Xbox 360). Este bloque se encarga,
por tanto, de:
a) Inicializar y mantener la conexión entre el controlador
de videojuegos y las videoconsolas.
b) Convertir las acciones del bloque 2 en paquetes válidos
de cada videoconsola.
3.3. Macros
Una de las partes fundamentales del diseño del
controlador de videojuegos son las macros. Éstas permiten
asignar una serie de combinaciones o secuencias de teclas a
los botones de los joysticks HID de entrada, facilitando el
acceso a las acciones más complicadas de los videojuegos.
El uso de las macros permite además mapear las
funciones de los joysticks de entrada en función del juego.
Por ejemplo, si utilizamos un joystick con una palanca y dos
botones en un videojuego de carreas de la plataforma PS3 la
configuración típica sería, por ejemplo, controlar la
dirección del vehículo (mapear la palanca del joystick
adaptado a la palanca analógica izquierda del mando de
PS3), acelerar (mapear el botón 1 del joystick adaptado al
botón R2 del mando de PS3) y frenar (mapear el botón 2 del
joystick adaptado al botón L2 del mando de PS3). Sin
embargo, en un videojuego de futbol de la plataforma PS3
la configuración típica sería, por ejemplo, controlar la
dirección del personaje (mapear la palanca del joystick
adaptado a la palanca analógica izquierda del mando de
PS3), pasar el balón (mapear el botón 1 del joystick
adaptado al botón X del mando de PS3) y chutar a portería
(mapear el botón 2 del joystick adaptado al botón O del
mando de PS3).
En general, los joysticks HID de entrada pueden ser muy
diversos y estar formados por diferentes elementos. En este
diseño los elementos de un joystick HID definidos que
pueden generar eventos son (figura 7):
a) Buttons. Botones de acción. Indican si un cierto botón se
encuentra pulsado o no.
b) Hats. Palancas de dirección digital. Indican la posición
de la palanca en valores absolutos mediante nueve
posibles estados: arriba, arriba-derecha, derecha,
c)
derecha-abajo, abajo, abajo-izquierda, izquierda,
izquierda-arriba y centrado.
Axes. Palancas de dirección analógica. Cada palanca está
formada por dos ejes: movimiento horizontal y
movimiento vertical. La posición se indica con valores
relativos que pueden oscilar entre -32768 (izquierda o
arriba), 0 (centrado) y +32768 (derecha o abajo).
BUTTONS
HATS
AXES
Figura 7. Joytick HID de entrada
Los gamepads de salida que se han simulado (PC, PS3,
Xbox 360 y Wii) están formados por: 10-12 botones de
acción incluyendo 2 triggers (botones progresivos que
indican el nivel de presión ejercido sobre el botón), 1 hat o
palanca digital y 2 axes o palancas analógicas. Sobre ellos
se han implementado diferentes tipos de macros, siendo las
más importantes las siguientes:
1. Button macros. Combinación o secuencia de acciones
que se llevarán a cabo cuando se pulse sobre un botón
del joystick.
2. Hats macros. Combinación o secuencia de acciones que
se llevarán a cabo cuando se mueva un hat o palanca
digital de dirección en alguna dirección válida.
3. Axes macros. Combinación o secuencia de acciones que
se llevarán a cabo cuando se mueva un axis o palanca
analógica de dirección en alguna dirección válida.
4. Keyboard macros. Combinación o secuencia de
acciones que se llevarán a cabo cuando se pulse sobre
una tecla válida de teclado.
5. Mouse macros. Combinación o secuencia de acciones
que se llevarán a cabo cuando se pulse sobre un botón
válido del mouse.
Todas estas macros pueden ser configuradas de forma
directa o biestable. Este último tipo de macros se ejecutan
al pulsar sobre el botón correspondiente y se desactivan al
volver a pulsar de nuevo sobre el mismo botón. Son muy
útiles para personas que tienen dificultades a la hora de
realizar acciones prolongadas en el tiempo.
Cada macro, indistintamente desde que elemento se
genere (buttons, hats o axes), permite acceder a cualquier
acción del gamepad comercial. De esta manera, desde
cualquier elemento se puede presionar uno o varios botones
del mando de forma directa o temporizada, simultáneamente
o en secuencia y realizar cualquier movimiento de hats o
axes. La temporización de la macros presenta una
resolución de 16 ms y son suficientemente genéricas en su
74
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
definición para adaptarse a las habilidades motrices y
cognitivas de cada usuario.
A modo de ejemplo, se puede configurar una macro
(macro biestable) que se encargue de controlar la
aceleración del coche; al iniciar la carrera el usuario acciona
la macro biestable y el coche comienza a acelerar hasta que
se desactive la macro. De esta manera el usuario solo tiene
que centrarse en girar el coche en las curvas durante la
carrera.
utilizando únicamente una palanca de control y dos botones.
Los controles utilizados en el juego Mario Kart con los
mandos comerciales son los presentados en la figura 8.
Otro ejemplo es el uso de la palanca del joystick
adaptado (axes macros) no solo para girar sino también para
controlar la aceleración del coche; podemos configurar una
macro que al mover el joystick hacia adelante acelere el
coche y al moverlo hacia detrás accione la marcha atrás. De
esta manera con una sola palanca (por ejemplo un joystick
de mentón) podemos controlar el acelerador/freno y
dirección de un coche durante una carrera.
Así mismo, también sería posible configurar una macro
para ejecutar una secuencia rápida de botones requerida en
algún videojuego de acción con solo un botón del joystick
adaptado; al pulsar sobre el botón la macro simularía la
secuencia rápida de los botones X, O y Δ (plataforma PS3)
sucesivamente para realizar un ataque.
4. Resultados y validación del
sistema
Para comprobar la funcionalidad del sistema, se han
realizado, por un lado, medidas sobre el hardware y
software diseñados y por otro, pruebas de validación, a
nivel de laboratorio y de usuarios potenciales, sobre la
usabilidad del sistema y de las macros con diferentes
plataformas y videojuegos comerciales de gran aceptación.
No obstante en los próximos meses se van a realizar test
sobre usuarios potenciales para poder mejorar el feedback
sobre el dispositivo.
La compatibilidad del prototipo diseñado con todas las
plataformas y juegos utilizados ha sido total. A nivel de
laboratorio se ha comprobado que el retardo que añade el
sistema por las acciones de sensado de las entradas,
procesado de macros y ajustes del protocolo de salida es de
tan sólo 16 ms, valor coincidente con la resolución de las
macros, e inapreciable para el usuario en cualquier juego. El
consumo total de la solución es 750 mA cuando está
encendido (puede oscilar en función de la cantidad de
joysticks que estemos utilizando simultáneamente) y de 60
µA cuando se encuentra en stand-by, por lo que aunque se
podría plantear una solución autónoma, la duración de las
baterías estaría limitada a sólo unas horas y requería una
recarga diaria.
Una de las pruebas de laboratorio realizadas, descrita a
continuación a modo de ejemplo, ha sido la adaptación del
Mario Kart [13] (famoso videojuego de carreras que
permite utilizar objetos que se consiguen en la carrera para
acelerar el ritmo o ralentizar a los rivales) de la Nintendo
Wii. Se ha configurado una macro para poder jugar
Figura 8. Controles Mario Kart Wii
El mouse adaptado de entrada usado fue el BJOY StickC (figura 9 [14]), de la empresa BJ-adaptaciones, el cual
consta de una palanca con dos ejes (horizontal y vertical) y
cuatro botones (botón derecho de mouse, botón izquierdo de
mouse y dos botones especiales). Se ha comprobado que la
mejor adaptación requería que la configuración final del
joystick de entrada fuera la siguiente:
-
Palanca azul utilizada para controlar la dirección del
vehículo.
El botón rojo sea utilizado como macro biestable para
controlar la aceleración del vehículo.
El botón amarillo sea utilizado para usar los objetos que
vamos consiguiendo en la carrera.
DIRECCION
ACELERAR
USAR
OBJETOS
Figura 9. Resultado del mapeo de botones
de la macro de test
El fichero de macros resultante es muy sencillo y
quedaría de la siguiente manera (figura 10), mediante el uso
de expresiones propias en pseudocódigo. Primero se
configura el tipo de mouse que vamos a conectar (en
nuestro caso es el denominado tipo digital e indica que la
palanca es de contacto, no progresiva: o está activada hacia
una dirección o no) y el mapeo de la palanca (en nuestro
75
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
caso indicamos que queremos simular la palanca analógica
izquierda del mando clásico de Wii, acción de conducir en
la figura 8) mediante las dos primeras líneas “CONFIG
MOUSE 01” y “CONFIG MOUSE DIGITAL”. Acto
seguido se configuran las acciones de las botones. En
nuestro caso queremos: en primer lugar que el botón
izquierdo del mouse (botón rojo) sea biestable y controle la
aceleración del vehículo (simulando la pulsación del botón
A del mando clásico de Wii, acelerar figura 8) mediante las
siguiente cuatro líneas “BIESTABLE MBUTTONDOWN
433” (433 corresponde al identificador en pseudocódigo de
la pulsación sobre el botón izquierdo del mouse) y
“BIESTABLE MBUTTONUP 418” (418 corresponde al
identificador en pseudocódigo de la liberación sobre el
botón izquierdo del mouse), en segundo lugar que el botón
derecho del mouse (botón amarillo) sea directo y sirva para
usar los objetos (simulando la pulsación del botón L del
mando clásico de Wii, usar objetos figura 8) mediante las
últimas cuatro líneas “MACRO MBUTTONDOWN 435”
(435 corresponde al identificador en pseudocódigo de la
pulsación sobre el botón derecho del mouse) y “MACRO
MBUTTONUP 420” (420 corresponde al identificador en
pseudocódigo de la liberación sobre el botón derecho del
mouse).
#+----------------------------+
#| AXES CORRECTION |
#+----------------------------+
CONFIG MOUSE 01
CONFIG MTYPE DIGITAL
Figura 11. Test de laboratorio Mario Kart
(Nintendo Wii)
Además de las pruebas de laboratorio realizadas, se han
realizado pruebas con diferentes joysticks comerciales y con
usuarios potenciales, como por ejemplo, J.R.S. de 44 años
de edad y afectado de esclerosis múltiple, con el videojuego
Mario Kart de la Nintendo Wii. El mouse adaptado de
entrada usado fue el BJOY Ring (figura 12 [15]) (de la
empresa BJ-adaptaciones), el cual consta de una palanca
con dos ejes (horizontal y vertical) que actualmente utiliza
J.R.S. con destreza para mover su silla.
#+---------------------------+
#| BUTTON MACROS |
#+---------------------------+
BISTABLE MBUTTONDOWN 433
ACTION JBUTTONDOWN 231
BISTABLE MBUTTONUP 418
ACTION JBUTTONUP 231
MACRO MBUTTONDOWN 435
ACTION JBUTTONDOWN 236
MACRO MBUTTONUP 420
ACTION JBUTTONUP 236
Figura 10. Resultado macro para Mario Kart (Nintendo Wii)
De esta manera, solo con una palanca de movimiento y
dos botones tenemos acceso a un videojuego que
inicialmente requería del uso de cuatro botones, una palanca
analógica y una palanca digital. En la figura 11 se puede
observar uno de los test de laboratorio realizados.
Figura 12. Detalle del controlador BJOY
Ring
Motrizmente, la adaptación funcionó a la perfección
permitiendo, en este caso a J.R.S, mover con su joystick de
silla el vehículo del videojuego. Sin embargo,
cognitivamente el juego, en algunas ocasiones, iba
demasiado rápido. La versatilidad del dispositivo hizo que
se pudiera continuar jugando de una manera más
satisfactoria para J.R.S utilizando el “juego cooperativo”.
Esta alternativa permite a dos personas distintas controlar el
mismo personaje con joysticks diferentes. De esta manera
J.R.S seguía controlando la dirección del vehículo con su
mouse de silla adaptado y una tercera persona prestaba
ayudas puntuales con un joystick genérico (conectado al
sistema) en la aceleración y dirección del vehículo.
76
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5. Conclusiones
La solución diseñada ha creado una nueva forma de
interacción con los videojuegos comerciales de las
videoconsolas actuales del mercado, aumentando las
perspectivas de ocio de usuarios con discapacidad.
Para ello se ha desarrollado un sistema que permite
utilizar joysticks HID u otros sistemas de control con los
que ya están familiarizados los usuarios en las diferentes
plataformas. A nivel de software se han diseñado un
conjunto de macros genéricas, que pueden ser adaptadas
para cada usuario y juego, y que permiten al usuario realizar
acciones complejas o secuencias rápidas de botones que
antes no podía ejecutar. De esta forma, se tiene una solución
totalmente personalizable en función de las necesidades de
cada usuario, no invasiva y modular, que le permite jugar a
cualquier juego y plataforma de forma individual o
colectiva (juego colaborativo) gracias a las múltiples
entradas de dispositivos de control que presenta la solución.
6. Referencias
[1] Parra, David et al. (2009), “Hábitos de uso de los
videojuegos en España entre los mayores de 35 años”,
Revista Latina de Comunicación Social, 64. La Laguna
(Tenerife): Universidad de La Laguna, pp. 694 -707.
[2] World Health Organization ed. “World report on
disability 2011”. WHO Library Cataloguing-inPublication Data. Malta. 2011.
[3] Golomb, Meredith R et al. (2010) “In-Home Virtual
Reality Videogame Telerehabilitation in Adolescents
With Hemiplegic Cerebral Palsy”. Archives of Physical
Medicine and Rehabilitation, 91, Nº1, Elselvier,
Germany, pp. 1-8.e1.
[4] Gil-Gómez, José-Antonio et al. (2011) “Effectiveness
of a Wii balance board-based system (eBaViR) for
balance rehabilitation: a pilot randomized clinical trial
in patients with acquired brain injury” J. Neuroeng
Rehabil. Vol.8 N. 30, pp.1-9.
[5] Saposnik, Gustavo et al. (2010) “Effectiveness of
Virtual Reality Using Wii Gaming Technology in
Stroke Rehabilitation. A Pilot Randomized Clinical
Trial and Proof of Principle” Stroke. Vol.41. pp. 14771484.
[6] http://www.albertahealthservices.ca/ (última visita 10/07/2013).
[7] Basson Sara H et al. (2003) “Using existing videogames for physical
training and rehabilitation”. Patente US2003125099.
[8] Byerly; Jennifer (2009) “Device and method for
employment of video games to provide physical and
occupational therapy and measuring and monitoring
motor movements and cognitive stimulation and
rehabilitation”. Patente US 20090098519.
[9] http://www.pretorianuk.com/track-it
10/07/2013)
(última
[10] http://www.raspberrypi.org/quick-start-guide
visita 10/07/2013)
[11] http://www.raspbian.org/FrontPage
10/07/2013)
visita
(última
(última
visita
[12] http://www.libsdl.org/ (última visita 10/07/2013)
[13] http://www.mariokart.com/wii/launch/ (última visita
26/04/2013)
[14] http://www.bjadaptaciones.com/catalogo/ratones/joysticks/bjoy-stickc (última visita 26/04/2013)
[15] http://www.bjadaptaciones.com/catalogo/ratones/joysticks/bjoy-ring
(última visita 26/04/2013)
77
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Audesc Mobile: la audiodescripción en dispositivos
móviles
Alberto Delgado García
Fundación Vodafone España
[email protected]
María Jesús Varela Méndez
CIDAT-ONCE
[email protected]
Guillermo Abel Hermida Simil
Autonomía Personal y Accesibilidad-ONCE
[email protected]
Rafael Selma Cordero
S·dos
[email protected]
Resumen
lo que sucede a su alrededor. Este hecho fue constatado en
1975 por un profesor universitario norteamericano, Gregory
Frazier, quién al ver como la mujer de un amigo ciego le
explicaba una película en el cine, tuvo la idea de hacer
accesibles las producciones audiovisuales a este colectivo
de personas. Frazier con la Ayuda de August Coppola (que
era el hermano del famoso Director de cine Francis FordCoppola) pusieron en marcha la audiodescripción que, una
vez trasladada a Europa por sus alumnos, posibilitó la
accesibilidad a las producciones audiovisuales para todas
las personas con discapacidad visual.
Desde el punto de vista estrictamente sonoro, en España
debemos remontarnos a las emisiones radiofónicas de
novelas y obras de teatro que durante varias décadas del
pasado siglo amenizaron las tardes y noches en buena parte
de los hogares españoles. En estas producciones
radiofónicas, que iban dirigidas a todos los radioyentes con
independencia de que vieran o no, además de escuchar los
diálogos de los actores, un narrador ponía en situación,
explicando en qué circunstancias se producía la acción.
La audiodescripción es el sistema adoptado por los
países desarrollados para permitir el acceso de las personas
con discapacidad visual a las producciones audiovisuales:
películas, obras teatrales, programas de televisión y obras
expuestas en museos. Añade una serie de informaciones
sonoras adicionales que explican a las personas ciegas o
deficientes visuales las acciones, gestos, escenarios,
vestuarios y otros aspectos relevantes que ayuden a
comprender mejor la trama o contenido de la obra.
En España, en el año 1988 la ONCE llevó a cabo el
proyecto de investigación denominado Sonocine, que
permitió realizar las primeras audiodescripciones, aunque
no sería hasta 1994, cuando los Servicios Culturales de la
ONCE pusieran en marcha el programa AUDESC que
posibilitó la creación de guiones cinematográficos y
documentales, y llevó la audiodescripción a las salas
teatrales.
Con la llegada del siglo XXI, la accesibilidad se ha
convertido en un derecho de facto exigible para todos los
ámbitos de la vida diaria y, también, lógicamente para los
medios audiovisuales. Por otra parte, las nuevas tecnologías
y el desarrollo de internet han permitido ofrecer contenidos
audiovisuales a un mayor número de personas, facilitando
Las personas con discapacidad visual acceden a l as
producciones audiovisuales mediante el sistema de
audiodescripción. En la actualidad, los usuarios sólo
pueden acceder a l as películas audiodescritas en
determinados cines en los que se ha realizado un proceso
previo.
El presente proyecto permite extender el uso de la
audiodescripción, de forma que los usuarios puedan
acceder a una película audiodescrita en cualquier cine que
emita dicha película y utilizando además un dispositivo de
uso habitual como puede ser un Smartphone o un tablet.
Esta solución supone una novedad en la forma de
acceso a la audiodescripción respecto a la situación actual
ya que no requiere de ninguna colaboración por parte del
cine. Por otro lado, permite ampliar el acceso a l a
audiodescripción de otros medios audiovisuales como TV,
DVD, etc.
Abstract
People with visual impairment access audiovisual
productions through audio description. Nowadays, these
users can access audio described films just in some cinemas
where the equipment has been adapted accordingly.
This project makes possible spreading the use of audio
description so that users can access an audi o described
movie in any cinema where the movie is being shown using
common devices such as Smartphones or tablets, moreover.
This solution means a ne w approach in the way audio
description is being accessed these days, as it does not
demand any collaboration from the cinema. On the other
hand, it makes it possible to broaden access to audio
description to other audiovisual media such as TV, DVD,
etc.
1. Introducción
La audiodescripción es tan antigua como el hecho de
que las personas que ven les cuenten a las personas ciegas
78
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
que éstos lleguen a lugares que hasta el momento era
imposible.
Fuente: “La audiodescripción en España” (autora:
Patricia Sanz Cameo) [1].
2. Estado del arte
En la actualidad, el acceso de las personas con
discapacidad visual a la audiodescripción, ya sea en directo
(representaciones teatrales) o de forma sincronizada
(exhibición en salas cinematográficas), se realiza mediante
un sistema de radiofrecuencia. Al usuario se le entrega un
receptor inalámbrico, provisto de un auricular, desde el que
recibe la audiodescripción en su propia butaca sin perturbar
al resto
espectadores.
Parade
obtener
la audiodescripción en soportes como DVD
o Blue Ray se suele utilizar el programa ProTools, que
permite la sincronización de la audiodescripción con la
banda sonora.
En salas de cine, la sincronización con la banda sonora
se lleva a cabo insertando la audiodescripción en el propio
DCP (Digital Cinema Package). La emisión en la sala de la
señal con audiodescripción, requiere la conexión de un
emisor de radiofrecuencia al proyector (bien sea digital o
analógico). Esta señal es recibida por los receptores que se
han entregado previamente a los usuarios.
Este proceso obliga a contar con costosos equipamientos
por parte del cine y a realizar configuraciones específicas en
los proyectores de cine. Esta circunstancia, entre otras, hace
que muchas salas de cine sean reacias a emitir películas con
audiodescripción. De hecho, en España hay solo cinco salas
que cuentan con emisión con audiodescripción: Madrid,
Navarra o Barcelona son ejemplos de ello.
3. Fundamentos y tecnologías
utilizadas
Dada la situación anteriormente descrita, se afronta el
desarrollo del presente proyecto con el objetivo de facilitar
y extender el acceso a las audiodescripciones de los
diferentes contenidos audiovisuales.
La solución adoptada supone un valor añadido sobre la
situación actual ya que permite el acceso, a la
audiodescripción
independientemente
del
medio
audiovisual.
La idea fundamental en la que se basa el proyecto
consiste en disponer de la audiodescripción en un
dispositivo móvil y reproducir dicha audiodescripción de
forma sincronizada con un vídeo en curso. Esta
sincronización se realiza basándose únicamente en el audio
del título que se está reproduciendo, independientemente de
la plataforma física sobre la que se emite (cine, TV, tablet,
etc.).
Por otro lado, desde el punto de vista del usuario final,
es de especial relevancia el hecho de que el acceso a la
audiodescripción se puede realizar desde un dispositivo
móvil, sin necesidad de proveer al usuario de ningún otro
dispositivo adicional.
A continuación se describe la plataforma desarrollada
así como los retos tecnológicos que se han tenido que
abordar durante el desarrollo del proyecto.
3.1. Plataforma
La plataforma de la solución adoptada está compuesta
por:
• Una capa de servicios (componente servidor) que
proporciona
los
contenidos
(títulos,
audiodescripciones,…) a la aplicación móvil y también
provee la funcionalidad de sincronización de la
audiodescripción.
• Un entorno web que permite a los administradores del
sistema gestionar fácilmente toda la información
almacenada sobre los títulos (detalles sobre cada título,
huellas, audiodescripciones asociadas, etc.).
• Una aplicación móvil que permite descargar las
audiodescripciones del servidor y la reproducción
sincronizada de la audiodescripción. Esta aplicación,
disponible para dispositivos iOS y Android, se ha
desarrollado basándose en las líneas Design for All
(DfA) [2] y las guías de diseño accesible [3].
Las audiodescripciones son descargadas en el
dispositivo móvil para posteriormente poder ser
reproducidas cuando se desee. En este sentido, tiene
especial relevancia la definición del tamaño de las
audiodescripciones ya que deben ser descargadas desde
internet. El formato de audio seleccionado debe tener una
relación aceptable entre calidad y tamaño. Una vez elegido
el formato, debido a la naturaleza de las audiodescripciones,
se eliminan los silencios en el audio, quedándose
únicamente con las partes útiles. Una vez troceado se
empaqueta en un formato propio que debe ser entendido e
interpretado por las aplicaciones móviles.
3.2. Tecnologías
Desde el punto de vista tecnológico, Audesc Mobile
resuelve dos retos de especial relevancia:
• La creación de un algoritmo para la generación de un
patrón, huella o “firma” de un archivo de audio.
• La localización de una muestra de audio en el patrón
anterior, para su sincronización exacta con la
audiodescripción disponible en el dispositivo móvil.
A continuación se describen en detalle el algoritmo de
generación de huella y el proceso de sincronización.
3.2.1. Algoritmo de generación de huella. El algoritmo se
basa en la generación de una Huella Digital Acústica
(HDA), que es un identificador para archivos de audio
basados en el contenido del archivo. La huella permite
identificar un patrón o “firma” de un archivo de audio, de
forma que este patrón pueda ser reconocido desde una base
de datos de audio, sin necesidad de disponer de información
acerca de éste. Para la generación de la HDA, el algoritmo
se encarga de realizar las medidas y cálculos necesarios
79
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
para extraer la información más importante del archivo de
audio.
El requisito imprescindible en este proyecto era
implementar un sistema rápido y fiable en recuperación e
indexación de datos, así como la reducción del tamaño de
los contenidos almacenados. La idea se basaba en asignar
una identidad a cada señal de audio para posteriormente ser
tratada.
En una fase preliminar del proyecto se analizó una de las
más exitosas aplicaciones de referencia que existen en el
mercado, Shazam, capaz de identificar y dar información
(autor, disco,…) de una pista de audio (canción). Dicha
aplicación es capaz de identificar canciones a partir de una
muestra de varios segundos y el sistema dispone de una
base de datos con miles de canciones indexadas. En su caso,
la base de datos guarda información de cada canción y su
Huella Digital Acústica generada a partir de ella.
En el caso de Audesc Mobile, el problema a solucionar
difiere del planteado en Shazam. En Audesc Mobile, se
tiene identificado el título y se necesita la localización
temporal de un fragmento de audio en la pista completa del
audio del título. De esta forma, se puede localizar el
momento exacto que se está reproduciendo en un vídeo y se
puede realizar la sincronización con la audiodescripción.
Por lo tanto, se necesita un tipo de HDA que sea de igual
longitud a toda la pista de audio, permitiendo la localización
temporal en la misma.
A modo de resumen, los pasos que describen la
generación de la HDA son los siguientes:
1. Se obtiene el espectro de frecuencias de la pista de
audio y se muestrea.
2. Para cada muestra se calculan las fluctuaciones entre
frecuencias.
3. Se genera la huella digital acústica de toda la pista en
base al algoritmo desarrollado.
En cuanto al desarrollo de la HDA, éste se basa en los
siguientes algoritmos:
1. Transformada rápida de Fourier.
2. Espectrograma de frecuencias.
3. Normalización de amplitudes.
3.2.2. Sincronización. El otro gran reto tecnológico del
proyecto es la sincronización. La sincronización es el
proceso mediante el cual se localiza el momento exacto de
la película que está en reproducción y se reproduce la
audiodescripción totalmente sincronizada en el dispositivo
móvil.
El proceso de la sincronización es el siguiente:
1. El dispositivo graba unos segundos de audio y los
empaqueta.
2. El dispositivo envía al servidor el audio grabado.
3. El servidor recibe la grabación y realiza la Huella
Digital Acústica.
4. El servidor localiza la Huella Digital de la grabación
con la Huella Digital del título.
5. El servidor envía al móvil el segundo actual de
sincronización.
6.
El móvil reproduce los audios seleccionados de manera
sincronizada teniendo en cuenta otros factores que
puedan afectar.
Una vez que se ha localizado temporalmente la
reproducción de un título, se sitúa la audiodescripción en el
segundo indicado y se ejecuta su reproducción. En la
sincronización y reproducción, dado que es un requisito
primordial que no se produzcan retrasos conforme la
reproducción va avanzando, se tiene especial cuidado con
todos los factores que pueden afectar al proceso: los
tiempos en las comunicaciones (internet), velocidades de los
procesadores de los terminales móviles, etc.
4. Resultados
La plataforma obtenida como resultado del desarrollo
del proyecto supone para el usuario final una nueva filosofía
en la forma de acceder a las audiodescripciones.
La plataforma permite a un usuario con discapacidad
visual acceder a las audiodescripciones disponibles de
películas, documentales, etc. de forma fácil e intuitiva,
usando un dispositivo de uso habitual e independientemente
de la plataforma o lugar en el que se esté emitiendo el
contenido audiovisual.
El usuario dispone de una aplicación móvil que le
permite consultar qué contenido audiovisual (película,
documental, etc.) está audiodescrito y descargarse las
audiodescripciones asociadas que desee. El sistema permite
que a un mismo título se le puedan asociar diferentes
audiodescripciones (castellano, catalán, etc.).
El usuario puede descargarse las audiodescripciones en
cualquier momento y posteriormente reproducirlas o
sincronizarlas cuando el contenido audiovisual se esté
emitiendo (cine, TV, etc.).
La aplicación móvil desarrollada es totalmente accesible
para personas con deficiencia visual (utilizando un lector de
pantalla) y dispone de opciones de configuración que
permiten a usuarios con resto de visión adaptar la aplicación
a sus necesidades (dispone de temas con diferentes
combinaciones de colores).
Además, entre las opciones de configuración
disponibles, se ofrece al usuario la posibilidad de suscribirse
a un sistema de notificaciones que le permite conocer
cuándo hay nuevas audiodescripciones disponibles en el
sistema.
Por otro lado, desde el punto de vista del personal
encargado de proporcionar contenido audiodescrito al
sistema, el proceso que ofrece esta nueva plataforma es
mucho más eficiente que el protocolo que se sigue en la
actualidad.
Los administradores del sistema pueden colgar en el
servidor, a través del entorno web de gestión, todo el
material audiodescrito de forma rápida y eficiente. El
proceso para subir un nuevo título (película, serie, etc.)
consiste en dar de alta en el sistema un nuevo título, rellenar
una información genérica sobre el mismo (categoría,
director, género, año, sinopsis, etc.), adjuntar la/s huella/s
del audio del título (proceso que proporciona la plataforma)
y adjuntar la/s audiodescripciones/s asociadas.
Una vez subida toda la información necesaria al sistema,
el administrador puede notificar a los usuarios la existencia
80
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
de un nuevo título en la plataforma a través del sistema de
notificaciones. A partir de ese instante, los usuarios se
pueden descargar, en el momento que lo deseen, el nuevo
título disponible.
Este nuevo sistema facilita además la posibilidad de
realizar actualizaciones de las audiodescripciones cuando,
por algún motivo, se produce una variación en el contenido
audiovisual (circunstancia que en ocasiones se produce en el
caso de los cines).
4.1. Pruebas con usuarios
Las primeras pruebas realizadas con evaluadores
especializados han sido muy positivas. Uno de los aspectos
más conflictivos de un proyecto de este tipo es que la
sincronización de la audiodescripción con el audio de la
película sea correcta y, en ese sentido, los algoritmos
implementados ofrecen unos resultados muy favorables. En
las pruebas se ha comprobado que la localización del punto
de la película en emisión es muy precisa y, por tanto, la
reproducción de la audiodescripción encaja perfectamente
con la película.
Además, se ha conseguido que la accesibilidad de la
aplicación, desde un primer momento, sea completa para
que toda la funcionalidad que aporta pueda ser utilizada en
igualdad de condiciones por cualquier tipo de usuario.
En la fase actual de desarrollo y pruebas del proyecto, se
está comenzando a trabajar con usuarios potenciales de la
aplicación para determinar si ésta aporta toda la
funcionalidad requerida para un sistema de acceso a la
audiodescripción.
5. Conclusiones
Con el desarrollo de este proyecto se consigue que las
personas ciegas o con discapacidad visual dispongan de una
herramienta que les permite acceder de una manera fácil y
cómoda a la audiodescripción de los contenidos
audiovisuales, con independencia del medio en el que éstos
sean reproducidos (Cine, TV, DVD, etc.). Por tanto, hace
posible que este grupo de personas puedan disponer de la
información adicional que les es necesaria de una manera
autónoma y sin limitaciones en cuanto a los lugares en los
que poder disfrutar de esta facilidad.
El sistema desarrollado aporta una serie de beneficios
que se describen a continuación:
• El usuario no necesita ningún dispositivo adicional para
escuchar la audiodescripción, puesto que puede hacerlo
mediante su dispositivo móvil habitual (Smartphone o
tablet tanto de la plataforma iOS como de la plataforma
Android). Tan solo es necesaria una conexión a Internet
(bien a través de red móvil o bien a través de red Wi-Fi)
para realizar la descarga previa de la audiodescripción
con la propia aplicación y para realizar la sincronización
inicial de la misma cuando ya se esté reproduciendo el
contenido audiovisual.
• Ofrece
la
posibilidad
de
acceder
a
las
audiodescripciones independientemente del medio
audiovisual utilizado (cine, TV, DVD, etc.). Por
ejemplo, un usuario puede visualizar una película en
formato DVD en su casa (DVD sin audiodescripción
incluida) y para acceder a la audiodescripción sólo tiene
que descargársela utilizando la aplicación móvil. En el
caso del cine, permite acudir a cualquier sala en la que
se proyecte la película deseada y no obliga a ir a una
sala concreta.
• Evita la necesidad de llevar a cabo una instalación
compleja en los lugares en los que se realiza la
reproducción de los contenidos audiovisuales (salas de
cine, etc.) puesto que la aplicación instalada en el
dispositivo móvil se encarga de todo el proceso. Con
ello se eliminan los costes de instalación, las gestiones
necesarias para lograr la colaboración de las salas de
cine y la dedicación del tiempo necesario para preparar
cada una de las películas en cada una de las salas en las
que se pretenda usar la audiodescripción.
• Ofrece una gestión centralizada de todas las
audiodescripciones disponibles para cualquier tipo de
títulos (películas, series, documentales, etc.), para
cualquier tipo de formato (cine, TV, DVD, etc.) y en
cualquier idioma. Esto es beneficioso para los gestores y
productores, pues no necesitan distribuir sus
audiodescripciones sino simplemente incluirlas en el
sistema una única vez, y también para los usuarios
finales, que disponen de un lugar único en el que realizar
consultas y descargas de las audiodescripciones
disponibles para cualquier medio.
• El sistema de notificaciones permite a los usuarios tener
una información directa y práctica de las novedades que
se producen en los títulos disponibles para ser
reproducidos con audiodescripción.
6. Trabajos futuros
El enfoque utilizado en el desarrollo de Audesc Mobile
posibilita el que funcionalidades similares sean aplicables a
otros escenarios, y además el sistema queda abierto a que se
vayan incorporando en él nuevas facilidades y posibilidades
para los usuarios.
En ese sentido se están analizando distintas opciones
que marcarán la línea de trabajo en el futuro. Así, en cuanto
a la diversificación del perfil de los usuarios del sistema, se
plantea la opción de incluir el subtitulado en el móvil para
personas sordas o con discapacidad auditiva, permitiendo
que los subtítulos aparezcan de forma sincronizada en la
pantalla del dispositivo móvil mientras se esté produciendo
la reproducción de forma externa.
En cuanto a nuevas funcionalidades, se está
contemplando la posibilidad de usar el sistema con
cualquier tipo de emisiones, como pueden ser: la televisión,
las grabaciones de vídeo, los DVD, las emisiones online a
través de Internet, etc.
Otra línea de trabajo a iniciar será la adaptación de este
sistema de audiodescripción para su uso en lugares
públicos, como pueden ser museos, hospitales, centros
oficiales, etc. en los que pueda obtenerse información
adicional para los distintos elementos que en ellos se
encuentren, y que de otra manera no estaría disponible para
los usuarios potenciales del sistema.
81
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
7. Referencias
[1] La audiodescripción en España:
http://progresodigital.unidadprogresista.org/noticia/AUDIODESC
RIPCION-ESPAÑA.aspx
[2] Design for All:
http://ec.europa.eu/information_society/activities/einclusion/policy
/accessibility/dfa/index_en.htm
[3] Guía de diseño accesible:
http://www.johngilltech.com/guidelines/guidelines_list.htm
82
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Prevención de riesgos domiciliarios a través del
estudio de hábitos de vida La tecnología domiciliaria, una herramienta en favor de la autonomía personal
Domingo García Fernández-Caro
Lluís Sánchez Rissech
Director de Servicios de Proximidad de Personalia
[email protected]
Innovación y Desarrollo Tecnológico de Personalia
[email protected]
Resumen
responsabilidades y mucho menos en la dependencia y en
los defectos del estado sobreprotector, una buena cobertura
de la autonomía personal de las personas mayores y
dependientes es un prerrequisito para que las personas sean
capaces de asumir un rol plenamente activo durante su vida.
Pero además, el sistema que se despliegue para dar soporte
a las personas en su autonomía debe ser sostenible y capaz
de evolucionar en la medida en que las necesidades cambien
y se diversifiquen.
El uso de la tecnología domiciliaria, como
herramienta de soporte a la autonomía y de ayuda en el
desarrollo de las tareas cotidianas, ha sido ampliamente
discutido en los últimos años, especialmente desde que
este tipo de componentes tecnológicos se han conocido,
divulgado y estandarizado en el mercado.
Un gran número de estudios han realizado observaciones
cualitativas sobre aceptación de este tipo de elementos por
parte de usuarios mayores o de personas en situación de
dependencia, sobre eficacia en la fiabilidad funcional de
determinados dispositivos para tipos específicos de
actividades de la vida diaria o sobre eficiencia en el
funcionamiento en un entorno doméstico. Sin embargo hay
muy pocos estudios cuantitativos que tengan como objetivo
proponer un conjunto específico de componentes
tecnológicos que puedan desplegar una tipología de alarmas
preventivas para un colectivo concreto, en este caso el de
las personas frágiles. Nuestro estudio tiene, además, la
intención de proponer un esquema y metodología de uso a
gran escala.
El proyecto de investigación, realizado por Personalia,
(empresa de servicios sociales y sanitarios de Fundación
ONCE) plantea la implantación de herramientas tecnológicas
domiciliarias básicas para la monitorización de las
actividades cotidianas de los usuarios detectando, en modo
preventivo, posibles situaciones de riesgo e incidencias a
través de la alteración de las pautas de comportamiento
cotidiano.
El estudio se ha realizado en 40 usuarios mayores frágiles
del Servicio Público de Teleasistencia de Madrid a los que se
ha monitorizado durante 6 meses en régimen de 24x7 después
del despliegue de 9 di spositivos tecnológicos. Como
conclusión del proyecto se plantean hasta 11 al armas
preventivas a implantar en los procedimientos habituales de
un Centro de Atención de Teleasistencia para este tipo de
usuarios.
Summary
This research project, conducted by Personalia, (social
and health services company from Fundacion ONCE) has
developed an specific model deployment of basic home
technology devices to monitor lifestyle and dai ly activities of
the users in order to develop preventive i ntervention
procedures These are useful ways .to avoid or completely skip
daily life incidents and issues when the system detects changes
in those daily life activities.
The study has been conducted in 40 frail elder users of the
local Public Telecare Service in Madrid that have been
monitored during 6 m onths in 24x 7 mode after the
deployment of nine technological devices. As a conclusion of
the project, we have concluded up t o 11 pr eventive common
alarms for this kind of users that we propose could be
integrated and used in the normal procedures of the Telecare
Service. Thus, these new procedures, could be completely
standardized for this user segment within the scope of a
Telecare Services Center.
1. Introducción
En un marco de referencia en el que los ciudadanos y los
gobiernos van estableciendo progresivamente un nuevo
tipo de relación, fundamentada en los derechos y
2. Objetivos
Teniendo en cuenta el tipo de necesidad y actividades
estimadas para personas frágiles y partiendo del estado del
arte en la situación de tecnología domiciliaria (domótica,
sensorización y ayudas técnicas), el proyecto ha
desarrollado los siguientes tres objetivos:
1. Verificar la aceptación por parte de los usuarios, de
un despliegue muy específico de tecnología domiciliaria no
intrusiva, dirigido a una máxima cobertura de sus hábitos
domiciliarios diarios. Se trataba que los usuarios
entendieran el funcionamiento de los sensores y que éstos
no debían interferir, en absoluto, en sus actividades diarias.
2. Estudiar los diversos patrones de actividad de las
principales tareas diarias de cara a caracterizar aquellos
83
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
hábitos y prácticas que debieran ser considerados como
normales y aquellos que debían ser tipificados como no
normales. Establecer umbrales de normalidad en las
actividades de la vida diaria siguientes: sueño/descanso,
alimentación y actividad en la cocina, actividades fuera del
domicilio, nivel de general de actividad diario y aseo/
continencia.
3. Proponer un conjunto de alarmas domiciliarias
preventivas que, de acuerdo a las observaciones del estudio,
sean aplicables a la mayoría de usuarios frágiles de acuerdo
a un comportamiento normal. Este grupo de alarmas
preventivas va ligado a un kit tecnológico domiciliario
mínimo, capaz de realizar un seguimiento habitual de la
mayor parte de las actividades que la persona realiza en su
domicilio, cubriendo por tanto, la mayor parte de la vida
diaria y sus posibles riesgos.
Adicionalmente a estos objetivos, el estudio se ha
planteado una observación cualitativa de características
sociales y demográficas de la población participante del
estudio, su actitud respecto a la tecnología y sus principales
hábitos diarios que también se recogen como resultados
colaterales de la observación..
3. Infraestructura y tecnología
La selección de la tecnología a implantar en los domicilios
de los usuarios/as se ha realizado de acuerdo a cinco
criterios principales: capacidad funcional (cobertura de más
de un 80% de actividad diaria), simplicidad tecnológica,
aceptación de los usuarios, coste y capacidad de integración
y crecimiento.
Hemos aplicado estos cinco criterios a las dos grandes
opciones de arquitectura tecnológica:
•
Opción TIC: red local doméstica integrada a
través de protocolo de sistemas de información estándar y
con comunicaciones externas vía IP-ADSL.
•
Opción Teleasistencia avanzada:
red de
teleasistencia a través de un concentrador local,
el terminal de Teleasistencia
De la valoración de las dos posibles opciones
tecnológicas, según los criterios de selección enunciados, se
concluyó que la mejor opción era la de utilizar la actual red
de Teleasistencia local, ampliándola con los dispositivos y
sensores de actividad específicos:
Criterios
Capacidad funcional
Simplicidad
tecnológica
Aceptación de los
usuarios
Coste
Capacidad de
integración
Opción
Teleasistencia Opción TIC
avanzada
+++++
++++
++++
++
+++++
++
+++
+
++
++++
3.1. Dispositivos
Los tipos de dispositivos utilizados son los siguientes:
1. Dispositivos de detección de presencia: sensor
de alta sensibilidad en la detección de movimiento gracias
al uso de tecnología infrarroja (Passive Infrared o PIR),
simple, económica y muy eficaz en la detección de
movimiento, tras del cual envía una señal a la Central de
Teleasistencia vía el terminal local. Es uno de los detectores
estándares en cualquier sistema de seguridad doméstico. Se
han instalado dispositivos de presencia en dormitorio,
baño, cocina, salón y pasillo.
2.
Dispositivos de apertura (magnéticos): el
detector magnético es un sensor básico que, conectado a un
Terminal de Teleasistencia, avisa de cualquier interrupción
de la conexión magnética entre los dos dispositivos
instalados, normalmente a ambos lados de una puerta,
ventana o batiente. Se han instalado dispositivos
magnéticos en la puerta del domicilio y en la puerta del
frigorífico.
3. Dispositivos de contacto/presión: sensor que
detecta la presión sobre un objeto a través de un peso
distribuido en una cierta superficie. Conectado a un
terminal de teleasistencia puede enviar una alarma a cada
activación o durante un período de activación continuada.
Se instalaron dispositivos de presión en el sillón o sofá
principal y en la cama del usuario.
3.2 Terminal de Teleasistencia
El terminal de Teleasistencia cumplía, en la
infraestructura de este proyecto, una triple función:
•
Función de Hub de conexión de todos los
dispositivos domiciliarios: Teniendo en cuenta la
instalación de hasta nueve nuevos dispositivos diversos, era
necesario disponer de un componente tecnológico central
capaz de establecer comunicación y diálogo con todos
ellos.
•
Función de comunicación: aunque algunos de los
dispositivos tecnológicos domiciliarios son capaces de
establecer comunicación remota, no era este el caso de los
9 elementos nuevos que se instalaban por domicilio en este
proyecto por lo que se requería una herramienta común
para transmitir a la Central de Teleasistencia todos los
avisos y alarmas que generaban cada uno de sus
periféricos.
•
Función de almacenamiento: todos los
dispositivos tecnológicos registraban cada activación y
desactivación que debía ser consolidado para su análisis en
la Central de Teleasistencia. . El terminal domiciliario
conservaba cada activación de cada dispositivo y hacía un
envío diario en horario nocturno de todas las alarmas
registradas.
La significación de cada alarma y activación de
dispositivo, en esta aproximación, era distinta de la de un
dispositivo tradicional de Teleasistencia. Lo que se
pretendía era el registro de las actividades diarias por lo que
se almacenaban las activaciones diarias para caracterizar la
actividad diaria sin que estas activaciones significaran
alarmas reales del sistema.
El Terminal de Teleasistencia escogido ha sido el
Terminal Lifeline Connect+ R (TunstallR). Este terminal
es un dispositivo de nueva generación con amplia capacidad
de conexión y comunicación de dispositivos periféricos.
Cumple todos los estándares europeos y nacionales
84
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
requeridos en el sector y es plenamente multi-protocolo para
poder compatibilizar con otras tecnologías existentes en el
mercado.
3.3 Otros componentes tecnológicos
Los dispositivos tecnológicos y el terminal de
Teleasistencia pertenecen a la familia AdlifeR del proveedor
TunstallR, que incluye además herramientas de análisis
estadísticos simples de activación de dispositivos. Además,
para la interpretación de datos y períodos de actividad, se ha
utilizado un algoritmo cuantitativo de interpretación de
datos y estimación de períodos de activación por tipo
actividad propiedad de TecnaliaR.
4. Muestra
La muestra de participantes en el estudio se ha obtenido
a partir de los usuarios del Servicio Público de
Teleasistencia de Madrid que proporciona, entre otros
proveedores, Personalia.
Se ha seleccionado candidatos con valoración de 4
puntos o superior en la escala de Barber (Fragilidad), en la
que se puntúa 0 en caso de no presentar ningún factor y 1
punto por cada uno de los factores definidos en la escala:
•
Viven solos.
•
Vive solo y no tiene a quién acudir si necesita
ayuda inmediata.
•
No come caliente más de dos días por semana.
•
Su salud le impide salir solo a la calle.
•
Tiene problemas de salud con frecuencia o
presenta comorbilidad.
•
Tiene dificultades para realizar sus actividades
diarias habituales.
•
Ha estado ingresado o ha sufrido una caída en el
último año.
A cada participante se le planteó su participación
voluntaria en el proyecto, se firmó un acuerdo de
participación y se le realizó un cuestionario inicial sobre su
propia vida diaria y su autonomía.
Los datos generales de la muestra son las siguientes:
• 40 personas frágiles
• Valoración (Barber 4 o superior): 27 Barber 4, 10
Barber 5 y 3 Barber 6.
• 36 mujeres y 4 hombres.
Todos ellos eran usuarios activos del Servicio Público de
Teleasistencia con un mínimo de dos años de permanencia
en el servicio.
Sólo en 6 de los usuarios se había instalado previamente
algún tipo de dispositivo periférico al terminal de
Teleasistencia aunque su funcionalidad y tecnología
(detector de CO2 o dispositivo de caídas) eran distintas del
enfoque funcional del presente proyecto.
Se realizaron observaciones en los domicilios de los
participantes durante 6 meses completos.
5. Metodología
Se han monitorizado las actividades diarias de los
usuarios del proyecto durante 6 meses (diciembre 2011 a
mayo 2012) en régimen de 24 x 7 de cara a tipificar las
actividades y hábitos diarios característicos de este
segmento de usuarios. A partir de los sensores instalados en
cada espacio de la vivienda se podía tener una visión hasta
del 90% de las actividades diarias de los usuarios
(justificado numéricamente).
Cada activación de cada sensor era enviada al terminal
de Teleasistencia y almacenada diariamente antes de su
envío al Centro de datos. Las activaciones de los sensores
eran completamente transparentes al usuario que realizaba
su vida normal sin ninguna intromisión. Al mismo tiempo
se recogían también todas las llamadas entrantes y salientes
de los usuarios del estudio realizadas al Centro de Atención
de Teleasistencia de Personalia en Madrid.
Una vez los datos eran enviados cada noche al Centro de
datos, éstos se consolidaban y se
procesaban de la
siguiente forma:
• Proceso estadístico: todos los datos de usuario
recibían un tratamiento estadístico ‘simple’ que registraba el
número de activaciones diarias, la media de activaciones
por sensor y por usuario en cada período (diario/semanal y
mensual). También se registraban las desviaciones de esta
media en los mismos períodos.
• Proceso a través del algoritmo cuantitativo: las
observaciones diarias se procesaban a través del algoritmo
cuantitativo de proceso de activaciones que estimaba los
períodos específicos de presencia y actividad en los
diferentes espacios del domicilio monitorizados. A través
del análisis de este algoritmo se obtenían estimaciones de
alta precisión en las siguientes actividades cotidianas:
• Sueño/descanso
• Baño/aseo
• Cocina/alimentación
• Salida del domicilio
• Actividad/Inactividad
La estimación de duración de estas actividades
conseguía una alto nivel de precisión (más del 75%) a partir
de observaciones de un único sensor (por ejemplo:
baño/aseo) mientras que otras (actividad e inactividad)
requerían la combinación de diversos sensores (por
ejemplo: ratio de actividad/inactividad diarios que
necesitaban la acumulación de observaciones de todos los
sensores).
•
Proceso de datos y observaciones cualitativas:
de acuerdo a las actividades observadas a partir del
algoritmo de análisis cuantitativo, se analizaban diariamente
los períodos que caracterizaban a una situación de
normalidad de cara a determinar su duración media. Los
períodos de ‘normalidad’ se comparaban con otros períodos
en los que había constancia fehaciente de anormalidad ya
sea por los datos de las llamadas al Centro de Atención de
Teleasistencia o por una desviación estadística significativa
respecto a la media de activaciones.
• Cotejo de datos: las observaciones que se
derivaban de los tres tipos de proceso de los datos
domiciliarios, se comparaban diariamente para cada usuario.
A partir de toda incidencia, se observaba el volumen de
activaciones de dispositivos por cada tipo de actividad
durante la semana anterior y la semana posterior a la
aparición de la incidencia/emergencia. Esta observación
permitía detectar, de forma precoz, los primeros síntomas de
esta incidencia en casos que estos síntomas se produjeran.
85
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Esta comparación de datos permitía, además, detectar una
vida diaria normal e incluso de calidad con unos
comportamientos en hábitos de diverso patrón.
4) Algoritmo de análisis cuantitativo:
5.1 Representaciones gráficas de las observaciones:
1) Estadística de las observaciones:
5) Llamadas entrantes/salientes a la Central de
Teleasistencia
6. Resultados
2) Períodos de activación
3) Distribución gráfica de activaciones (perfil):
• La primera observación respecto a los resultados
obtenidos en este estudio de investigación es que la
hipótesis inicial sobre impacto de incidencias en la vida
diaria ha sido claramente superada y ha permitido llegar a
conclusiones muy concretas y prácticas. Durante el período
de observación se han producido hasta 61 incidencias de
todo tipo en la vida de los usuarios que colaboraban en el
proyecto. Los tipos de incidencias producidos son las
siguientes:
• 12 caídas
• 9 enfermedades agudas
• 12 intervenciones quirúrgicas
• 2 cuidadores fallecidos
• 3 depresiones
• 1 usuaria fallecida
• 22 eventos ‘no ordinarios’
• En total: 61 eventos
El impacto de todos estos eventos ha sido significativo,
obviamente, con posterioridad a que éstos sucedieran. Pero
también hemos detectado un impacto de forma previa a su
aparición en la vida de los usuarios.
Hemos agrupado los resultados del proyecto en
cuatro apartados:
• Observaciones de tipo sociológico
• Observaciones conductuales
• Observaciones en umbrales de normalidad
• Observaciones en impacto de las incidencias en la
vida cotidiana
86
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
6.1 Sociológicos
La autovaloración de los usuarios respecto a su
autonomía y su calidad de vida difería claramente: mientras
que en la primera, la valoración en una escala de 1 a 5
siendo 1 el valor mejor (muy buena) y 5 el valor peor (muy
mala) tiene de media el valor de 3,2 (regular), en la segunda
la valoración media era de 2,26 (buena). Esta diferencia en
la valoración, en favor de la calidad de vida, indica una
buena capacidad de adaptación de los usuarios de la muestra
a sus condiciones de vida cotidiana y a sus posibles
limitaciones.
Todos los usuarios disponían de cuidador y/o asistente
para tareas domiciliarias, con mayor o menor intensidad de
dedicación, pero nunca inferior a una frecuencia asistencial
de dos veces por semana. En el 80% de los casos se trataba
de un cuidador profesional.
A continuación incluimos las valoraciones de
dependencia en actividades diarias:
•
Índice de Barthel (Actividades básicas de la
vida diaria: comer, bañarse, vestirse, arreglarse,
deposición, micción, ir al servicio, traslado entre el sillón y
la cama, deambulación y subir o bajar escaleras).
o Independiente (100): 13 usuarios.
o Dependencia leve (60-95): 18 usuarios.
o Dependencia moderada (40-55): 3 usuarios.
o Dependencia grave (<40): 1 usuario.
•
Índice de Lawton (Actividades instrumentales
de la vida diaria, AIVD: usar el teléfono, ir de compras,
preparar la comida, cuidar la casa, lavar la ropa, utilizar
medios de transporte, responsabilizarse de su propia
medicación, utilizar dinero).
o Independiente (8): 3 usuarios.
o Dependencia leve (6-7): 13 usuarios.
o Dependencia moderada (4-5): 15 usuarios.
o Dependencia grave (0-3): 9 usuarios.
La valoración específica en distintas actividades de la
vida diaria (en una escala de 0 a 1) ha sido la siguiente:
o Comer y beber: 0,81.
o Desplazarse por la casa: 0,67.
o Vestirse y desvestirse: 0,66.
o Aseo personal: 0,59.
o Administración del hogar: 0,59.
o Seguridad y accidentes: 0,53.
o Cocinar: 0,49.
o Tareas domésticas: 0,40.
o Salir a la calle y desplazarse por el barrio: 0,33.
o Compras: 0,26
o AUTONOMÍA PERSONAL: 0,52
Aparte de estos datos se tabularon otros indicadores, como:
tipo de incidencias domésticas sufridas en los últimos
meses, predisposición a la tecnología, expectativa sobre
aspectos en los que la tecnología podía mejorar la calidad de
vida de los usuarios, predisposición (positiva o negativa) al
uso de tecnología en el domicilio, experiencias previas, etc
que se encuentran recogidas en el documento completo del
estudio como referencia.
Aparte del terminal de Teleasistencia y del terminal
remoto (UCR), sólo en 6 casos de usuarios se disponía de
otro tipo de dispositivos tecnológicos: sensores de
CO2/fuego y detector de caídas. En todos los casos, la
entrevista al inicio del proyecto demostraba un bajísimo
conocimiento de las posibilidades de la tecnología
domiciliaria y, al mismo tiempo, una actitud plenamente
positiva a incorporar este tipo de elementos en su vida
cotidiana. La ejecución del proyecto no significó ninguna
incidencia ni intromisión en la vida del usuario.
6.2 Hábitos de conducta
La primera conclusión significativa en este estudio
respecto a la caracterización de los hábitos de conducta de
los usuarios era que, incluso siendo todos ellos usuarios
frágiles, había una gran diversidad de comportamientos
dentro de la normalidad. De todas formas se observaron 7
parámetros de conducta communes:
•
Descanso nocturno diario: entre 8 y 10 horas
acumuladas cada día aunque con muchas interrupciones
nocturnas por diversas causas. Episodios de insomnio
comunes en todos los usuarios.
•
Diferenciación muy clara entre actividades
diurnas y nocturnas: se observan los segmentos diurnos y
nocturnos con clara distinción y separación, aunque, en el
30% de los usuarios, se producen solapamientos entre
actividades diurnas de noche y viceversa.
•
Nivel de actividad diario (medido en horas de
actividad respecto al total de horas diarias): muy alto
(por encima del 70%) en 31 de los 40 usuarios.
•
Horas de sofá y TV: promedio diario de 6 horas
diarias (nivel muy alto).
•
Salidas fuera del domicilio: en 21 de los 40
usuarios se observa salida del domicilio diaria con un
período fuera, mínimo, de 2 horas (sólo en cinco casos el
usuario/a no salía nunca de du domicilio).
•
Aseo diario: se observa un promedio diario de 60
minutos, incrementándose hacia el fin de semana.
6.3 Umbrales de normalidad
Teniendo en cuenta estas conductas comunes en los
usuarios del estudio, su relación con los incidentes en la
vida diaria contrastados a través de las llamadas a la Central
de Teleasistencia, se pudieron establecer cinco umbrales
específicos que indicaban la diferencia entre una
situación normal y otra anormal:
•
Descanso: menos de 8 horas diarias, inicio del
descanso nocturno más allá de las 2:00 AM, fragmentación
(interrupción de sueño) en más de un 60% o solapamiento
sostenido de actividad diurna en horario nocturno o
viceversa.
•
Nivel de actividad diario: reducción o incremento
del nivel de actividad diario por encima (o por debajo) del
25% respecto al valor promedio.
•
Aseo: más de 80 minutos diarios de tiempo de
permanencia en el baño diariamente.
•
Salida del domicilio: menos de dos veces
semanales en usuarios con el hábito de salida diaria o
regular.
•
Cocina: permanencia en la cocina durante la noche
o más de 60 minutos de tiempo dedicados a cada comida.
6.4 Impactos de las incidencias en los hábitos de
conducta diarios
87
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Las incidencias y emergencias observadas en la vida
diaria de los usuarios tenían, obviamente, efectos en el nivel
y tipo de actividad diaria que el usuario/a realizaba. Sin
embargo, en los casos de incidencias, se observaba también
un impacto previamente a que se produjera la incidencia:
• Incremento o decremento del nivel de actividad
diaria por encima del 20% y del 15% respectivamente.
• Cambio en el perfil de activaciones de periféricos
(frecuencias y volumen de activaciones).
• Fragmentación súbita del descanso nocturno.
• Solapamiento de actividades diurnas y nocturnas.
• Períodos de actividad desordenados para la
permanencia en el aseo.
• Incremento súbito en la presencia en la cocina y en
el uso del frigorífico.
• Decrecimiento del tiempo y frecuencia fuera del
domicilio.
7. Conclusiones
Teniendo en cuenta todas las características del estudio y
de los resultados que acabamos de desarrollar podemos
concluir en 5 grandes observaciones:
1. La tecnología básica utilizada es capaz de
monitorizar de forma muy fiable hasta un 90% de las
actividades que el usuario realiza en su domicilio. Sólo
en algunos casos (por ejemplo, preparar alimentos) se
requiere una combinación más compleja de elementos
tecnológicos y sensores.
2. Los usuarios frágiles aceptan y entienden que, el
uso de la tecnología, es capaz de proporcionar beneficios
y ayudas a su vida diaria.
3. Cuando se produce una incidencia en la vida del
usuario se observan modificaciones en un buen número
de actividades previamente a que se produzca la
incidencia. Las más significativas son: nivel de actividad
diario, patrones generales de actividad
regulares,
tiempo de descanso nocturno y fragmentación de dicho
descanso, solapamiento en actividades diurnas y
nocturnas, mayor presencia en la cocina y nivel de
actividad externa al domicilio.
4. La combinación del uso de los dispositivos
tecnológicos domiciliarios permite un excelente uso
preventivo de las observaciones de hábitos en la vida
diaria.
5. La metodología aplicada a este estudio es
potencialmente aplicable a planteamientos similares en
otros segmentos de usuarios.
El detalle de impacto de las incidencias en la vida diaria
de los usuarios permite, además, el establecimiento de hasta
11 alarmas preventivas a implantar a partir del servicio de
Teleasistencia Domiciliaria:
1. Desviación en el índice de actividad personal
por encima del 20% respecto al valor promedio habitual
del usuario.
2. Desvío en el perfil estadístico de activaciones
por encima del 20% del valor habitual del usuario.
3. Descanso nocturno inferior a 8 horas o superior
a 10 horas.
4. Permanencia en sofá o sillón más allá de 6 horas
diarias.
5. Fragmentación del sueño más allá de un 20%
sobre el valor personal habitual.
6. Actividad nocturna, fuera del recinto del
dormitorio, más allá de 30 minutos.
7. En personas con actividad externa al domicilio,
reducción de las salidas domiciliarias a menos de 2
semanales o por un período inferior a 30 minutos.
8. Más de 7 períodos de continencia diarios por
más de 7 minutos cada uno o más de 50 minutos
acumulados diarios.
9. Menos de 3 períodos de continencia diarios, por
menos de 3 minutos cada uno de ellos, o por un período
acumulado inferior a 15 minutos diarios.
10. Reducción de los períodos de aseo a uno o
ninguno diario.
11. Presencia frecuente en cocina, no relacionada
con la alimentación, especialmente en horario nocturno.
Uno de los elementos fundamentales en este estudio era
la posibilidad de proponer una fórmula específica para
poder ampliar el uso de esta infraestructura a una escala
mayor dentro de la aproximación de observación de hábitos
a partir de un sistema de Teleasistencia Domiciliaria o, en
general, a partir del despliegue de Teleservicios
sociosanitarios. Los criterios a utilizar para proponer un kit
tecnológico domiciliario mínimo son los siguientes:
•
No intrusión de los componentes tecnológicos en
la vida de la persona.
•
Estabilidad de los componentes y mantenimiento
requerido mínimo.
•
Cobertura de más del 80% de la actividad diaria de
la persona.
•
Tecnología básica y estándar en el mercado
(posibilidad de conexión a través de protocolos estándares
de la industria).
•
Mínimo coste, evitando los dispositivos más caros
o más complejos.
De acuerdo a la experiencia de este proyecto podemos
decir que el 80% de mínimo de actividad diaria
monitorizable se puede conseguir a través de los siguientes
periféricos:
•
Dispositivo de presencia en dormitorio.
•
Dispositivo de presencia en salón.
•
Dispositivo de presencia en cocina.
•
Dispositivo de presencia en baño.
•
Dispositivo de contacto en cama.
•
Dispositivo de contacto en sillón.
•
Dispositivo apertura de puerta del domicilio.
Con estos 7 dispositivos podemos cubrir, según los
resultados del estudio, entre el 85% y el 90% de la
actividad diaria (por encima del nivel objetivo de diseño
situado en el 80%).
8. Referencias
[1]. Bengoa R, Nuño R. Curar y cuidar. Innovación en la
gestión de enfermedades crónicas: una guía para avanzar.
Elsevier, 2009.
88
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[2]. Brownsell S. et al: “A systematic review of lifestyle
monitoring technologies”. Journal of Telemedicine and Telecare
2011.
[3]. Brownsell S. et al: “A review of behavioural monitoring
methods and recommendations for future use”. Gerontechnology
Journal 2010
[4]. Brownsell S. et al: “Developing a Systems and
Informatics based approach to lifestyle monitoring within
eHealth”. IEEE Int. Conf. o n Healthcare Informatics, Imaging
and Systems Biology 2011
[5]. Eusko Jaurlaritza 2010: Estrategia para abordar el reto
de la cronicidad en Euskadi
[6]. FMC “Formación médica continuada en atención
primaria: Atención a los síntomas frecuentes en el anciano (Parte
1, 2 y 3)”. Programa de actualización en Medicina de Familia y
Comunitaria (2011-2012).
[7]. Glascock A and Kutzik D: “The impact of behavioral
monitoring technology on the provision of health care in the
home”. J. Univers. Comput. Sci.,12, 2006
[8]. Helal S: “Domotics and robotics supporting for seniors”.
Gerontechnology Journal 2010
[9]. Innobasque 2012: Envejecimiento y n uevos servicios de
atención en domicilio
[10].Kaye J. et al: “Deploying wide-scale in-home
assessment technology”. Technology and Aging 2008
[11].C. Lalive d'Epinay, J.-F. Bickel, C. Maystre, N.
Vollenwyder : Vieillesse au fil du temps: une révolution tranquille,
Réalités sociales, Lausanne, 2000.
[12].Litz L and Gross M: “Covering assisted living key areas
based on home automation sensors”. IEEE Int. Conf. On
Networking Systems and Control 2007.
[13].Martin T et al: “Fuzzy ambient intelligence for next
generation Telecare”. IEEE Int. Conf. On Fuzzy systems 2006
[14].NacionesUnidas (2002): Informe sobre la Segunda
Asamblea Mundial sobre el envejecimiento
[15].Sixsmith A et al.: “Monitoring the well-being of older
people”, Topics in Geriatric Rehabilitation, 23, 2007
[16].Virone G and Sixsmith A: “Ambient assisted living and
in-home activity monitoring”. Gerontechnology Journal 2010
[17].Weiser M et al: “The origins of ubiquitous computing
research at PARC in the late 1980’s”. IBM Systems journal 1999
[18].Wild K, Boise et al:. « Unobtrusive In-Home Monitoring
of Cognitive and Physical Health: Reactions and Perceptions of
Older Adults”. Journal of Applied Gerontology 2008
89
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Medios de pago para todos: TPV accesible
Begoña Pino, Mª Dolores Sánchez, Zaida Sancha
Redsys S.L.
[email protected], [email protected], [email protected]
Resumen
Redsys tiene la voluntad de construir un m undo más
accesible a t ravés de los medios de pago. El proyecto
presentado aquí es un primer paso dado en esa dirección. A
través de un s istema acústico incorporado a los TPV de
pago se indica al usuario que la tarjeta ha sido leída, que
debe introducir el pin y si ha habido algún error. La
adopción de esta solución incrementa la autonomía y la
seguridad de las personas ciegas a la hora de pagar en un
comercio.
Abstract
Redsys is aiming to build a more accessible world
through payment systems. The project presented here is a
first step in that direction. Through a sound system built
into the POS payment tells the user that the card has been
read, you must enter the PIN and if there has been an error.
The adoption of this solution increases the autonomy and
security of blind people when paying at retail.
1. Introducción
Desde Redsys, como empresa líder en medios de pago,
tenemos la voluntad de ser sensibles a las necesidades de
todos los usuarios, incluyendo a aquellos con discapacidad
visual, los cuales suman 285 millones de personas en el
mundo [1]. Por ello hemos llevado a cabo un análisis
exhaustivo de los requerimientos de uso de los TPV y
hemos buscado soluciones de accesibilidad que sean viables
técnicamente mientras cumplen con la normativa vigente.
Más aún cuando no solamente mejoran la calidad de vida de
este colectivo, sino que también los hace más accesibles
para el resto de los ciudadanos, especialmente aquella parte
de la población con restos de visión.
Hay cerca de 75000 afiliados a la ONCE [2], todos
potencialmente usuarios de tarjetas de pago y la población
con visión reducida es mucho mayor, aunque no esté
cuantificada. Además entre 1000 y 2000 asociados tienen
negocios que requieren cobro con tarjeta [2]. Una parte de
estos asociados dispone de smartphones, tendencia que
sigue en aumento. Por ello, Redsys ha desarrollado, en
colaboración con la ONCE, unas nuevas especificaciones
que facilitarán el uso de los TPV a personas ciegas. A partir
de este momento, los fabricantes incorporarán un sistema
acústico en los productos finales que desarrollen y éstos
cumplirán con las especificaciones funcionales del TPV de
Redsys.
Actualmente nuestro objetivo, es dar a conocer dichos
avances y contribuir a su estandarización, incluso más allá
de nuestras fronteras, mejorando la accesibilidad de los
dispositivos de medios de pago que gestionamos.
También estamos trabajando en la elaboración de un
manual que incluya no sólo nuevos diseños adaptados a los
nuevos dispositivos móviles, sino criterios de usabilidad y
accesibilidad, para asegurar que los nuevos productos sean
accesibles desde el principio. Es mucho menos costoso
diseñar un producto accesible que adaptar uno que no lo es.
Aunque intentamos dar respuesta en un primer ciclo a
las necesidades de los usuarios ciegos, como pueden ser el
pago en terminales no atendidos o la posibilidad de cobrar
de manera autónoma, nos planteamos también atender a las
necesidades de usuarios con otros perfiles en futuros ciclos.
En esta línea, Redsys aspira a ser un referente de
accesibilidad en el mercado de los medios de pago.
2. Dificultades en medios de
pago
Desde Redsys la intención de atender las necesidades de
los usuarios ciegos y con visión reducida, está únicamente
limitada por la viabilidad técnica y económica, además de
normativa.
Las dificultades más apremiantes de los usuarios con los
medios de pago corresponden a los siguientes escenarios:
• En las compras de títulos de transporte, aunque los
terminales son ya bastante accesibles, el momento
de pago es complicado. A la hora de pagar, el
usuario no tiene forma de saber si la tarjeta da
algún error, en qué momento pide el pin o si el pin
es incorrecto. Ahora mismo, muchos usuarios
utilizan un método de ensayo y error: cuando
transcurre un tiempo prudencial introducen el pin,
y si al final obtienen su ticket, cabe deducir que la
operación ha sido correcta. Hay muchos otros
productos y servicios que utilizan este tipo de
terminales no atendidos, pero para los usuarios
ciegos la compra de billetes de transporte es de
especial importancia para la autonomía personal.
• En las compras en comercios, los usuarios dependen
de que el vendedor introduzca el importe correcto
y entregue el TPV al usuario para introducir el pin,
en el momento en que se requiere. Es posible
introducir el pin correcto gracias a la identificación
del número 5 mediante un punto en relieve. No es
posible verificar el importe. Tampoco se puede
estar seguro de que el pin no queda a la vista en
90
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
caso de ser introducido en otra fase de la operación
(como la introducción del importe, por ejemplo).
El caso de los TPV táctiles es aún más complejo ya
que no tiene referencias táctiles.
• También se da el caso de muchas personas ciegas
que gestionan negocios propios y no pueden cobrar
con tarjeta al no poder seguir toda la operativa.
•
El uso de cajeros presenta diversos desafíos: desde
saber si está operativo o no; identificar la operativa
deseada; identificar dónde se debe pulsar. Sucede
lo mismo que en los TPV, cuando se logra
introducir la tarjeta, saber el momento de
introducir el pin, que todo es correcto, etc. Ahora
mismo, los usuarios memorizan las secuencias de
las operaciones más frecuentes, pero cuando la
entidad cambia el menú, esta secuencia ya no es
válida. Los Jack de audio disponibles en muchos
cajeros no son utilizados por las aplicaciones de las
Entidades, y la tendencia hacia lo táctil en
detrimento de teclados y botones también dificulta
el acceso.
• Cuando la tarjeta se introduce de manera incorrecta,
el terminal impide el acceso completo, pero esto
también sucede cuando un cajero está fuera de
servicio, por lo que se desconoce el motivo del
error. Se necesita una fórmula para garantizar que
la tarjeta se introduce en la dirección correcta, de
tal manera que si no entra se debe a que el
dispositivo está fuera de servicio. Algunas
entidades resuelven este punto con una muesca en
el lateral de la tarjeta que indica la dirección
correcta, pero esta solución no está estandarizada
ni es obligatoria.
3. TPV pago accesible
En este documento se describe la solución propuesta por
Redsys para facilitar una mayor autonomía y seguridad a los
usuarios ciegos durante sus pagos con TPV. Dicha solución
es la definición de unas especificaciones que incluyan un
código de pitidos, descrito a continuación, y que se irá
desplegando gradualmente en todo el parque de TPV
certificado por Redsys.
El proceso de pago más habitual requiere primero la
introducción del importe, luego la tarjeta, y el pin a
continuación. Si la operación es aprobada se emite un ticket
al final.
3.1 Validación técnica
Tras analizar las dificultades y la normativa actual se
solicita a los principales fabricantes de TPV que realicen
unas versiones demostrativas que incorporen un código de
pitidos indicando la lectura correcta de la tarjeta, la petición
de pin, y la ocurrencia de un error.
Un equipo de técnicos de la ONCE valoró esta primera
versión y recomendó que todos los pitidos de acciones
realizadas correctamente, aceptadas, utilicen tonos agudos y
se dejen las graves para las acciones incorrectas
(operaciones denegadas,...) que parece más intuitivo de cara
al usuario.
Es necesario tener en cuenta que, a la hora de
definir los tonos adecuados para cada punto de la
transacción, existe normativa internacional vigente que debe
cumplirse.
Además, es necesario puntualizar que el sonido
resultante en cada uno de los prototipos depende del
hardware de cada equipo, así que no suenan igual los pitidos
aunque la especificación sea la misma. Pero según los
técnicos de la ONCE, esto no supone ninguna dificultad o
problema.
3.2 Validación de usuarios
Una vez incorporadas las recomendaciones de los técnicos
de la ONCE, se lleva a cabo en la Delegación Territorial de
ONCE en Madrid una dinámica de usuarios para evaluar la
solución.
De los 9 participantes convocados, dos tienen resto visual, y
7 no tienen resto. Se trata de dos personas jubiladas, un
estudiante en prácticas y el resto, trabajadores en activo.
Cinco son mujeres y cuatro hombres.
En un primer intercambio de experiencias se identifican dos
situaciones mayoritarias:
• Los usuarios que rehúyen del uso de los TPV e
intentan hacer estos pagos en metálico.
• Usuarios que utilizan los TPV asumiendo riesgos
como es el de no identificar el teclado con
facilidad para teclear los números y, en la mayoría
de estos casos, solicitar al dependiente que está
atendiendo al afiliado, que teclee el OK para
aceptar la inserción del PIN.
Todos coincidían en que los TPV táctiles son imposibles de
usar.
Se realizaron a continuación diversas pruebas con las
siguientes casuísticas:
• tarjeta PIN válido y operación finalizada con éxito.
• PIN no válido.
• PIN válido y operación rechazada.
• Operación correcta sin solicitud de PIN.
3.3 Conclusion es
Tras la realización de estas pruebas los usuarios manifiestan
las siguientes conclusiones:
• Este sistema aportaría mayor seguridad y autonomía
a los usuarios finales.
• La secuencia de pitidos en la que se solicita en PIN
de forma reiterada en caso de que este sea no
válido es fundamental.
• Los usuarios que hasta ahora son reticentes al uso de
estos terminales, estarían dispuestos a utilizarlos.
91
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
4. Especificaciones:
Tutorización mediante tonos
del interfaz para el titular en el
TPV de Redsys
4.1. Descripción de la operativa
El objeto de esta sección es definir la tutorización
mediante sonidos (sistema de pitidos) en el terminal para la
operativa con tarjeta en el TPV.
• El terminal deberá ser capaz de emitir sonidos en
tonos audibles.
• El volumen de los sonidos emitidos por el terminal
deberá situarse en un nivel apropiado para que el
titular pueda oírlos.
• La cadena de sonidos emitida por el terminal es
utilizada para indicar el progreso de la transacción,
para indicarle al titular si el resultado de los
procesos es satisfactorio o no y para indicar cuándo
deben introducirse datos en el terminal (PIN).
• Los sonidos definidos en la operativa deben ser
claramente distinguibles entre ellos y de
cualesquiera otros que utilice el terminal.
Se definen a continuación los siguientes tonos que el
terminal deberá incorporar en la operativa:
• Tono para tarjeta leída correctamente: será un solo
pitido con una frecuencia de, aproximadamente
1500 Hz, forma de onda sinusoidal y una duración
de aproximadamente 500 ms.
• Tono de proceso correcto: será un pitido con una
frecuencia de, aproximadamente 2000 Hz, forma
de onda sinusoidal y:
o Para el proceso de tecleo del PIN y si el
PIN tecleado ha sido correcto, un tono
largo, una duración de aproximadamente
500 ms.
o Si la transacción se ha aceptado, un tono
corto, una duración de aproximadamente
200 ms.
• Tono de entrada de datos (tecleo del PIN): el tono
de entrada de PIN será un pitido triple con una
frecuencia de, aproximadamente 2000 Hz, forma
de onda sinusoidal y una duración de
aproximadamente 200 ms. El intervalo entre los
tres pitidos será de aproximadamente 200ms.
• Tono de alerta: el tono de alerta será un pitido
doble con una frecuencia de, aproximadamente 750
Hz, forma de onda sinusoidal y una duración de
aproximadamente 200 ms. El intervalo entre los
dos pitidos será de aproximadamente 200 ms.
• Tono para la pulsación de teclas: no se especifica
la frecuencia y duración de estos sonidos pero se
tendrá en cuenta que deben ser claramente
distinguibles de los otros tonos definidos en la
operativa y que será igual para todas las teclas no
permitiendo distinguir los diferentes dígitos que se
tecleen.
• Tono para aviso de tarjeta olvidada en el lector: no
se especifica la frecuencia y duración de este aviso
pero se tendrá en cuenta que debe ser claramente
distinguible de los otros tonos definidos en este
manual.
Deberá tenerse en cuenta que el terminal emitirá durante
la transacción únicamente estos tonos y ningún otro que no
se haya especificado.
5. Próximos pasos
Redsys se ha comprometido con hacer sus dispositivos
más accesibles y los próximos proyectos incluyen una
aplicación de TPV Móvil accesible, y garantizar la
accesibilidad de sus aplicaciones para móviles mediante el
uso de un manual de estilo, accesibilidad y usabilidad
corporativo. Otro de los proyectos prioritarios es abordar la
accesibilidad de los terminales no atendidos, para facilitar la
adquisición de billetes de metro o tren.
6. Conclusiones
Las especificaciones descritas aquí son una manera
sencilla de incrementar la autonomía y seguridad en los
pagos con tarjeta para las personas ciegas. Es necesario que
se conozcan y apliquen de manera estandarizada, para lo
cual deben darse a conocer más allá del entorno de
operación de Redsys.
7. Agradecimientos
Este trabajo ha sido posible gracias a la colaboración de
CIDAT y la Dirección de Autonomía Personal de ONCE.
8. Referencias
[1] Organización Mundial de la Salud (OMS). Blindness.
Recuperado
el
9
de
Mayo
de
2013,
de
http://www.who.int/blindness/en/
[2] Fundación ONCE. Hacemos historia. Recuperado el 9 de Mayo
de 2013, de http://www.once.es/new/que-es-la-ONCE/brevehistoria/imagina-todo-lo-que-podemos-hacer-juntos
92
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Means of payment for all: accessible POS
Begoña Pino, Mª Dolores Sánchez, Zaida Sancha
Redsys S.L. [email protected], [email protected]
Abstract
Redsys aims to build a more accessible world
through means of payment. The project presented here
is a first step in that direction. By means of a be ep
system, the payment device informs the user of those
transaction steps that require his/her attention:
- Card has been successfully read.
- Personal Identification Number (PIN) must be
entered.
- Transaction successfully processed.
- Transaction not completed due to an error.
The adoption of this solution increases the
autonomy and security of blind people when paying at
retail.
1. Introduction
At Redsys, a leader in means of payment in Spain,
we have the will of being sensitive to the needs of all
our users, including those with visual impairment, 285
million people worldwide [1]. Therefore, we have
carried out a thorough analysis of the use requirements
of our POS and looked for accessibility solutions that
are technically viable while meeting current
regulations. Moreover, it does not only improve the
quality of life of this group, but it also makes them
more accessible to the rest of the citizens, especially
that part of the population with vision remains.
There are about 75,000 ONCE’s [2] members, all
potential users of payment cards, and the sighted
population is much higher, although not quantified.
Between 1000 and 2000 of them also own businesses
that require card payment [2]. Some have smartphones,
a trend that continues growing. So Redsys has
developed, in collaboration with ONCE, new
specifications that facilitate the use of POS to blind
people. From now on, manufacturers incorporate an
acoustic system in the final products that they develop
and these POS will meet Redsys’s POS functional
specifications.
Now, our goal is to present these developments and
contribute to its standardization, even beyond our
borders, improving the accessibility of the payment
devices that we manage.
We are also working on the development of a
manual that includes not only new designs adapted to
the new mobile devices, but usability and accessibility
criteria to ensure that every new product is accessible
from the beginning. It is more efficient to design an
accessible product than to adapt one that is not.
Although we try to respond in a first cycle to the
needs of blind users, such as unattended payment
terminals or the possibility of charging independently,
we have also considered to cater to the needs of users
with other profiles in future cycles. In this line, Redsys
aspires to be a leader in the market accessibility of
means of payment.
2. Difficulties in payment
methods
At Redsys, our intention to meet the needs of users
who are blind and visually impaired is only limited by
technical and economic viability, as well as
regulations.
The most pressing user’s challenges with means of
payment are the following scenarios:
• When purchasing tickets, although terminals are
already quite accessible, the moment of payment is
complicated. At checkout, the user has no way of
knowing whether the card communicates an error,
asks for pin or the pin is incorrect. Right now,
many users use a trial-error method: when a
reasonable time elapses, they introduce the pin, and
if at the end they get their ticket, it follows that the
operation was successful. There are many other
products and services using such unattended
terminals, but for blind users buying transport
tickets is especially important for their personal
autonomy.
• When purchasing in shops, users rely on the
seller to enter the correct amount and give the POS
to the user in order to enter the pin when required.
You can enter the right pin by identifying the
number 5 by a tactile dot. Verifying the amount is
not possible. Neither can we be sure that the PIN is
not visible if it is introduced while in another phase
of the operation (such as entering the amount, for
example). The case of the touch POS is even more
complex because it has no tactile references.
• There is also the case of many blind people who
manage their own business and can not charge with
93
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
card as they can not follow the entire operation.
• The use of ATM presents several challenges:
from knowing whether it is operating or not;
identifying the desired operation; or identifying
where to press. It is the same as POS, when you
manage to insert the card, find the time to enter the
PIN, knowing that everything is correct, etc. Right
now, users memorize sequences of the most
common operations, but when the bank changes the
menu of the ATM software, this sequence is no
longer valid. The audio jack available in many
cashiers is not used by applications, and the trend,
towards touchscreens in detriment of keyboards
and buttons, also makes access even more difficult.
• When the card is inserted incorrectly, the
terminal prevents full access, but this also happens
when an ATM is out of service, thus the reason for
the error is unknown. A method is needed to ensure
that the card is inserted in the correct direction, so
that if it does not enter it is because the device is
out of service. Some entities resolve this point with
a notch in the side of the card that indicates the
right direction, but this solution is not standardized
and is not binding.
3. POS accessible payment
This paper describes the solution proposed by
Redsys to facilitate greater autonomy and security for
blind users with POS payments. This solution is the
definition of specifications that include a beep code,
described below, which will be integrated gradually
throughout the certified POS park of Redsys.
The most common payment process requires first
entering the amount, then the card, and finally the PIN.
If the transaction is approved, a ticket is issued at the
end.
3.1 Technical validation
After analysing the difficulties and current
legislation leading manufacturers of POS were asked
to perform demo versions that incorporate a beep code
indicating card correctly read, pin request, and error
occurrence.
ONCE’s technical team evaluated this first version
and recommended that all correct or accepted actions
beeps use treble tones and leave bass tones for wrong
actions (operations denied ...) which seems more
intuitive to the user.
It is necessary to note that, when defining the
appropriate tones for each point of the transaction,
there are international guidelines that must be met.
It is also necessary to point out that the resulting
sound in each of the prototypes depends on the
hardware, so no beeping sound alike although the
specification remains unchanged. But according to
ONCE’s experts, this is not a difficulty or a problem.
3.2 User validation
Once incorporated ONCE’s recommendations, a
role playing to evaluate the solution was carried out at
the ONCE’s Provincial Delegation in Madrid.
Of the 9 participants called, two have residual
vision, and 7 have no rest. These are two retirees, a
trainee and the remaining are active workers. There are
five women and four men.
In a first exchange of experiences the most
common are these two situations:
• Users who avoid using of POS and try to make
these payments in cash.
• Users who use the POS taking risks such as not
easily identifying the keyboard to type numbers
and, in most of these cases, ask the sales assistant
to type the OK to accept the insertion of the PIN.
Everyone agreed that touch POS is impossible to
use.
Then some tests were performed:
• Valid PIN card and operation completed
successfully.
• Invalid PIN.
• Valid PIN and operation rejected.
• Correct operation without PIN request.
1. 3.3 Conclusions
After these tests users expressed the following
conclusions:
• This system would provide greater security and
autonomy to end users.
• The beep sequence requesting the PIN again in
case it is not valid is a critical feature.
• Users who so far are reticent to use these
terminals would be willing to use them.
4. Specifications: Guiding the
user during a card
transaction with interface
tones in the Redsys POS
4.1. Operational description
The purpose of this section is to describe the beep
system that allows the POS to guide the user through
the different steps during a card transaction.
94
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
The POS must comply with the following previous
requirements:
• The POS must be capable of sounding audible
tones.
• The volume of the tones must be set at an
appropriate level to be heard by the user.
• The tones on the POS are used to show the
progress of the transaction to the user. Different
beeps in the terminal are used to indicate that: the
result of a process is successful; there is an error in
the process or data must be entered in the POS.
• These three different beeps in the POS must be
clearly distinguishable between them and any other
sounds used in the POS.
• The functionality must be compliant with all
international standards and requirements previously
defined by institutions and Payment Schemes for
card transactions.
The following terminal tones shall be incorporated
during the transaction:
• Card correctly read tone: it will be a single beep
at a frequency of approximately 1500 Hz,
sinusoidal waveform and approximately 500 ms
duration.
• Correct process tone: it will be a single beep at
a frequency of approximately 2000 Hz, sinusoidal
waveform and:
o If the PIN is correctly entered in the
POS, a large tone with a duration of
about 500 ms.
o If the transaction is accepted, a short
tone with a duration of approximately
200 ms.
• Tone for data requested in the POs (PIN): the
PIN entry tone will be a triple beep at a frequency
of approximately 2000 Hz, sinusoidal waveform
and duration of approximately 200 ms. Gap
between the three beeps will be about 200ms.
• Alert tone: it will be a double beep at a
frequency of about 750 Hz, sinusoidal waveform
and a duration of approximately 200 ms. The gap
between the two beeps will be approximately 200
ms.
• Tone for keystrokes: frequency and duration of
this sound is not described but it should be clearly
distinguishable from the other tones defined here
for the transaction steps and it will be the same tone
for all keys not allowing to distinguish the different
keys that can be pressed.
• Tone to alert the user that the card has been
forgotten in the reader: frequency and duration of
this alert is not described but it must be clearly
distinguishable from the other tones defined here
for the transaction steps.
• In order to make each step of the transaction
complete clear to the user, the POS must use only
the beeps and tones described above and avoid any
background sound during the transaction.
5. Next steps
Redsys is committed to make their devices more
accessible and upcoming projects include a Mobile
POS accessible application, and to ensure the
accessibility of their mobile applications by using a
manual of style, corporate accessibility and usability.
Another priority project is to address the accessibility
of unattended terminals, to facilitate the acquisition of
Metro and train tickets.
6. Conclusions
The specifications listed here are a simple way to
increase the autonomy and security in card payments
for blind people. They should be known and applied in
a standardized manner, for which should be made
known beyond Redsys operating environment.
7. Acknowledgements
This work has been possible thanks to the
collaboration of CIDAT and Dirección de Autonomía
Personal de ONCE.
8. References
[1] World Health Organization (WHO). Blindness. Retrieved
on May 9, 2013, of http://www.who.int/blindness/en/
[2] ONCE Foundation. Hacemos historia. Retrieved on May
9, 2013, of http://www.once.es/new/que-es-la-ONCE/brevehistoria/imagina-todo-lo-que-podemos-hacer-juntos
95
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Evaluación de una plataforma de estimulación
cognitiva multiparticipante y basada en dispositivos
táctiles
Víctor Peláez, Sonia García, Roberto González, Luis Ángel San Martín, Vanesa Lobato
Departamento de I+D+i, CTIC Centro Tecnológico
{victor.pelaez, sonia.garcia, roberto.gonzalez, luisangel.sanmartin, vanesa.lobato}@fundacionctic.org
Enrique Pérez, Mieria Tofiño
Centro de referencia estatal de atención a personas con enfermedad de Alzheimer y otras demencias del
IMSERSO
{neuropsicologocrea, mtofiñog}@imserso.es
Resumen
Durante los últimos años se ha puesto de manifiesto la
utilidad de las terapias no f armacológicas para el
tratamiento del Alzheimer y otros trastornos cognitivos. A
pesar de la existencia de diversas soluciones, los
principales problemas que plantean estas terapias son la
motivación de los usuarios en su utilización y su
adherencia. Este trabajo presenta un nue vo sistema de
estimulación que combina sus beneficios con las terapias
intergeneracionales y las redes sociales mediante el uso de
tecnologías de la información y la comunicación. El
objetivo es mejorar la motivación de las personas de
avanzada edad en el uso de las terapias de estimulación
cognitiva. Además de presentar el diseño tecnológico del
sistema, este trabajo recoge las conclusiones de viabilidad
técnica y usabilidad del prototipo implementado y evaluado
con pacientes reales. Los resultados arrojan conclusiones
prometedoras en cuanto al uso de este tipo de sistemas en
pacientes con un grado leve de deterioro.
Abstract
The utility of non-pharmacological therapies for the
treatment of Alzheimer's and ot her cognitive disorders has
been proved in last years. Despite the existence of several
solutions, the main problems posed by these therapies are
the user's motivation and continuity of use. This paper
presents a new stimulation system that combines its benefits
with intergenerational therapies and s ocial networks
through the use of information and c ommunication
technologies. The main objective is to improve the
motivation of the older people in the use of cognitive
stimulation therapies. In addition to presenting the
technical design of the system, this paper gathers the
findings of technical feasibility and usability of the
prototype implemented, which has also been evaluated with
real patients. Results show promising conclusions about the
use of these types of systems by patients suffering from mild
levels of dementia.
1. Introducción
En los últimos años se ha puesto de manifiesto la
utilidad de las terapias no farmacológicas para el
tratamiento del Alzheimer y otros trastornos cognitivos [1].
Las diferentes soluciones desarrolladas a lo largo de los
años permiten a las personas con alguno de estos trastornos
ejercitar diferentes funciones cognitivas empleando juegos
sobre diferentes soportes: fichas en papel, pantallas táctiles,
plataformas Web, aplicaciones interactivas de televisión
digital, mesas multitáctiles o Tablets.
A pesar de la existencia de diversos productos y
servicios comerciales algunos de los principales problemas
que plantean estas terapias son la motivación de los usuarios
en su utilización y su adherencia. En la actualidad este tipo
de terapias son empleadas de manera mayoritaria dentro de
los centros de atención de este tipo de patologías.
En paralelo la investigación en terapias no
farmacológicas ha evolucionado también hacia los
conceptos de interacción social e intergeneracional. De este
modo se pretende potenciar la interacción de personas que
sufren algún tipo de deterioro cognitivo con otras personas
en la misma situación, terapeutas u otros agentes en el
sistema de atención. El objetivo es que dicha interacción
social les pueda motivar y ayudar en su proceso terapéutico.
Como especialización de dicha interacción social, las
intervenciones intergeneracionales persiguen el desarrollo
de terapias en las que la interacción entre personas de
diferentes grupos de edad es un factor clave para mejorar la
calidad de vida de dichas personas [2].
Este trabajo presenta un sistema que combina los
beneficios de las terapias de estimulación cognitiva basadas
en juegos terapéuticos con las terapias intergeneracionales y
las redes sociales mediante el uso de tecnologías de la
información y la comunicación. El objetivo es que el uso de
redes sociales para poner en contacto diferentes
generaciones mejore no sólo la motivación de las personas
de avanzada edad en el uso de los juegos de estimulación
cognitiva, sino los efectos de dichos juegos. El sistema
cuenta con una plataforma de juegos de estimulación
cognitiva multijugador que puede ser empleada en uno de
96
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
sus extremos por jóvenes mediante algún tipo de red social
y en otro por familiares de avanzada de edad mediante
algún soporte de uso sencillo como un Tablet.
Se presenta el diseño técnico de la plataforma, las
principales consideraciones de usabilidad tenidas en cuenta
durante el diseño de la interfaz de usuario y una primera
evaluación del sistema con pacientes reales. Dicho sistema
ha sido desarrollado en el marco del proyecto COGNIGEN
(Sistema de estimulación cognitiva multiparticipante con
interacción intergeneracional), financiado parcialmente por
el Instituto de Mayores y Servicios Sociales (IMSERSO)
dentro del Plan Nacional de Investigación Científica,
Desarrollo e Innovación Tecnológica 2008-2011, referencia
222/2011.
Tras este primer apartado de introducción se presenta en
(2) una recopilación de herramientas y sistemas empleados
para la estimulación cognitiva. En (3) se describe la
propuesta de sistema de estimulación cognitiva. En (4) se
describe el tipo de juego desarrollado, mientras que en (5)
se muestran las consideraciones de usabilidad tenidas en
cuenta a la hora de diseñar la interfaz de usuario. En (6) se
especifican las funcionalidades de las que consta el sistema.
A continuación, en (7) se presenta el proceso de evaluación
con pacientes reales cuyos resultados son posteriormente
discutidos en (8) para finalizar en (9) con las conclusiones y
trabajos futuros.
2. Sistemas de estimulación
cognitiva mediante tecnologías
de la información
Las plataformas de estimulación cognitiva más
populares y usadas en la actualidad en los centros
asistenciales incluyen un variado conjunto de juegos.
Algunos de los más populares son: Gradior [3], Feskits [4],
Brain Fitness [5], Cognifit/MindFit [6], My Brain Trainer
[7], Brain Age [8], Dakim [9]. Más allá de los productos
comerciales o bien establecidos en el mercado, parte de la
investigación realizada en España y Europa en los últimos
años se centró en desarrollar plataformas de juegos en otros
soportes más sencillos de usar por las personas de avanzada
edad. Entre dichos proyectos podemos destacar los
siguientes:
• Entrena tu mente [10], herramienta de estimulación
cognitiva diseñada para ser empleada mediante un
entorno Web y en televisión mediante el uso de un
receptor de televisión digital interactivo.
• Definición de un sistema inteligente para la
estimulación cognoscitiva de enfermos de Azlheimer a
través de la televisión digital terrestre [11]. Dentro de
este proyecto se diseñó una plataforma de estimulación
cognitiva basada en juegos terapéuticos especialmente
orientados a su uso mediante una aplicación de
televisión digital terrestre.
• Elder Games [12]. Dentro de este proyecto europeo se
desarrolló un prototipo de mesa interactiva de juegos
con fines terapéuticos y especialmente diseñada para
personas ancianas. El funcionamiento de dicho
dispositivo es similar al del actual Surface de
Microsoft.
Independientemente de que los diferentes productos o
resultados de los proyectos de investigación hayan obtenido
una herramienta más o menos usable por los usuarios
finales o en uno u otro soporte (pantalla táctil, ordenador,
televisión digital, videoconsola, etc.) ninguno de estos
sistemas contempla la interacción social entre los usuarios o
entre personas de diferentes generaciones.
Uno de los primeros trabajos exitosos en el campo de los
juegos intergeneracionales empleando las tecnologías de la
información y la comunicación fue el propuesto por Khoo et
al [13] en 2006. En dicho juego personas de avanzada edad
comparten un espacio físico con niños o jóvenes mientras
juegan a un juego denominado “Age Invaders” empleando
un entorno de realidad aumentada mediante el uso de un
suelo especial. Aunque desde el punto de vista terapéutico
el juego incidía en aspectos sociales, físicos, cognitivos y
sicológicos de las personas ancianas, el tipo de juego
implementado (basado en disparar entre los participantes)
no fue validado desde el punto de vista terapéutico.
Más recientemente el proyecto europeo Sociable [14]
plantea el uso de mesas multitáctiles, como Microsoft
Surface, y Tablets para el desarrollo de una plataforma de
juegos de estimulación cognitiva que al mismo tiempo
permita interconectar los hogares de los usuarios y los
centros de atención, creando de este modo una red social
entre los diferentes agentes y los usuarios. Además de en el
desarrollo de juegos de estimulación cognitiva, el proyecto
hace hincapié en la interacción social pero sin incidir
específicamente en la interacción entre diferentes
generaciones.
Otro factor a tener en cuenta es que en algunos intentos
de acercar a las personas de avanzada edad a las redes
sociales, se han intentado desarrollar redes sociales a
medida en lugar de fomentar la inserción de los usuarios en
las ya existentes a nivel mundial (Facebook, Tuenti,
MySpace, etc.). Los estudios realizados al respecto revelan
que las personas mayores no emplean las redes sociales ya
existentes no por falta de conocimientos técnicos, sino por
desinterés [15]. Si además se tiene en cuenta que los últimos
datos sobre el uso de redes sociales indican que el 77% de
los usuarios de internet en España emplean Facebook con
más de 5 horas de uso al mes [16], queda de manifiesto que
cualquier intento de acercar las redes sociales a las personas
de avanzada edad tiene que pasar por el acercamiento a las
redes existentes en la actualidad.
3. Descripción
propuesto
del
sistema
En la Figura 1 se muestra un esquema de la
arquitectura de la plataforma, con sus componentes y los
distintos perfiles de usuario que intervendrán.
97
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
desarrolló siempre pensando en el grupo de los pacientes, ya
que serán los que aportan las principales restricciones de
diseño.
A continuación se detallan los principales escenarios que
contempla la plataforma de juegos y que están recogidos en
el diagrama de casos de uso de la Figura 2. En estos
escenarios varía el número de participantes, perfil de los
participantes y el dispositivo utilizado en el juego.
Figura 1: Esquema general del sistema
Existen dos tipos de clientes, destinados a los dos tipos
de dispositivos contemplados en el sistema.
El cliente de juego para Tablet permite, además del
juego en sí mismo, el resto de tareas que deban realizarse
como paso previo al juego (identificación del usuario,
selección de los posibles oponentes, etc.).
El cliente de juego para red social es una aplicación que
se ejecuta en un PC o dispositivo similar a través de un
navegador web, utilizando las ventajas de alguna red social
para su alojamiento e identificación de usuarios. Las
funcionalidades de esta aplicación son las mismas que las
de la aplicación que se ejecuta en el Tablet. La mayor
diferencia existente entre ellas es el modo de uso de las
mismas (táctil en el caso del Tablet y con el ratón y/o
teclado en el caso del cliente de la red social).
Las dos aplicaciones cliente deben comunicarse entre sí
para poder utilizar la funcionalidad multijugador de la
plataforma. Para ello se desarrolló una tercera aplicación
que hace la función de servidor de juegos. Se trata de un
servicio transparente para los usuarios finales de la
plataforma de juegos, pero que está en permanente
comunicación con las dos aplicaciones de tipo cliente
existentes. Su principal cometido es el de servir de
intermediario entre los clientes para informar del estado del
juego a ambas partes, y que éste sea siempre consistente. Es
además el encargado de generar y transmitir los juegos a los
clientes, además de almacenar la información necesaria para
que los terapeutas puedan realizar un seguimiento de los
pacientes.
Existen tres tipos de perfiles de usuario principales:
• Pacientes con algún tipo de demencia diagnosticada: Se
trata del principal grupo de usuarios al que va dirigida
la aplicación.
• Familiares de los pacientes: se trata de familiares u otro
tipo de personas en el entorno del paciente que deseen
utilizar la plataforma de juegos como parte de este
proyecto para apoyar a los mismos.
• Profesionales: los terapeutas pueden utilizar la
plataforma de juego como parte de sus sesiones con los
usuarios y como un instrumento terapéutico más.
Si bien las características de estos 3 tipos de usuarios
son diferentes entre sí, la plataforma de juegos no ofrece
contenidos diferentes dependiendo del perfil del usuario. Es
decir, si un paciente utiliza un Tablet lo hará con la misma
interfaz y con las mismas opciones que si lo hace un
terapeuta o un familiar. Esto es debido a que la interfaz se
Figura 2: Escenarios de uso de la plataforma
4. Juego de estimulación
A lo largo de todo el proyecto se contó con la
colaboración de profesionales del Centro de Referencia
Estatal de Alzheimer y otras demencias del IMSERSO en
Salamanca (CRE-Alzheimer), siendo esta colaboración
especialmente importante para las etapas de definición de
requisitos y de evaluación.
El equipo de terapeutas de este centro sugirió que el
juego a desarrollar sirviera para potenciar las capacidades
de la memoria. Dentro de los posibles juegos existentes,
propusieron un juego consistente en destapar parejas de
cartas con el objetivo de encontrar parejas de imágenes
iguales.
El motivo de esta elección es que en el centro se realiza
este mismo juego con fichas o cartas físicas y se cree que
sería útil disponer de este juego en formato electrónico. Se
trata, además, de un juego con una dinámica simple que se
adapta bien tanto al juego en solitario como al juego en
parejas.
Aunque el prototipo actual del sistema de estimulación
sólo dispone de este tipo de juego, el diseño de la
arquitectura de la plataforma soporta que en el futuro
pudiera ampliarse con más tipos de juegos.
5. Interfaz de usuario
Teniendo en cuenta las capacidades especiales de los
usuarios finales de la plataforma de estimulación, se ha
prestado especial atención al diseño de la interfaz para que
sea lo más usable posible [17][18].
La etapa de diseño de la interfaz de usuario de la
plataforma de juegos tuvo en consideración tanto guías de
usabilidad como las opiniones de los profesionales
sanitarios involucrados en el proyecto COGNIGEN.
Teniendo en cuenta los usuarios potenciales de la
aplicación, el principal requisito de diseño fue la
simplicidad. En los siguientes párrafos se detallan algunas
98
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
de las decisiones más importantes llevadas a cabo durante
esta fase de diseño.
Aspecto general: La interfaz se ha simplificado al
máximo para evitar las distracciones (muy comunes en este
tipo de usuarios) y se fomenta que el usuario preste atención
a las partes que realmente contienen la información o con
las que necesita interactuar. Así, se evita el uso de efectos
visuales meramente decorativos, como animaciones,
elementos en movimiento, etc.
Consistencia: La aplicación está formada por varias
pantallas, con diferentes elementos y funcionalidades en
cada una de ellas. Sin embargo, aunque sean distintas entre
sí, tienen un estilo común, de modo que el usuario pueda
establecer una continuidad entre ellas. Este estilo viene
determinado, entre otros elementos, por el fondo, la
combinación de colores de los elementos, el tipo de texto o
el posicionamiento de determinados elementos comunes en
las diferentes pantallas.
Navegación: La navegación por las diferentes pantallas
de la aplicación se realiza de manera sencilla y clara, de
forma que la propia aplicación guíe al usuario. La transición
entre pantallas es consistente a lo largo de toda la
aplicación, es decir, que si un botón u otro elemento
produce un cambio de pantalla en un momento dado, ese
mismo botón debería realizar esa misma acción siempre que
se pulse.
Colores: La combinación de colores utilizada a lo largo
de la aplicación determina en gran medida la legibilidad de
la interfaz por parte de los usuarios. Ha de tenerse en cuenta
que con la edad, además de las frecuentes pérdidas en la
calidad de la visión, se producen cambios en la percepción
de los colores. Estos cambios se traducen, generalmente, en
que las personas mayores ven disminuida su capacidad de
distinguir colores parecidos entre sí. Es por ello que los
diferentes elementos de la aplicación tiene colores con un
gran contraste entre ellos. Este contraste cobra especial
relevancia entre los textos y el fondo sobre el que estén
escritos, ya que para asegurar la legibilidad deberá ser el
máximo posible.
Fondo de pantalla: El fondo de la aplicación se
mantiene uniforme a lo largo de todas las pantallas para
mantener una sensación de continuidad. Se trata además de
un fondo liso para no distraer la atención del usuario. Se
distingue claramente el fondo de la aplicación de los
elementos de la aplicación propiamente dichos.
Texto: La aplicación emplea una fuente de tipo "sans
serif" ya que dispone de caracteres simples, sin excesivos
elementos distractorios o adornos que facilita al usuario
final la comprensión del mensaje que se quiere transmitir.
El texto se presenta además en un formato normal, sin
cursivas y negritas.
Feedback: Además de los mensajes de la aplicación que
sirven para indicar al usuario las tareas a realizar, existen
otro tipo de mensajes que informan del estado de la
aplicación o proporcionan mensajes de ánimo durante el
juego. Al primer grupo pertenecen, por ejemplo, los
mensajes de espera de la aplicación. Se trata de mensajes o
elementos visuales que indican que la aplicación está
realizando alguna acción que se alargará a lo largo de un
intervalo de tiempo.
Por otro lado, es importante prestar atención al estado de
ánimo del usuario mientras se encuentra jugando. Para ello
se proporcionan mensajes tanto visuales como sonoros para
potenciar un éxito y para evitar frustraciones ante fallos.
Interacción con el Tablet: La característica principal
derivada del uso de un Tablet es el modo de interacción.
Los usuarios pulsarán con los dedos sobre la pantalla para
interactuar con los elementos. Por ello, los elementos sobre
los que se pueda pulsar deben ser lo suficientemente
grandes para que el usuario tenga una zona de acción
amplia. Deben tenerse en cuenta posibles problemas como
la rigidez en los dedos o problemas en la coordinación de
movimientos, que dificultan las pulsaciones en los lugares
correctos. Los Tablets permiten varios tipos de
interacciones táctiles: pulsaciones cortas, largas, arrastrar y
soltar, separar o juntar los dedos para indicar un zoom, etc.
La aplicación no utiliza diferentes tipos de pulsaciones, sino
que se restringirse a la pulsación normal (pulsar y soltar)
para todas las acciones. Se cree que introducir diferentes
tipos de pulsaciones crearía confusión a los usuarios.
Además la interfaz de usuario responde de igual modo ante
pulsaciones prolongadas en el tiempo que ante pulsaciones
cortas.
6. Funcionalidades de
plataforma de juegos
la
En el marco del proyecto COGNIGEN se ha
desarrollado un prototipo que contempla las siguientes
funcionalidades:
Identificación: El usuario debe identificarse en el
sistema antes de empezar a jugar, ya que para poder iniciar
una partida en modo multijugador, el sistema debe
mostrarle sus posibles contrincantes y para ello necesitará
saber de qué usuario se trata. Esta identificación se realizará
utilizando las credenciales de la red social elegida. En la
Figura 3 se muestra el aspecto de la aplicación tras la
identificación de un usuario.
Figura 3: Identificación
Selección del modo de juego: El usuario puede elegir
entre jugar en solitario o contra otro usuario.
Selección del contrincante: Los posibles contrincantes
de cada usuario serán los contactos que tenga en la red
social y que estén conectados en ese momento. La
aplicación mostrará al usuario las personas que cumplan
estos criterios y el usuario podrá seleccionar contra quién
desea jugar (Figura 4).
99
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
.
del cliente de red social se accede a ellas a través de un
navegador web (Figura 6)
Figura 4: Selección de contrincante
Envío de invitación: Cuando el usuario escoja el
usuario concreto contra el que desea jugar, se enviará una
invitación hacia dicho usuario. A partir de este momento el
usuario quedará en un estado de espera hasta que su
contrincante confirme o rechace la invitación. No obstante,
el usuario podrá cancelar la invitación en cualquier
momento.
Recepción de invitación: Los usuarios que estén
conectados en el sistema pueden recibir invitaciones de
juego de otros usuarios, pudiendo aceptar o rechazar dicha
invitación. Si el usuario acepta la invitación, comenzará una
partida entre los dos jugadores.
Proceso de juego: En el modo multijugador, a los dos
usuarios se les mostrará el mismo tablero con una serie de
cartas tapadas. Se establece un proceso de turnos mediante
el cual en todo momento sólo puede interactuar con el
tablero uno de los jugadores para destapar un par de cartas.
Si el par de cartas coincide se trata de un acierto y el usuario
seguirá teniendo el turno. Si el par de cartas no coincide, el
turno pasará a su contrincante. El juego finalizará cuando se
hayan encontrado todas las parejas de cartas y el ganador
será el usuario que haya encontrado más parejas. El
funcionamiento del juego en el modo de juego en solitario
es muy similar, diferenciándose en que no existe el
concepto de turnos. La Figura 5 muestra una captura del
tablero del juego con dos parejas de cartas descubiertas y el
resto de parejas ocultas, en un juego multijugador.
Figura 6: Tablero de juego en cliente de red
social
A la hora de implementar el cliente de red social se
eligió Facebook como entorno tecnológico para desarrollar
el prototipo, ya que cuenta con un SDK para aplicaciones
web y móviles sobre la plataforma Android.
7. Evaluación
Una vez implementado el prototipo de la plataforma de
estimulación cognitiva se llevó a cabo una evaluación de la
usabilidad utilizando técnicas de observación y
cuestionarios para los profesionales sanitarios o terapeutas a
su cargo. El objetivo inicial de esta evaluación era
comprobar si el sistema resultaba fácil de usar por parte de
los usuarios, así como recoger las impresiones generales de
los terapeutas acerca de la viabilidad del sistema para la
estimulación cognitiva de los pacientes. Los objetivos
concretos de la evaluación eran:
• Determinar la usabilidad del Tablet en el colectivo de
las personas con cierto grado de demencia. Para las
pruebas se dispuso de Tablets de dos tamaños
diferentes: 7 y 10 pulgadas.
• Evaluar la experiencia de juego, es decir, averiguar si
los usuarios comprenden la mecánica del juego, el
concepto de turnos, etc.
7.1. Participantes y entorno de evaluación
Figura 5: Tablero de juego
Cabe resaltar que en el desarrollo del prototipo se ha
tenido en cuenta la personalización de diferentes aspectos
del juego que influyen directamente en la complejidad del
mismo, de modo que pueda ser adaptable al grado de
deterioro de cada usuario. Los parámetros personalizables
son el tamaño del tablero de juego (se permite un número
variable de cartas entre 8 y 16) y el tiempo de exposición
del estímulo (el tiempo durante el que se muestran las cartas
que no forman pareja antes de que se vuelvan a ocultar).
Todas las funcionalidades mencionadas se encuentran
disponibles tanto para el cliente de Tablet como para el
cliente de red social. Las pantallas son muy similares entre
ambos clientes, siendo la mayor diferencia que en el caso
Para llevar a cabo la evaluación de la plataforma, doce
personas con algún tipo de demencia fueron seleccionadas
entre los pacientes del CRE-Alzheimer de Salamanca. Dos
de estas doce personas sufrían deterioro cognitivo de grado
leve, mientras que el nivel de deterioro de las otras diez
personas podía considerarse moderado. La edad de los
participantes en el estudio variaba entre los 55 y los 90
años, con una media de 79 años y una moda de 86 años. En
la escala de deterioro global (GDS) los usuarios contaban
con valoraciones entre 3 y 5, siendo 4 el valor más habitual.
Aunque en general los pacientes seleccionados no tenían
experiencia previa en el uso de ordenadores, como parte de
su actividad dentro del CRE-Alzheimer sí que estaban
acostumbrados a realizar actividades de estimulación en
otros soportes electrónicos, como pantallas táctiles o la
videoconsola Nintendo Wii.
Las pruebas con los pacientes seleccionados fueron
llevadas a cabo en el CRE-Alzheimer, utilizando una
cámara Gesell compuesta por dos habitaciones contiguas,
100
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
con un espejo de una sola dirección entre ellas. La sala en la
que estaban los usuarios estaba equipada con una mesa
sobre la que los usuarios podían apoyar los Tablets. Un
terapeuta del CRE-Alzheimer los acompañó durante todo el
proceso para asistirlos en aquellas dudas que pudiesen tener
durante el uso del sistema. El terapeuta que asistió a los
experimentos no era siempre el mismo, sino que en el
experimento realizado participaron en total cuatro
terapeutas. La observación de los usuarios fue realizada por
el propio terapeuta que acompañaba a los pacientes y por un
grupo de investigadores
ubicados en la habitación contigua
.
(Figura 7)
Figura 7: Entorno de evaluación
7.2. Procedimiento de evaluación
Cada uno de los pacientes que participaron en la
evaluación del sistema empleó el sistema durante 15 o 20
minutos aproximadamente. El número de partidas que se
jugaron en cada sesión fue variable puesto que dependía de
la velocidad de manejo del dispositivo por parte del usuario.
Dado que los usuarios estaban acostumbrados a jugar al
mismo tipo de juegos pero en otros soportes, los terapeutas
les explicaban el uso básico del Tablet al comienzo de cada
sesión. Esta explicación incluía las principales
características de uso del sistema y la resolución del juego.
El procedimiento empleado durante las pruebas fue el
siguiente:
• Las pruebas las realizaron un máximo de dos usuarios
de manera simultánea, y cada uno de ellos estuvo
siempre acompañado por un terapeuta.
• El proceso de identificación del usuario en el sistema se
realizó por parte del equipo investigador antes de que el
usuario tuviera acceso al dispositivo. De esta manera, la
primera impresión del usuario con el dispositivo era
que le daba la bienvenida a él, ya que presentaba su
nombre y su foto.
• Si los terapeutas observaban que el usuario no era
capaz de utilizar el dispositivo manualmente, le
mostraban el uso de un lápiz especial con el que podían
pulsar sobre la pantalla.
• Debido a las características de los usuarios, se acordó
configurar el tablero con 8 cartas (es decir, se podrían
formar 4 parejas diferentes). Para algún paciente
concreto los terapeutas indicaron que se podía utilizar
el tablero completo (16 cartas para formar 8 parejas).
•
•
Los usuarios jugaron una serie de partidas con el modo
de juego en solitario con el dispositivo de 10 pulgadas.
Si el terapeuta lo consideraba oportuno, se le mostraba
el de 7 pulgadas y se le permitía jugar con él. Al
finalizar, el terapeuta le preguntaba al usuario por sus
preferencias entre los dispositivos.
Cuando los terapeutas lo consideraban oportuno,
teniendo en cuenta el conocimiento que tienen de los
pacientes y la habilidad que hubiesen mostrado en el
modo de juego en solitario, proponían que el usuario
utilizase el modo multijugador. Los usuarios podían
jugar entre ellos (en la misma sala) o contra un
terapeuta que no se encontraba físicamente en la sala
con ellos.
Durante las pruebas, el sistema recogía de manera
autónoma diversos indicadores relativos a la interacción de
los usuarios, como por ejemplo el tiempo necesario para
completar el juego, o el número de intentos en cada juego.
Al mismo tiempo, los investigadores situados en la
habitación contigua registraron otros aspectos relevantes de
la interacción de los usuarios.
Tras finalizar la evaluación del sistema con todos los
pacientes, se enviaron cuestionarios de evaluación
individuales a cada uno de los terapeutas que habían estado
presentes durante las pruebas. Se les preguntaba acerca de
sus impresiones generales respecto al sistema, diferencias
que habían observado entre niveles de deterioro leve y
moderado, etc.
7.3. Resultados del experimento
La Tabla 1 muestra los tiempos de juego medios
recogidos para cada usuario en cada tipo de dispositivo y
tamaño de juego según los experimentos realizados en
modo individual. Se indica además el nivel de deterioro
cognitivo asociado a cada usuario (leve o moderado).
De la comparación de resultados entre los juegos
desarrollados empleando el Tablet de 10” y el de 7” se
deduce que no existen diferencias significativas. Aunque la
media de tiempo de juego es de 2:33 minutos en el caso del
Tablet de 10” y de 1:52 minutos en el de 7”, la prueba t de
Student para dos muestras independientes y suponiendo
varianzas desiguales indica que no existe una diferencia
estadística significativa entre los tiempos de ambos Tablets
(Estadístico t = 2,001 – Valor crítico de t = 2,131 – P(T ≤ t)
para dos colas = 0,063).
Tabla 1. Tiempos de juego por usuario, Tablet
y tamaño de juego en modo individual.
Usuario
(Leve /
Moderado)
1 (L)
2 (M)
2 (M)
3 (M)
3 (M)
4 (M)
5 (L)
Nº
juegos
jugados
Tamaño
Tablet
(pulgadas)
Tamaño
Tablero
(fichas)
3
3
2
4
1
2
2
10”
10”
7”
10”
7”
10”
10”
8
8
8
8
8
8
8
Tiempo
medio
juego (σ)
(minutos)
2:22 (1:18)
2:39 (0:52)
2:36 (0:51)
2:14 (0:26)
1:26
4:14 (0:20)
3:03 (1:30)
101
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5 (L)
6 (M)
6 (M)
7 (M)
7 (M)
8 (M)
8 (M)
9 (M)
10 (M)
11 (M)
11 (M)
12 (M)
2
2
1
2
1
5
1
4
3
3
1
2
7”
10”
7”
10”
7”
10”
7”
10”
10”
10”
7”
10”
16
8
8
8
8
8
8
8
8
8
8
16
0:58 (0:36)
1:30 (0:31)
1:35
1:41 (1:41)
1:08
1:26 (0:32)
2:11
2:57 (0:46)
4:34 (0:22)
2:44 (0:34)
3:11
1:52 (0:06)
La Tabla 2 muestra los resultados en modo multijugador
cuando el usuario jugaba contra uno de los terapeutas. En
todos los casos se emplearon Tablets de 10”. Los resultados
muestran que los tiempos de juego aumentan
significativamente
en el caso de usuarios como el usuario
12.
Esto es debido a que el juego en modo multijugador por
turnos incrementa el tiempo necesario de memorización de
las fichas del tablero y por tanto aumenta la dificultad del
juego. Esto provoca que los tiempos de juego aumenten
significativamente en el caso de determinados jugadores en
función de su nivel de deterioro y capacidades.
Tabla 2. Tiempos de juego por usuario, y
tamaño de juego en modo multijugador.
Usuario
(Leve /
Moderado)
Nº
juegos
jugados
5 (L)
2
3 (M)
2
12 (M)
3
Tiempo
medio
juego
(minutos)
Tamaño
Tablero
(fichas)
03:56
02:34
05:18
03:44
05:40
06:01
03:29
16
16
8
8
16
16
16
Los resultados en los juegos realizados entre dos
usuarios muestran resultados similares.
7.4. Impresiones de los terapeutas
En relación a los comentarios realizados por los
terapeutas y profesionales del CRE-Alzheimer destacar que
todos ellos valoraron positivamente el sistema y
coincidieron en que podría ser utilizado para la estimulación
cognitiva, si bien puntualizaron que su uso lo
recomendarían para pacientes con un grado leve de
deterioro. El cuestionario fue cubierto por 4 terapeutas.
En primer lugar, en cuanto a la interfaz del Tablet, los
terapeutas consideran que es bastante sencilla de manejar
para los usuarios. Un 75% de ellos considera que es más
adecuado el uso del Tablet de 10 pulgadas, sin embargo en
las pruebas realizadas con los usuarios éstos no se
decantaron especialmente por ninguno. En relación a la
validez de la plataforma como complemento a las terapias
existentes y al interés que pueda tener para los usuarios el
jugar contra otra persona, el 90% de los terapeutas está
completamente de acuerdo en ambas afirmaciones. La
comprensión por parte de los usuarios de los conceptos que
conlleva el juego en modo multijugador no está tan clara
como en el caso anterior, ya que el 90% de los terapeutas
creen que los usuarios sí comprenden los conceptos, aunque
no lo afirman con total seguridad.
Para los pacientes con deterioro cognitivo leve, los
terapeutas responden con unanimidad que podrían jugar en
solitario con ayuda de un profesional. Además, el 90% de
ellos están completamente seguros de que podrían jugar
contra otra persona si están acompañados de un terapeuta.
Si no se cuenta con ayuda de un terapeuta, se sigue
considerando con bastante seguridad que los usuarios serán
capaces de jugar en solitario y con algo menos de seguridad
(un valor de 3,7 sobre 5) que serán capaces de hacerlo
contra otra persona.
En relación a los pacientes con deterioro cognitivo
moderado, los terapeutas responden con menor seguridad
(un valor de 4 sobre 5) al hecho de que puedan jugar en
solitario o contra otra persona, con ayuda de un profesional.
Por el contrario, los terapeutas consideran que el paciente
no será capaz de jugar sin ayuda (el 90% de los terapeutas le
asigna a esta afirmación un valor menor o igual a 2 sobre 5).
8. Discusión
A la vista de los resultados del experimento de
evaluación pueden extraerse una serie de conclusiones
acerca de las primeras impresiones de los usuarios con el
sistema.
Para lograr una buena experiencia de usuario fue
necesario adecuar el comportamiento de la aplicación a las
diversas formas de pulsar detectadas. Tras estos cambios,
los usuarios encuentran que la aplicación responde de
manera más adecuada. El único problema que persiste en
cuanto a la usabilidad es que a veces tienden a apoyar la
mano completamente sobre la pantalla del dispositivo. Sin
embargo, es de esperar que tras un uso más frecuente del
Tablet se acostumbren a mantener la postura adecuada.
La observación del proceso de pruebas por parte del
personal investigador permitió determinar que los usuarios
parecen sentirse cómodos usando el Tablet y entienden
fácilmente el modo de interactuar con él. Además, utilizaron
dispositivos de 2 tamaños de pantalla diferentes (10 y 7
pulgadas) y no apreciaron grandes diferencias entre ellos.
Por otro lado, para obtener conclusiones acerca de la
validez del juego como terapia será necesaria la realización
de un estudio de validación mucho más extenso en el
tiempo y que involucre a un mayor número de usuarios,
principalmente con un nivel de deterioro leve. Sin embargo,
de la evaluación realizada dentro del alcance del proyecto sí
que se puede resaltar como resultado preliminar que la
disposición de los usuarios hacia el juego es buena y que la
solución técnica propuesta es viable. Además, el juego
multijugador parece incentivar la motivación que el usuario
tiene para jugar (por ejemplo, está más predispuesto a jugar
más partidas para ver si consigue ganar al compañero, o
para continuar ganando). Esto queda de manifiesto también
en los cuestionarios cubiertos por los terapeutas, ya que ven
adecuado el uso de la plataforma de juegos como
complemento a otras terapias de estimulación cognitiva
existentes, pues tiene una interfaz sencilla de manejar y
puede aumentar el interés del paciente hacia el juego.
Durante la fase de pruebas han utilizado la plataforma de
juegos un total de 12 pacientes con deterioro cognitivo leve
102
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
y moderado. Los terapeutas establecen claras diferencias
entre el posible aprovechamiento de la plataforma que
podrían tener estos dos tipos de pacientes. En el caso de los
pacientes con un nivel leve, afirman que serán capaces de
jugar tanto en modo individual como contra otra persona
aunque no dispongan de ayuda para ello. Por el contrario, en
el caso de los pacientes con un nivel moderado, el factor de
la ayuda es determinante. Si disponen de ayuda, los
terapeutas opinan que los pacientes sí podrían jugar
mientras que si no existe dicha ayuda ven muy complicado
que puedan conseguirlo.
De esta forma, queda de manifiesto que la plataforma de
juegos desarrollada podría ser utilizada sin supervisión por
los pacientes con un grado leve de demencia, lo cual les
permitiría una mayor libertad ya que podrían jugar en
cualquier momento. Los pacientes con un grado más
avanzado de demencia podrían beneficiarse también de la
plataforma, pero siempre contando con ayuda de un
terapeuta.
9. Conclusiones
futuros
y
trabajos
El objetivo del proyecto COGNIGEN era la definición y
estudio de una nueva terapia de estimulación cognitiva
basada en los conceptos de juegos serios, interacción
multiparticipante e interacción intergeneracional. Durante el
proyecto se ha diseñado, construido y evaluado una
plataforma tecnológica que permite a los usuarios emplear
un juego de memoria, tanto de manera individual como con
otros contrincantes y que hace por tanto posible la
interacción intergeneracional. Además, dicho juego es
empleado por los usuarios mediante dispositivos móviles de
tipo Tablet con pantalla táctil, simplificando de manera
considerable las dificultades de uso. Esta combinación de
funcionalidades y características hacen del sistema
COGNIGEN una plataforma novedosa.
Dicha plataforma ha sido validada con la ayuda de los
terapeutas y usuarios disponibles en el CRE-A,
demostrando su viabilidad técnica y arrojando resultados
positivos en cuanto a la aceptación por parte de los usuarios
y las impresiones de los terapeutas. La validación realizada
durante el proyecto se ha guiado según la disponibilidad de
pacientes dentro del CRE-A. Las pruebas han involucrado
principalmente a usuarios con un grado de deterioro
moderado y unos pocos con deterioro leve, en total doce
pacientes y cuatro terapeutas. Diez de los usuarios tenían un
grado de deterioro moderado y dos de ellos leve.
Los resultados obtenidos indican que la plataforma
podría ser apta para el uso autónomo por parte de pacientes
con un grado de deterioro leve, mientras que los usuarios
con un grado de deterioro moderado necesitarían de ayuda y
supervisión constante por parte de los terapeutas. Así
mismo, se observa que la motivación y respuesta de los
usuarios al modo de juego multijugador es muy positiva. Si
bien en las pruebas realizadas entre los propios pacientes el
nivel de concentración y la motivación a seguir empleando
el juego aumentaba, en los casos en los que el juego se
desarrolló entre los pacientes y un terapeuta este incremento
era mucho más marcado de acuerdo a las impresiones y
comentarios de los pacientes.
A la vista de los resultados obtenidos parece que sería
positiva una posterior validación del sistema desde el punto
de vista terapéutico, a mayor escala y especialmente
dirigida a usuarios con un grado de deterioro leve.
10. Agradecimientos
Al Instituto de Mayores y Servicios Sociales (IMSERSO),
que ha financiado parcialmente el proyecto COGNIGEN
dentro del Plan Nacional de Investigación Científica,
Desarrollo e Innovación Tecnológica 2008-2011, referencia
222/2011.
A los profesionales del CRE-Alzheimer del IMSERSO
en Salamanca, que desde el inicio del proyecto participaron
en el diseño del sistema, así como en fases posteriores de
validación con usuarios reales.
11. Referencias
[1] M. Orrell, A. Spector, L. Thorgrimsen y B. Woods, "A pilot
study examining the effectiveness of maintenance Cognitive
Stimulation Therapy (MCST) for people with dementia",
International journal of geriatric psychiatry. Wiley Online
Library. Vol 20. No. 5, 2005, pp. 446-451.
[2] Beth Johnson Foundation (2011). A Guide to Intergenerational
Practice.
Stoke-on-Trent:
Beth
Johnson
Foundation.
(http://www.centreforip.org.uk/res/documents/page/BJFGuidetoIP
V2%20%2028%20Mar%202011.pdf)
[3] Gradior (http://www.intras.es/index.php?id=456)
[4] Feskits (http://www.feskits.com/demo/index_esp.html)
[5] Brain
Fitness
(http://www.positscience.com/ourproducts/brain-fitness-program)
[6] Cognifit/MindFit (http://www.cognifit.com/)
[7] My Brain Trainer (http://www.mybraintrainer.com/)
[8] Brain Age (http://www.brainage.com/)
[9] Dakim (http://www.dakim.com/)
[10]
Herramienta “Entrena tu mente”
(http://www.fundacioncajaduero.es/tecnologia/teleasistencia_home
.aspx)
[11]
S. García, V. Lobato, V. Peláez, E. González-Ingelmo,
F. Barrientos, S. Carretero, "Evaluación de la usabilidad de una
plataforma de estimulación cognitiva basada en televisión
interactiva", IV Congreso Internacional de Diseño, Redes de
Investigación y Tecnología para todos (DR4ALL), 2011, pp. 220235
[12]
Proyecto Europeo Elder Games
(http://www.eldergames.org/)
[13]
E.T. Khoo, S. P. Lee, A. D. Cheok, S. Kodagoda, Y.
Zhou y G.S. Toh, "Age invaders: social and physical intergenerational family entertainment", CHIʼ06 extended abstracts on
Human factors in computing systems, 2006, pp. 243–246.
[14]
Sociable Project (http://www.sociable-project.eu/)
[15]
S. Sundar, "Retirees on Facebook: can online social
networking enhance their health and wellness?", Extended
Abstracts on Human Factors in Computing Systems , 2011, pp.
2287-2292.
103
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[16]
The Nielsen Company. Social Networks/Blogs Now
Account for One in Every Four and a Half Minutes Online. (2010).
(http://www.ceapat.es/InterPresent2/groups/imserso/documents/bi
nario/accesvideojuegos.pdf)
[17]
Buenas prácticas de accesibilidad en videojuegos,
IMSERSO, 2012
[18]
W. Jsselsteijn, H. H. Nap y Y. de Kort, "Digital Game
Design for Elderly Users", Proceedings of the 2007 conference on
Future Play, 2007, pp. 17-22.
104
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Panorámica de la audiodescripción en los canales
TDT en España
Francisco José González León, Juan Manuel Carrero Leal, Mercedes de Castro Álvarez,
Belén Ruiz Mezcua
Centro Español del Subtitulado y la Audiodescripción (CESyA)
[email protected], [email protected], [email protected], [email protected]
Resumen
En este artículo se presenta un análisis de las prácticas
actuales en materia de emisión de servicios de
audiodescripción en los canales televisivos de la TDT en
España. Los resultados de esta investigación muestran que
algunos canales emiten la audiodescripción en la
modalidad conocida como ‘mezcla en el radiodifusor’
mientras que otros canales emiten en modo ‘mezcla en el
receptor‘. Se analizan algunos de los problemas detectados
para la activación dela audiodescripción en los receptores
y televisores de los usuarios y se proponen además algunas
mejoras en la señalización para que la información sobre la
emisión de contenidos audiodescritos llegue correctamente
a los receptores de TDT. Se presenta además desde el punto
de vista del usuario la forma de acceder a l a
audiodescripción en sus hogares.
This paper presents an analysis of current practices of
audiodescription in Spanish TV channels. The results of this
research show that in some channels the audiodescription is
broadcasted for ‘receiver mix audio description’ while in
other channels the alternative used is ‘broadcaster mix
audio description’. The problems detected for the activation
of audiodescription in users’ TVs can be solved applying
some enhancement to signalling information used by
broadcasters in their DVB TV channels. Finally, some
recommendations for the users are included to present the
key aspects to audiodescription activation in their TVs.
Introducción
La Ley General de la Comunicación Audiovisual [1]
establece los umbrales mínimos de emisión de programas
audiodescritos para todos los canales de TV en España.
Cuando finalice 2013, los canales públicos deberán emitir
un mínimo de 10 horas semanales de audiodescripción, y
los canales privados un mínimo de 7 horas semanales.
La emisión de la audiodescripción en los canales de
televisión está definida desde el punto de vista técnico en la
norma DVB, de aplicación en España. La norma DVB
define las posibles formas de emisión de la
audiodescripción asociada a un programa en un canal de
televisión, además de la manera de señalizar dicha emisión
para que tanto los televisores como los usuarios sean
capaces de seleccionar y reproducir adecuadamente dicha
audiodescripción. La práctica actual en España, como se
verá en este artículo, cumple sólo parcialmente con el
estándar DVB [2], [3].
Por otro lado, los receptores TDT y televisores con
TDT integrado, deben cumplir con lo especificado en la
norma DVB para poder mostrar al usuario las opciones
disponibles en la señal TDT recibida y reproducirlas
correctamente. En el caso de la audiodescripción no todos
los televisores son capaces de reproducir correctamente el
amplio abanico de opciones definido en DVB.
En los capítulos siguientes se hace un análisis de las
distintas posibilidades que la norma DVB ofrece para la
emisión de audiodescripción en un canal de televisión. A
continuación se exponen los resultados de la investigación
llevada a cabo en el Centro Español del Subtitulado y la
Audiodescripción acerca de la práctica actual llevada a
cabo por los radiodifusores en los distintos canales de
televisión que se emiten en España.
1. Visión general de la emisión
En la actualidad, los radiodifusores en España tratan el
canal de audio dedicado a la audiodescripción para personas
con discapacidad visual de dos formas:
Canal de audio dedicado únicamente a los comentarios de
discapacidad
visual
(audiodescripción
sin
mezclar/mezcla en receptor): se transmite generalmente
en el tercer canal de audio de la cadena y requiere que el
receptor soporte la funcionalidad necesaria para mezclar
los dos flujos de audio involucrados: el flujo de audio
principal y el flujo de audio que contiene la
audiodescripción.
Figura 1. Flujo de comentario de discapacidad
visual en canal de audio independiente.
1. Canal de audio con los comentarios de discapacidad
visual mezclados con el audio principal del programa
(audiodescripción mezclada/mezcla en emisión):
normalmente se transmite en el segundo canal de audio
de la cadena. Dicho canal de audio no está dedicado
únicamente a la audiodescripción, sino que se utiliza
también como canal para el audio original de los
105
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
programas (versión original) u otro tipo de audio. En
ausencia de audiodescripción o versión original, la
práctica habitual es emitir en este flujo de audio el
mismo contenido que en el audio principal del canal.
Figura 2. Flujo de audiodescripción en canal de
audio mezclado con audio principal.
Desde el punto de vista de señalización, la práctica
habitual es la siguiente:
1. En las tablas PMT de cada canal se describe el
contenido de cada uno de los canales de audio emitido,
de acuerdo a la opción elegida en emisión. Para ello se
está utilizando el ISO language descriptor definido en
[2].
2. En las tablas EIT no se emite información alguna
respecto a la existencia de contenidos audiodescritos en
los canales de audio.
El comportamiento de los receptores-TDT y Televisores
con TDT integrado es generalmente adecuado en cuanto a la
reproducción del audio en el caso de la audiodescripción
mezclada con el audio principal (Caso 2). Sin embargo,
algunos receptores no implementan adecuadamente la
mezcla en recepción (Caso 1), por lo que en algunos
receptores, la dificultad resulta elevada para seleccionar o
reproducir la versión audiodescrita del programa en el caso
de la emisión para mezcla local.
Por otro lado, los receptores-TDT no presentan en los
menús de usuario (OSD) la disponibilidad de
audiodescripción en los programas. Ello es debido en gran
medida a que las tablas EIT emitidas no contienen
información acerca del servicio de audiodescripción de cada
programa.
2. Alternativas de señalización
en emisión
Para analizar la forma adecuada de señalizar la
audiodescripción en programas de televisión vamos a
describir la parte de los estándares de televisión digital que
hacen referencia a ella.
Los estándares aplicables en este caso son los siguientes:
ETSI EN 300 468 V 1.11.1
ISO 13818-1
ISO 639-2
TS 101 154 V1.9.1
UNE 133300:2011
La señalización de la audiodescripción en las tramas
MPEG-2 Transport Stream se hace referenciando dos tablas
descritas en los estándares DVB ETSI EN 300 468 y
ISO/IEC 13818-1:
PMT: en ella se encuentra la información de servicio
relativa a cada uno de los flujos que comprenden cada
uno de los canales (servicios en la terminología DVB)
que viajan en un Transport Stream.
EIT: contiene la información relativa a la programación de
los canales.
A continuación vamos a describir la parte de los
estándares donde indican la forma de señalizar la
audiodescripción.
En el anexo J (Signalling of Receiver-Mixed and
Broadcast-Mixed Supplementary Audio) de DVB ETSI EN
300 468 [2], se definen dos mecanismos para transmitir el
audio suplementario (audiodescripción):
Mezcla en recepción.
Mezcla en emisión.
La señalización correcta de los contenidos comprende,
en el caso de la audiodescripción, información que debe ser
emitida en dos tablas del Transport Stream: la PMT y la
EIT. A continuación se describen las diferentes alternativas
de señalización para cada uno de los dos casos.
2.1. Señalización de la audiodescripción en la PMT
En cualquiera de los dos casos, lo primero que debemos
hacer a la hora de señalizar la audiodescripción es indicar en
la tabla PMT y para cada flujo de audio, el tipo de audio que
transportan. Para señalizar dicho contenido, en el estándar
ISO/IEC 13818 hay un descriptor que se añade a la
descripción de flujos de audio de la PMT denominado ISO
639 language descriptor [3], el cual indica el idioma y el
tipo de audio asociado a un flujo de audio. La estructura del
descriptor se muestra a continuación:
Figura 3. Estructura ISO 639 language descriptor.
Descriptor_tag: "0x0A".
Descriptor_length: identifica el tamaño del descriptor.
ISO_639_language_code: identifica el idioma o los idiomas
del flujo de audio con 3 caracteres. Para los casos en
que el flujo utilice distintos tipos de idioma o de audio,
dependiendo del programa que este siendo emitido, se
pueden definir varios idiomas ó utilizar un language
code genérico. La tabla 1 muestra las opciones posibles
más frecuentes en España:
Tabla 1. Valores language_code
Language_code
spa
qaa
qad
mul
und
Descripción
Español
Reservado para versión original
Reservado
Múltiples idiomas
Indefinido
106
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Audio_type: indica el tipo de audio asociado a un flujo de
audio. Los posibles valores que puede tomar este
campo se muestran en la tabla 2.
Tabla2. Valores audio_type.
Audio_type
0x00
0x01
0x02
0x03
0x04 – 0xFF
Descripción
Indefinido
Audio para discapacitados
auditivos
Discapacidad auditiva
Comentario discapacidad visual
Reservado
En las subsecciones J.2.2 y J.3.2 del anexo J del estándar
DVB ETSI EN 300 468 se indican las formas de señalizar la
audiodescripción en la PMT para los casos en que las
mezclas se produzcan tanto en emisión como en recepción.
En ambos casos hacen uso de los campos del descriptor ISO
639 language descriptor:
Mezcla en recepción:
ISO_639_language_code: el valor de dicho campo,
teniendo en cuenta que la audiodescripción se hará en
idioma español, debería ser "spa".
Audio_type: para el caso en que solo se transmiten los
comentarios de incapacidad visual en el flujo de audio
su valor debe ser "0x03".
Mezcla en emisión:
ISO_639_language_code: en este caso, la codificación
depende de la práctica de emisión que se quiera llevar a
cabo; a grandes rasgos, existen dos posibilidades:
• Un mismo flujo de audio: cuando se utiliza el mismo
flujo de audio para ir emitiendo alternativamente
audiodescripción y versión original en función del
programa, las opciones de señalización son a su vez
dos:
 Transmitir un único ISO_639_language_code
dentro
del
ISO_639_language_descriptor
conteniendo uno de estos dos valores: “NAR” o
“qad”. Otros valores posibles definidos en ISO
639-2 son: “mul” y “und”.
 Alternativamente se podría transmitir un
ISO_639_language_descriptor
con
dos
ISO_639_language_code: uno con valor “qad”
para la audiodescripción y otro con valor “qaa”
para la versión original.
• Flujos de audio dedicados: cuando se emitan
distintos flujos de audio para la audiodescripción,
versión original, segundo idioma, etc., se
proporcionará un ISO_639_language_descriptor
para cada flujo; los respectivos campos
ISO_639_language_code de dichos descriptores se
codificarán de acuerdo a la norma ISO 639-2, es
decir: “spa” para español, “cat” para catalán, “qaa”
para
versión
original,
“qad”
para
la
audiodescripción…
Audio_type: al igual que en el campo anterior, en dicho
flujo se transportan diferentes tipo de audio, por lo que
se opta por asignar el valor de audio indefinido "0x00".
Además de esto, el estándar ETSI EN 300 468 añade
una posibilidad para describir con mayor detalle el
contenido del flujo de audio en la PMT. Para ello en la
subsección J.4 del anexo J indican que se puede añadir otro
descriptor denominado Supplementary audio descriptor en
el que se especifica el tipo de mezcla del flujo de audio, y se
clasifica el contenido del flujo. Este descriptor pertenece a
la familia de los descriptores Extension descriptor. La
estructura del Supplementary audio descriptor es:
Fig
ura 4. Estructura Supplementary audio descriptor.
Descriptor_tag: "0x7F". Identifica a la familia de Extension
descriptor.
Descriptor_tag_extension:
"0x06".
Identifica
al
Supplementary audio descriptor.
Mix_type: identifica el tipo de mezcla. Los posibles valores
se muestran en la tabla 2.
Tabla 3. Valores mix_type.
Mix_type
0x00
0x01
Descripción
Flujo de audio suplementario
Flujo de audio completo e
independiente
Editorial_classification: clasifica el contenido de los flujos
de audio, los posibles valores se encuentran en la tabla
3.
Tabla 4. Valores editorial_classification.
Audio_type
00000
00001
00010
00011
00100 a 10111
11000 a 1111
Descripción
Audio principal
Comentario de incapacidad
visual
Audio para discapacitados
auditivos
Subtítulos hablados para
discapacitados visuales
Reservado para uso futuro
Definido por el usuario
Language_code_present: si este campo vale '1' indica que
los 3 siguientes bytes identificaran el idioma del audio
mediante el campo ISO_639_language_code.
Private_data_byte: el valor de estos datos se definen de
forma privada.
Teniendo en cuenta que los dos descriptores descritos no
son independiente, en la subsección J.4 del anexo J del
estándar ETSI EN 300 468 se proporciona adicionalmente
una tabla especificando las combinaciones válidas de los
campos de los descriptores Supplementary audio descriptor
e ISO 639 language descriptor, con el fin de señalizar de la
forma más exhaustiva el contenido del flujo de audio. La
tabla 4 muestra un resumen de la posible combinación de
campos para señalizar la audiodescripción. El campo
audio_type pertenece al ISO 639 language descriptor, y los
107
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
campos mix_type y editorial_classification pertenecen al
Supplementary audio descriptor.
Tabla 5. Posible combinación de descriptores de
audio en la PMT.
Audio
Principal
Audiodescripción
(mezcla emisión)
Audiodescripción
(mezcla receptor)
Audio
type
0x00
0x00 o
0x03
Mix
type
1
Editorial
clasiffication
0
1
1
0x03
0
1
De esta forma conseguiríamos proporcionar la máxima
información en relación a los flujos de audio asociados a
cada canal de televisión.
2.2. Señalización de la audiodescripción en la EIT
Por otro lado, en el estándar DVB ETSI EN 300 468 se
indica la forma de señalizar mediante la tabla EIT que un
programa en concreto de la emisión está audiodescrito. Esta
información es importante para la EPG y los menús de
pantalla (OSD) del receptor, que son una fuente de
información primordial para los usuarios de los servicios de
accesibilidad.
En la tabla EIT, por cada programa se debe indicar el
contenido de los flujos asociados a dicho programa. Por
ejemplo, en el caso de que una película este en dos idiomas
se debería indicar que el audio es multilenguaje. Otro
ejemplo puede ser que esa misma película este en formato
panorámico, por lo que se debería indicar que el formato del
vídeo es 16:9. Esto se hace añadiendo el descriptor
component descriptor de la EIT. La estructura de dicho
descriptor se muestra a continuación:
Figura 5. Estructura Component descriptor.
Descriptor_tag: "0x50".
Stream_content: especifica el tipo de flujo. Los posibles
valores que puede tomar para audiodescripción se
muestran en la tabla 5.
Component_type: especifica el tipo de componente de
video, audio o datos. Sus posibles valores en cuanto a
audiodescripción se muestran en la tabla 5.
Text_char: contiene una descripción textual del componente
del flujo.
Tabla 6. Valores campos component descriptor
para audiodescripción.
Stream
content
Component
type
0x02
0x40
0x02
0x47
0x02
0x48
0x06
0x40
Descripción
Audio MPEG-1,
audiodescripción para personas
con incapacidad visual
Audio MPEG-1, mezcla en
receptor de la audiodescripción
Audio MPEG-1, mezcla en
emisor de la audiodescripción
Audio HE-AAC,
0x06
0x44
0x06
0x47
0x06
0x48
0x06
0x49
0x06
0x4A
audiodescripción para personas
con incapacidad visual
Audio HE-AAC V2,
audiodescripción para personas
con incapacidad visual
Audio HE-AAC, mezcla en
receptor de la audiodescripción
Audio HE-AAC, mezcla en
emisor de la audiodescripción
Audio HE-AAC, mezcla en
receptor de la audiodescripción
Audio HE-AAC, mezcla en
emisor de la audiodescripción
Igual que en el caso de la PMT, estos valores los
debemos utilizar para señalizar mediante la tabla EIT si el
programa que se está emitiendo esta audiodescrito o no.
Atendiendo a lo especificado en la ETSI EN 300 468 (tabla
5) y con las limitaciones impuestas al caso del mercado
español en la norma UNE 133300:2011, los valores
admisibles para el component descriptor de la EIT en el
caso de la audiodescripción serían los siguientes:
Mezcla en recepción:
•
MPEG-1:
 Stream_content: "0x02"
 Component_type: "0x47"
•
HE-AAC:
 Stream_content: "0x06"
 Component_type: "0x47"
Mezcla en emisión:
•
MPEG-1:
 Stream_content: "0x02"
 Component_type: "0x48"
•
HE-AAC:
 Stream_content: "0x06"
 Component_type: "0x48"
Caso general:
•
MPEG-1:
 Stream_content: "0x02"
 Component_type: "0x40"
•
HE-AAC:
 Stream_content: "0x06"
 Component_type: "0x40"
•
HE-AAC V2:
 Stream_content: "0x06"
 Component_type: "0x44"
3. Panorama actual
El panorama televisivo en España, en cuanto a
señalización de audiodescripción, resulta muy variado.
Todas las cadenas se decantan por alguna de las dos formas
de transmitir la audiodescripción que hemos visto en las
figuras 1 y 2, con excepciones como las de TV3 que añaden
un cuarto canal de audio para transmitir el audio del
programa en más de dos idiomas.
En cuanto a la PMT, el uso que hacen los radiodifusores
de las diferentes opciones que ofrece DVB para señalizar
los flujos es adecuado. Señalizan de forma normalizada los
flujos de audio, dependiendo si la audiodescripción se
mezcla en emisión o recepción. Para ello, en todos los casos
108
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
utilizan el descriptor ISO 639 language descriptor descrito
anteriormente.
Por otra parte, es reseñable que en ningún caso se
señaliza la audiodescripción de los programas en las tablas
EIT. Actualmente ninguna cadena utiliza el descriptor
component_descriptor [2] para señalizar el contenido
accesible de la programación de las cadenas para personas
con discapacidad visual. Sin embargo, sí utilizan este
mismo descriptor para señalizar el tipo de audio o vídeo
principal. Por otro lado, en la tabla EIT sí suelen señalizar
mediante descriptores el nombre, el género e incluso la edad
mínima necesaria para ver el programa.
3.1. RTVE
Como vemos en la siguiente tabla el canal TDP tiene
únicamente un canal de audio por lo que dicho canal no
emite audiodescripción en ninguno de sus contenidos. Por
otro lado las cadenas La 1 y La 2 tienen 3 canales de audio,
donde el segundo canal lo utilizan para emitir el audio
original de la programación ("qaa") y el tercer canal de
audio lo utilizan para emitir únicamente el contenido
audiodescrito de la emisión (mezcla en recepción). Por
último tanto el canal 24h como Clan poseen un segundo
canal de audio en el que describen que únicamente emiten
contenido del audio original del programa. En este caso si
los canales 24h y Clan emitieran audiodescripción deberían
cambiar el valor de "qaa" por los valores "NAR", "qad",
"und" o "mul" como hemos visto anteriormente.
Tabla 7. Idioma canales audio grupo RTVE
RTVE
TDP
La 1
La 2
24h
Clan
1er canal
spa
spa
spa
spa
spa
2º canal
qaa
qaa
qaa
qaa
3er canal (AD)
spa
spa
-
3.2. ATRESMEDIA
En el caso de Atresmedia todos los canales
pertenecientes al grupo emiten la audiodescripción de la
misma forma, a través del segundo canal de audio dando el
valor de "und" al canal de audio. Esta forma de emitir la
audiodescripción es adecuada ya que ese canal de audio lo
utilizan tanto para emitir el idioma original del programa
como para emitir la audiodescripción por lo que la
señalización es adecuada.
Tabla 8. Idioma canales audio grupo Atresmedia
ATRESMEDIA
Antena 3
Neox
Nova
Nitro
LaSexta
Xplora
1er canal
spa
spa
spa
spa
spa
spa
2º canal
und
und
und
und
und
und
3er canal (AD)
-
-
LaSexta3
und
spa
-
En la totalidad de los casos las audiodescripciones
realizadas por Atresmedia son fluidas y adecuadas,
aprovechando correctamente los silencios en las obras para
audiodescribir. Se ha detectado que en el canal Nitro en
ocasiones, concretamente en el programa "Impacto Total",
cuando hay audiodescripción en el segundo canal de audio
alternan el emitir sólo la música del programa, con dejar en
silencio total ese canal de audio, con poner tanto la música
como el contenido de la narración del programa. Esto
evidentemente supone que aunque el programa contenga
audiodescripción es imposible seguir el mismo con
normalidad.
3.3. Mediaset
Dentro del grupo Mediaset hay diversidad en la gestión de
los canales de audio por parte de las cadenas. Telecinco, La
Siete y FDF tienen 3 canales de audio que gestionan de la
misma forma que La 1 y La 2 del grupo RTVE. En el caso
de Energy, el segundo canal de audio toma el valor de
"mul" que como hemos visto anteriormente vale tanto para
indicar que puede contener audiodescripción como que
puede contener el audio original del programa. Las cadenas
Cuatro, Boing, Nueve y Divinity tienen dos canales de
audio y el segundo de ellos toma el valor de "qaa". Como
hemos mencionado anteriormente, este valor indica que en
ese segundo canal se emite el audio de los programas en
versión original, por lo que si emitieran audiodescripción la
señalización no sería correcta y tendrían que darle a ese
canal de audio alguno de los valores que hemos indicado
anteriormente.
Tabla 9. Idioma canales audio grupo Mediaset
Mediaset
Telecinco
LaSiete
FDF
Energy
Cuatro
Boing
Nueve
Divinity
1er canal
spa
spa
spa
spa
spa
spa
spa
spa
2º canal
qaa
qaa
qaa
mul
qaa
qaa
qaa
qaa
3er canal (AD)
spa
spa
spa
-
El canal FDF emite contenido audiodescrito con asiduidad
por el tercer canal de audio. De otra forma los canales La
Siete y Telecinco no emiten por norma general ninguno de
sus contenidos audiodescritos. El canal Energy no emite
habitualmente contenido audiodescrito, aunque su segundo
canal de audio está bien señalizado para el caso en que
comiencen a emitirlo.
En los casos de Cuatro, Boing, Nueve y Divinity no se ha
detectado ningún contenido audiodescrito en su
programación. En el caso que audiodescribieran deberían
cambiar el valor de "qaa" en su segundo canal de audio por
alguno de los mencionados anteriormente.
3.4. Otros canales de televisión
109
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
En este caso vemos que hay disparidad en cuanto a la forma
de gestionar los canales de audio. En los casos de
Paramount Channel, MTV y Disney Channel optan por 3
canales de audio con el propósito de dejar el 3 canal para
emitir únicamente el contenido audiodescrito. Además en el
caso de Disney Channel es reseñable que su segundo canal
de audio en vez de tomar el valor "qaa" toma el valor "eng"
que indica que todos los programas de la parrilla del canal
tienen como idioma original el inglés. Al hilo de esto último
vemos como Discovery Max solo tienes dos canales de
audio y en el segundo de ellos únicamente emiten el audio
original en inglés. Por otra parte vemos como Marca TV
tiene dos canales de audio y que en el segundo de ellos
indica que sólo emiten el audio en versión original del
programa. Por último, y como hemos visto en el caso de
TDP, los canales Intereconomía y 13 TV sólo tienen un
canal de audio por lo que es imposible realizar la
audiodescripción.
Tabla 10. Idioma canales audio de canales de
diversos grupos de comunicación
Varios
Marca TV
Paramount
Channel
MTV
Intereconomía
Discovery
Max
Disney
Channel
13 TV
1er canal
spa
2º canal
qaa
3er canal(AD)
-
spa
qaa
spa
spa
spa
qaa
-
spa
-
spa
eng
-
spa
eng
spa
spa
-
-
En los casos de MTV y Disney Channel sí audiodescriben
regularmente, no así en el caso de Paramount Channel que a
pesar de tener un canal de audio dedicado no emite nunca
audiodescripción. Por otro lado está el caso de Marca TV, el
cual señaliza de forma errónea ya que sí emite
audiodescripción en su parrilla televisiva y por lo tanto no
debería señalizarse el segundo canal de audio como "qaa"
sino como hemos mencionado en la parte de mezcla de
audiodescripción en emisión. Además de eso, tras analizar
los espacios con audiodescripción de este canal se ha
detectado que es muy difícil de percibir ya que los
comentarios audiodescritos en vez de situarse en los
silencios que se producen en el contenido de la emisión, se
solapan con el audio del programa y además con un
volumen inferior a éste por lo que hace casi imperceptible el
contenido audiodescrito.
4. Acceso de los usuarios
La activación de la Audiodescripción en un canal de
televisión no es siempre algo trivial, y puede conllevar una
serie de pasos en función del receptor o televisor del que
disponga el usuario y de la forma en que esté siendo emitida
por parte del canal de televisión.
Actualmente en España, la audiodescripción de un
programa la realizan los radiodifusores de dos formas
distintas como se ha visto en los puntos anteriores:
mezclando directamente en emisión el audio original con la
audiodescripción o enviando la audiodescripción para que
ésta sea mezclada con el audio original en el receptor o
televisor del usuario. Cada una de las maneras, tiene su
forma de activación en el receptor por lo que explicaremos
ambas por separado.
Cuando una cadena televisiva emite la audiodescripción
de un programa realizando la mezcla directamente en
emisión, el usuario tiene disponible el servicio de
audiodescripción en su receptor a través del segundo canal
de audio de la cadena; en este segundo canal de audio está
disponible por tanto el audio original del programa
mezclado con la audiodescripción sin que el receptor tenga
que hacer ninguna tarea adicional. Para activar la
audiodescripción en esta modalidad, el usuario tan sólo
tiene que cambiar al segundo canal de audio, habitualmente
mediante un botón del mando llamado DUAL o I-II, que es
el mismo utilizado para escuchar las versiones originales de
los programas que disponen de ella. En algunos receptores,
la activación del segundo canal de audio debe realizarse a
través del menú, accesible por medio de una de las teclas
del mando.
Alternativamente, las cadenas de televisión pueden
emitir en un canal independiente la audiodescripción, que
será mezclada en el propio receptor del usuario con el audio
original del programa cuando el usuario activa la
audiodescripción en su receptor. Esta mezcla es siempre
dependiente del receptor, por lo que existe la posibilidad de
que el equipo receptor no disponga de la opción de mezcla y
que por lo tanto no pueda realizarse. Ésta debería ser la
primera condición que debería comprobar un usuario en su
receptor antes de su adquisición, revisando los manuales de
usuario o poniéndose en contacto con el fabricante del
mismo.
Una vez comprobado que el receptor sí que permite
realizar la mezcla, la forma de activarla es muy diferente en
función del tipo de receptor, el fabricante, la organización
de los menús en el interfaz de usuario, etc. La forma más
sencilla, aunque no la más frecuente, es que el mando a
distancia disponga de un botón con las siglas AD; si éste es
el caso del receptor o televisor, simplemente con pulsarlo
se activa la mezcla en el receptor, y cada vez que un
programa tenga audiodescripción, ésta será reproducida
directamente junto con el audio original. En otros receptores
el usuario debe activar la mezcla de la Audiodescripción
mediante las opciones de configuración del receptor; para
ello, deberá explorar los menús del receptor en busca de la
configuración del audio, buscando una opción llamada
“descripción de audio” (la traducción al castellano del
término “audiodescription”) o similar. En esta opción, habrá
que activar la descripción de audio junto con el volumen (de
forma opcional) al que se desea que se escuche la
audiodescripción con respecto al audio original. En algunos
receptores, las opciones de activación de la
Audiodescripción y la configuración del volumen se
encuentran en diferentes menús; es importante consultar los
manuales del usuario para configurar adecuadamente el
equipo.
En la mayoría de los equipos, una vez configurada la
audiodescripción, ésta se mantiene activada de forma
permanente; cuando un programa se esté emitiendo con
110
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
audiodescripción, el usuario podrá oírla en los altavoces del
equipo.
Como se puede comprobar, no todos los equipos están
preparados para las nuevas formas de emisión de la
audiodescripción, aunque los receptores más modernos sí
tienen incorporada la posibilidad de realizar la mezcla en el
propio receptor. Si se dispone de un receptor que lo permite,
es el propio usuario el encargado de configurarlo
correctamente para que la audiodescripción pueda ser
recibida sin ningún tipo de problema.
•
•
5. Conclusiones
La emisión de la audiodescripción en los canales de TV
en España ha comenzado a incluir la opción, hasta hace
poco no utilizada, de mezcla en recepción. Esta práctica
ahorra ancho de banda y costes de producción a los
radiodifusores, pero no está soportada por muchos de los
equipos instalados en los hogares españoles, a pesar de ser
una de las opciones previstas en el estándar DVB.
Los receptores y televisores TDT que sí son capaces de
reproducir un flujo de audiodescripción mezclándolo con el
audio principal del programa presentan en muchos casos
interfaces de usuario con baja usabilidad, lo que dificulta a
muchos usuarios acceder al servicio de audiodescripción de
un canal y lleva a los usuarios a la creencia de que no está
disponible la audiodescripción cuando en realidad se está
emitiendo.
Desde el Centro Español del Subtitulado y la
Audiodescripción las recomendaciones y líneas de trabajo
futuras para solventar este problema se dividen en dos
grandes grupos:
1. Recomendaciones a los radiodifusores:
• Elegir preferentemente la opción de
audiodescripción mezclada en origen en tanto
en cuanto la planta de receptores y televisores
TDT instalada no soporte de manera
mayoritaria la mezcla en recepción.
• Una vez que la planta de receptores y
televisores TDT soporte mayoritariamente la
mezcla en recepción, los radiodifusores
deberían elegir preferentemente esta opción,
de esta forma el usuario no debe preocuparse
de activar el segundo canal de audio para
comprobar si un programa está audiodescrito.
• Señalizar correctamente la emisión de la
audiodescripción en las tablas SI y PSI de
acuerdo a lo establecido en DVB y AENOR.
•
•
•
Soporte completo a la funcionalidad de
audiodescripción tal como se define en DVB,
contemplando todos los descriptores y
elementos de información definidos en el
protocolo e implementado la funcionalidad
correspondiente a cada uno de ellos.
Inclusión de teclas para el acceso directo a la
audiodescripción en los mandos de los
receptores y televisores TDT, y en los futuros
Smart TV y receptores HbbTV, de manera que
se facilite el acceso al servicio a las personas
con discapacidad visual.
Mejorar la usabilidad de los menús de
configuración
y
activación
de
la
audiodescripción.
Mostrar en los menús del OSD la
disponibilidad de la audiodescripción en los
programas de TV, atendiendo a la información
de señalización recibida en las tablas SI y PSI.
Indicar
la
disponibilidad
de
la
audiodescripción cuando esté presente en los
canales de TV en cualquiera de sus
modalidades (mezcla en emisión, mezcla en
recepción) mediante señales acústicas que se
activarán en los cambios de canal y otras
acciones relevantes del usuario.
6. Referencias
[1] Gobierno de España. Ley General de la Comunicación
Audiovisual, Ley 7/2010. BOE núm. 79 de 1/Abril/2010.
http://www.boe.es/boe/dias/2010/04/01/pdfs/BOE-A-20105292.pdf (accedido 9/Mayo/2013).
[2] ETSI. Digital Video Broadcasting (DVB); Specification for
Service Information (SI) in DVB systems. ETSI EN 300 468
V1.9.1. 2009.
[3] ISO/IEC. Information technology -- Generic coding of moving
pictures and associated audio information: Systems. ISO/IEC
13818-1:2007
2. Recomendaciones a los fabricantes:
111
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
PaSOS: Protocolo de Comunicaciones entre los
Terminales de Teleasistencia Móvil y los Centros de
Atención
Julián Andújar Pérez
Fundación TECSOS
[email protected]
Ana Arroyo Hernández Estíbaliz Ochoa Mendoza Carlos Capataz Gordillo
Fundación TECSOS
Fundación Vodafone
Cruz Roja
[email protected]
Abstract
Mobile Telecare service, due to the fact that it is an
innovative service, there are still barriers that limit their
deployment and expansion, such as the cost of the users’s
devices and t he lack of interoperability between user
devices and Care Centres. Currently, each devices
manufacturer uses its own communication protocol for
connecting and exchange information with the Care Centre
(location, alarm type, date /time, battery status, etc.). The
absence of an open protocol has serious drawbacks, being
an important barrier in order to reach a r eal universal
Mobile Telecare service. In 2010, the project PASOS was
launched in Spain in order to define an o pen
communication protocol, free and interoperable. Nowadays,
paSOS protocol has become a s tandard (UNE 133530),
thanks to the work of the all stakeholder (Public
Administration, service providers and manufactures).
Resumen
En el servicio de Teleasistencia Móvil, debido al hecho
que es un servicio innovador, existen todavía barreras que
limitan su despliegue y expansión, como son el coste de los
terminales de usuario o la falta de interoperabilidad entre
los terminales y los Centros de Atención. Actualmente, cada
fabricante de terminales utiliza su propio protocolo de
comunicaciones para conectarse con el Centro de Atención
e intercambiar información (localización, tipo de alarma,
fecha/hora, estado de la batería, etc.). La ausencia de un
protocolo público tiene serios inconvenientes y es una gran
barrera para lograr la universalización del servicio. En
20120, se lanzó el proyecto paSOS en España para acordar
un protocolo de comunicaciones gratuito, libre e
interoperable. Actualmente, el protocolo paSOS se ha
convertido en un estándar (UNE 133530) gracias al
trabajo y colaboración de todos los actores
(Administraciones Públicas, prestadores de servicio y
fabricantes).
[email protected]
[email protected]
la evolución natural del conocido servicio de
Teleasistencia Domiciliaria. El servicio de Teleasistencia
se presta en España desde hace más de 20 años, por lo que
está consolidado y es un servicio universal al que cualquier
persona que lo necesita puede acceder con un coste
reducido e incluso gratuito gracias al apoyo de las
Administraciones Públicas, que han sido su promotores e
impulsores. Actualmente España cuenta con más de
500.000 usuarios/as del servicio en la actualidad.
Este servicio de Teleasistencia Domiciliaria tiene la
característica que solo cubre el domicilio, y los propios
usuarios de Teleasistencia Domiciliaria han demandado
desde hace años un servicio que también pudiera
funcionar fuera del domicilio. Esta necesidad es evidente
si tenemos en cuenta que todas las políticas sociales están
orientadas a que la persona tenga una vida activa fuera de su
domicilio, se relacione y viaje, sin embargo solamente se les
podía ofrecer un entorno de seguridad dentro de su
domicilio, lo que en algunos casos puede tener un efecto
contraproducente. Esta necesidad no ha sido posible cubrirla
hasta hace relativamente pocos años, principalmente por
limitaciones tecnológicas. Fue necesario que se
desarrollaran las comunicaciones móviles, para poder hablar
fuera del domicilio, y que se desarrollaran los sistemas de
localización, que nos permitieran conocer de una forma
precisa la localización de la persona fuera de su domicilio.
Desde hace más de un lustro, la Teleasistencia Móvil
ofrece a sus usuarios la tranquilidad y la seguridad de un
servicio de Teleasistencia, sin renunciar a un alto grado de
autonomía, ya que posibilita una atención inmediata y a
distancia en cualquier momento y en cualquier lugar.
Tan sólo pulsando el botón de SOS de su dispositivo, el
usuario contacta con un Centro de Atención, que dispone de
toda la información relativa a ese usuario (datos personales,
sanitario, personas de contacto, histórico de llamadas, etc.)
y además puede disponer de la información de localización
en caso de emergencia.
1. Introducción
Mediante la combinación de las comunicaciones
móviles, los sistemas de geo-localización y las centrales de
atención de alarmas, el servicio de Teleasistencia Móvil es
Figura 1. Origen Teleasistencia Móvil
112
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
En el año 2002, la Fundación TECSOS llevó a cabo
un proyecto pionero de referencia para validar la
utilidad social de un Servicio de Teleasistencia que
funcionara fuera del domicilio. Este proyecto que se llamó
“Teleasistencia Móvil” y sentó las bases de los servicios
actuales de Teleasistencia Móvil, que en España están en
pleno desarrollo y que se prestan para personas mayores,
personas dependientes, con discapacidad o personas que
sufren Violencia de Género.
2.
Justificación
propuesta
de
la
En el servicio de Teleasistencia Móvil, al tratarse de un
servicio innovador, todavía subsisten barreras que limitan su
despliegue y expansión, como son la escasa oferta de
terminales, el coste elevado de los mismos, y la ausencia de
interoperabilidad entre dispositivos que porta el usuario/a
y las Centrales de Atención.
En efecto, actualmente cada fabricante de equipos
móviles de usuario/a utiliza su propio protocolo de
comunicaciones propietario para conectarse y comunicarse
con el Centro de Atención. Este protocolo de
comunicaciones es el “lenguaje” que permite el
funcionamiento conjunto de las centrales y los
dispositivos móviles, para notificar alarmas, indicar la
posición de un usuario, o permitir la programación remota
del dispositivo móvil. Por tanto, en el momento actual es
muy costoso y complejo incorporar un nuevo modelo de
terminal a un servicio en funcionamiento, ya que es
imprescindible llevar a cabo desarrollos y adaptaciones de
software. Este coste añadido se puede eliminar mediante la
definición de un protocolo común a toda la industria
implicada en el desarrollo de la Teleasistencia Móvil.
Figura 2. Situación actual. Protocolos propietarios no
compatibles
Además de los inconvenientes antes citados, la falta de un
protocolo abierto obliga a la utilización de dispositivos
especializados muy costosos y que no se adaptan a las
necesidades de los distintos colectivos de usuarios de
Teleasistencia Móvil: mayores, personas con discapacidad,
enfermos crónicos, personas en situación de aislamiento,
etc. Esto, junto con las ineficiencias que hemos comentado
hacen que la ausencia de un protocolo abierto tenga
graves inconvenientes para todos los participantes y es
una barrera muy importante para la universalización de
los servicios de Teleasistencia Móvil.
La falta de un acuerdo sobre el protocolo de
comunicación a utilizar entre dispositivos móviles y
centrales de alarma de Teleasistencia, además de impedir
que se pueda atender debidamente la demanda de estos
servicios, no beneficia a ninguno de los agentes que
intervienen en el servicio: Proveedores de tecnología,
administraciones y prestadores del servicio. Resumimos
seguidamente los inconvenientes para cada uno de los
agentes que intervienen.
2.1. Inconvenientes para los prestadores de
Servicios de Teleasistencia
Los procesos de incorporación de un nuevo terminal al
servicio son largos, complejos y costosos, dado que es
necesario incorporar un protocolo de comunicaciones
específico en la Central. Además se incurre también en
costes adicionales de mantenimiento de dichos desarrollos y
adaptaciones.
2.2. Inconvenientes para las Administraciones
En la actualidad no existe ningún protocolo que permita
cumplir con las exigencias de los servicios de Teleasistencia
que se prestan en España. Además, una vez se han llevado a
cabo las adaptaciones para poder funcionar con un
fabricante de equipos, es muy difícil llevar a cabo el cambio
de prestador de servicio tras nueva adjudicación de
concurso público ya que el parque de terminales existente
no suele ser compatible con la Central de Atención del
nuevo prestador de servicio que ha ganado el concurso.
2.3. Inconvenientes para los proveedores de
Tecnología
Actualmente, un fabricante de equipos de Teleasistencia
tiene dos opciones: crear su propio protocolo de
comunicación o bien incorporar el protocolo que es
propiedad de otro fabricante. El primer caso supone una
labor de análisis y definición que se reitera por cada
fabricante, y en el segundo es necesario llegar a acuerdos de
licencia con las consiguientes negociaciones económicas y
jurídicas. Del mismo modo, si un integrador de sistemas de
atención de alarmas quiere incorporar un nuevo terminal,
tendrá que programar el protocolo correspondiente, previa
negociación para acceder a las especificaciones detalladas
de éste.
Todo esto supone una gran inercia y costes añadidos que
dificultan la incorporación de terminales nuevos.
Además, un fabricante o un integrador que quiere
ofrecer sus productos a un prestador de servicios de
Teleasistencia no tendrá la seguridad de cubrir las
expectativas del servicio en tanto no se integre la solución
completa y se hagan las pruebas correspondiente. Es muy
probable que tengan que llevarse a cabo modificaciones de
última hora. Un protocolo estándar reduce esta
incertidumbre, reduciendo a los proveedores el riesgo que
suponen unas especificaciones incompletas.
3. Descripción y objeto del
proyecto
El objetivo de paSOS es definir y mantener la evolución
de un protocolo libre y abierto, y que este se establezca
113
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
como un estándar de facto entre los proveedores de equipos
y de sistemas de Teleasistencia móvil y posterior
publicación como norma, con el fin último de fomentar la
universalización del servicio de Teleasistencia móvil.
Figura 3. Situación propuesta. Protocolo paSOS
interoperable
Además de la definición técnica del protocolo, es
fundamental promover su adopción por la industria y las
administraciones.
paSOS no tiene ánimo de lucro, se trata de una
iniciativa abierta a la industria y Fundación TECSOS hace
público todos los documentos de trabajo. El uso del
protocolo en terminales móviles y en los sistemas centrales
no conllevará gasto alguno de licencia ni derechos de uso.
Tras el desarrollo del protocolo y su implantación por
los fabricantes principales, se ha impulsado un proceso
formal de estandarización y normalización a través de
AENOR que ha culminado con la publicación de la
norma UNE 133503 ”Protocolo de comunicaciones entre
los terminales y los centros de alarma”.
El objetivo es evitar los inconvenientes importantes que
conllevan el uso de diferentes protocolos propietarios y
promover el uso de un protocolo abierto que ayude a
dinamizar e impulsar el desarrollo de los servicios de
Teleasistencia Móvil.
El proyecto se materializa con la creación de 4 grupos
coordinados por un comité gestor constituido por la
Fundación TECSOS.
define y se acuerda la especificación técnica del
protocolo paSOS. Este grupo está constituido por las
entidades y expertos especializados
que mayor
conocimiento tienen de Teleasistencia, incluyendo a los
principales fabricantes y distribuidores Teleasistencia que
operan en España, así como certificadores y consultores.
La Fundación TECSOS actúa como comité gestor para
coordinar, dinamizar y velar por el cumplimiento de los
objetivos del grupo, que son:
• Desarrollar y actualizar el protocolo de
comunicaciones paSOS para Teleasistencia Móvil.
• Consensuar y aprobar las sucesivas versiones
oficiales del protocolo.
• Diseñar normas y procedimientos para comprobar
la correcta implementación del protocolo y la
interoperabilidad con las demás implementaciones.
• Implantar el protocolo en los sistemas de los
fabricantes.
Todos los documentos finales que se elaboran por el GTT se
hacen públicos a través de la Web del Proyecto y su acceso
es libre y gratuito para todo el mundo.
3.2. Grupo de Interés
El Grupo de Interés está formado por las
Administraciones Públicas que puedan estar vinculadas
con servicios de Teleasistencia. Este grupo es clave para
lograr extender el uso del protocolo, ya que en España los
servicios de Teleasistencia han sido, desde sus orígenes,
impulsados y apoyados por las Administraciones públicas y
pueden aconsejar o recomendar el uso del protocolo
paSOS. La labor realizada por la Fundación TECSOS
durante el proyecto ha sido la de presentar e informar a
diferentes Administraciones Públicas de la existencia de
esta iniciativa, para que conozcan las ventajas y beneficios
que ofrece para todos y que de este modo puedan ayudar a
su difusión. La colaboración por parte de todas ellas ha
sido
máximo,
con
el
apoyo
explicito
del
CEAPAT/IMERSO, la firma de convenios con Red.es y
AMETIC o la incorporación del requisito de utilizar el
protocolo paSOS en concursos para la prestación del
servicio de Teleasistencia, como el publicado por el
Gobierno Vasco en el 2011 o más recientemente el
publicado por la Junta de Comunidades de Castilla la
Mancha.
3.3. Otras Entidades Adheridas
Este grupo de otras entidades adheridas engloban otras
entidades que apoyan la iniciativa y que incorporan el
protocolo en sus productos, pero que no son
Administraciones Públicas y no formar parte del Grupo
Técnico.
3.4. Comité de Normalización
Figura 4. Organización del Proyecto
3.1. Grupo de Trabajo Técnico (GTT)
El Grupo Técnico de Trabajo (GTT) constituye un
elemento clave dentro del proyecto, ya que es donde se
En el año 2012 AENOR, entidad de referencia
certificación y normalización en España,
muestra
disposición para apoyar la iniciativa e iniciar un proceso
normalización.
En julio del 2012, se constituye el grupo paSOS
normalización dentro del comité AEN/CTN 133
114
de
su
de
de
de
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Telecomunicaciones, subgrupo GT3 de Accesibilidad de
AENOR. En el grupo se adhieren representantes del sector,
Administraciones Públicas (IMSERSO, CEAPAT y la
Delegación para la Violencia de Género, prestadores de
servicio como Alares, Cruz Roja, Eulen y Servicios de
Teleasistencia), los principales fabricantes (Grupo Neat,
Ibernex, Novalarm, Vezklizan y Tusntall,), empresas de
consultoría tecnológica (Pina Ingeniería) y universidades
(Universidad Politécnica de Madrid).
4. Sector de población al que
va dirigido
Como se ha mencionado, el proyecto tiene por objetivo
impulsar y universalizar el Servicio de Teleasistencia
Móvil que atiende a colectivos vulnerables como personas
mayores, personas con discapacidad, personas con
Alzheimer o personas que sufren violencia de Género. No
obstante, el proyecto ofrece ventajas a todos los
participantes en el servicio.
4.1. Ventajas para los usuarios
Un protocolo abierto facilita la incorporación de nuevos
terminales al servicio, facilitando una mayor variedad de
equipos móviles para adaptarse a las necesidades de cada
usuario. La reducción del coste de los equipos y la
posibilidad de adaptar terminales “comerciales” de telefonía
móvil con un coste mucho menor permitirá extender el
servicio de Teleasistencia móvil a un mayor número de
usuarios.
4.2. Ventajas para los fabricantes
La existencia de un protocolo abierto de Teleasistencia
permite a los fabricantes centrar sus esfuerzos en el
desarrollo de terminales con mejores prestaciones, sin
perder recursos en la adaptación de protocolos de terceros o
el desarrollo de soluciones ad-hoc y acortando el plazo de
tiempo para la comercialización efectiva de los nuevos
desarrollos, al tener la certeza de poder integrarlos en los
servicios en funcionamiento.
4.3. Ventajas para los prestadores de servicios
Los prestadores de servicios ganan en agilidad en la
incorporación de terminales a su oferta de servicios e
incurren en costes menores. Agiliza la contratación y
facilita la integración de proveedores de tecnología
(proveedores de terminales móviles y de los sistemas de
gestión de las centrales de alarmas) y la diversificación de
éstos.
4.4. Ventajas para las administraciones
Un protocolo de comunicaciones abierto facilita la
migración de usuarios entre distintos prestadores de
servicio, sin que sea necesario cambiar los dispositivos de
usuario. La posibilidad de contar con una mayor
concurrencia de proveedores de equipos supondrá además
una reducción de los costes. Finalmente, la existencia de
una referencia externa facilita el aseguramiento de las
prestaciones necesarias a los servicios de Teleasistencia.
5. Calendario desarrollo del
proyecto
El proyecto dio comienzo oficialmente en Febrero del
2010, tras la aprobación por parte del Patronato de la
Fundación TECSOS de la ejecución del proyecto y la
dotación presupuestaria correspondiente. El apoyo al
proyecto por parte de la Fundación TECSOS es unánime,
pues se considera un proyecto que encaja a la perfección
con la misión, visión y plan de acción de la fundación.
Durante estos años de ejecución del proyecto los logros
conseguidos han sido significativos, destacando:
Julio 2010: Constitución formal del Grupo Técnico
de Trabajo, aprobando las normas de funcionamiento del
grupo y el plan de acción del 2010 por unanimidad. Se
presenta una versión inicial del protocolo, se nombran
representantes de cada entidad y se adhieren formalmente.
En
ese mismo mes se lanza la nueva Web del proyecto:
www.pasosproject.org.
Un espacio fundamental para la
difusión del proyecto a través del cual se informa de los
avances del proyecto, se atienden consultas de información
y se puede descargar de forma gratuita todos los
documentos técnicos aprobados. También dispone de un
espacio colaborativo interno de trabajo para el Grupo de
Trabajo Técnico. Desde su lanzamiento la Web ha recibido
miles de visitas de todo el mundo.
Noviembre 2010: Se convoca una reunión presencial
del grupo de Trabajo Técnico para el debate y aprobación
de la primera versión del protocolo, y los fabricantes se
comprometen a incorporar el protocolo en sus productos
durante el 2011.
Enero 2011: Se publica la primera versión oficial del
protocolo paSOS y se lanza una nota de prensa que tiene
una gran repercusión entre el sector. A partir de ese
momento cualquier persona y/o entidad puede solicitar de
forma gratuita la documentación técnica del protocolo desde
la página Web del proyecto. Desde su publicación se han
recibido múltiples solicitudes de información y descargas
del protocolo tanto a nivel nacional como internacional,
desde desarrolladores particulares, empresas del sector,
universidades y centros de investigación.
Febrero 2011: Se lanza un piloto con 20 personas
víctimas de violencia de genero en Londres, en el área
metropolitana del Valle del Támesis. Este piloto forma parte
de una iniciativa de Fundación Vodafone Grupo entre sus
Fundaciones a nivel mundial para impulsar el desarrollo del
servicio de Teleasistencia Móvil en sus países. A esta
iniciativa se han sumado países como Alemania, República
Checa, Alemania, Italia, Hungría, Rumania y República
Checa, entre otros. Esto abre la posibilidad de que estos
países utilicen como referencia el protocolo paSOS en los
nuevos servicios de Teleasistencia Móvil que están
definiendo en cada país.
Abril 2011: Fabricantes como Tunstall y Grupo Neat ya
tienen incorporado el protocolo en sus Centrales de
Atención.
Mayo 2011: El Gobierno Vasco saca a concurso público
la prestación del servicio de Teleasistencia y por primera
115
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
vez se menciona el protocolo paSOS en las bases de un
Concurso público, lo que fue un impulso definitivo hacia
su uso y estandarización.
Octubre 2011: El Gobierno Vasco, a través de la
Ertzaintza lanza un servició que utiliza el protocolo paSOS
en el servicio de atención a víctimas de violencia de
Género.
Julio 2012: Se publica la segunda versión del protocolo
y se constituye el grupo de trabajo de AENOR para
iniciar el proceso de normalización dentro de comité
CTN133, subgrupo de GT3 de accesibilidad.
Febrero 2013: La Junta de Comunidades de Castilla
la Mancha recomienda y valora la utilización del
protocolo paSOS en los pliegos del Concurso de
Teleasistencia Domiciliaria.
Abril 2013: Es aprobado paSOS como norma UNE
133503.
6. Aportaciones
sector
nuevas
al
8. Referencias
[1] Norma UNE 133503:
http://www.aenor.es/aenor/normas/normas/fichanorma.asp?tipo=N
&codigo=N0051090&PDF=Si#.UZCqXKK8Ddw
[2] Web paSOS Project: www.pasosproject.org
[3] Web Fundación TECSOS: www.fundaciontecsos.es
9. Derechos de autor
El autor o los autores de los artículos presentados como
soporte documental para sus intervenciones en el Congreso,
en el mismo acto de enviarlos para su aprobación, aceptan
la cesión de los derechos de autor sobre los mismos para su
publicación en el libro de actas del Congreso.
El proyecto paSOS tiene un marcado carácter
estratégico, innovador y pionero, ya que no existen
iniciativas similares a nivel nacional ni a nivel europeo.
Para el servicio de Teleasistencia Domiciliaria han existido
iniciativas similares que no han tenido éxito ya que al
tratarse de un servicio consolidado se han creado muchos
vínculos e inercias que son difíciles de revertir. El servicio
de Teleasistencia Móvil es pionero y no existen estas
inercias, lo que ha facilitado el éxito de esta iniciativa que
contribuirá a la interoperabilidad y universalización de
Servicio de Teleasistencia Móvil y por tanto a mejorar la
calidad de vida de las personas más vulnerables.
7. Otras iniciativas en marcha
Desde la Fundación TECSOS continuamos trabajando
para seguir evolucionando el servicio de Teleasistencia
Móvil y mejorar aspectos como la accesibilidad para
personas sordas, ya que al ser la comunicación por voz,
históricamente han quedado excluidas de los servicios
tradicionales de teleasistencia. La universalización de los
teléfonos inteligentes, con GPS, pantalla táctil y gran
capacidad de proceso, han abierto una nueva oportunidad
para pasar de utilizar dispositivos especializados que se
utilizan para estos servicios, a poder utilizar un smartphone
al que se le carga una aplicación inteligente que incorpora
todas las funcionalidades necesarias y mejoras de
accesibilidad, manejo y seguridad.
116
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Realidad Virtual Aplicada en Rehabilitación: la Wii™
como Herramienta de Terapia Ocupacional en
Personas con Lesión Medular
Marta Pérez Seco, Belén Gómez Saldaña, Almudena Redondo Sastre
Departamento de Terapia Ocupacional. Fundación del Lesionado Medular. Madrid
[email protected]
Resumen
Introducción: La realidad virtual en rehabilitación ha
aumentado en los últimos años. La consola Wii™
complementa al tratamiento convencional, trabajando
habilidades motrices en un contexto motivador, factor
importante en intervenciones de larga duración, como
en la lesión medular.
Objetivo: presentar la forma de trabajo de terapia
ocupacional en la Fundación del Lesionado Medular
con la Wii™ y las adaptaciones para su acceso,
describiendo sus ventajas e inconvenientes.
Metodología: 64 pacientes con lesión medular: 46
personas con tetraplejia, 17 con paraplejia y una
persona con síndrome de Guillain Barré. Durante un
año, en sesiones de 30 minutos una vez por semana.
Resultados: se han observado beneficios a nivel motor
y una mejora en la adherencia al tratamiento.
Conclusión: Las características de la consola y las
adaptaciones creadas por el departamento consiguen
que Wii™ sea accesible, enriqueciendo el tratamiento y
aumentando la motivación del usuario.
Palabras clave: lesión medular, Wii, rehabilitación,
terapia ocupacional.
Abstract
Introduction: the virtual reality has increased in the
last years in the rehabilitation world. The Wii™
console complets the traditional treatment working the
motor skills in a motivated context, which is important
in long period interventions, as happens in spinal cord
injury.
Goal: to introduce the work with Wii™ console and the
different support products used, describing its benefits
and its disadvantages in the Occupational Theraphy
Department at the Fundación del Lesionado Medular.
Method: 64 patients with spinal cord injury: 46 people
with quadriplegia, 17 w ith paraplegia and one person
with Guillain-Barré Syndrome, during one year in
treatments of 30 minutes, once per week.
Results: motor benefits have been obtained and the
patients have been more involved with the treatment.
Conclusion: the features of the console and the support
products made by the department let the Wii™ to be
accesible and rich the treatment and increase the
motivation of the patients.
Key words: Spinal cord injury, Wii™, rehabilitation,
Occupational Therapy.
1. Introducción
Existe un reciente interés por el tema de la realidad
virtual aplicada al proceso rehabilitador [1]. La consola
Wii™, así como otras nuevas tecnologías, proporcionan
un complemento al tratamiento convencional a través de
actividades asequibles y motivadoras para el paciente,
permitiendo además la práctica de movimientos
funcionales [2, 3].
La Nintendo Wii™ es una consola que capta los
movimientos tridimensionales de la persona que la
utiliza, gracias a un mando inalámbrico con infrarrojos y
una barra de sensores. Esto proporciona un manejo muy
intuitivo y de fácil uso, ya que a través del mando se
ejecutarán los movimientos solicitados en el juego.
El departamento de terapia ocupacional de la Fundación
del Lesionado Medular ha desarrollado un programa de
entrenamiento en habilidades a través de la consola y sus
juegos. Esta nueva herramienta permite trabajar
diferentes habilidades motrices en un contexto muy
motivador, factor importante en lesión medular, ya que
conlleva un largo proceso de rehabilitación y
mantenimiento físico que a veces se hace arduo.
Entre las ventajas que nos presenta el uso de la Wii™ en
rehabilitación están:
- Fácil utilización.
- Accesibilidad.
- Elevada motivación.
117
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
-
Feedback visual y auditivo.
Bajo coste.
Gran variedad de juegos.
Necesidad de poco espacio de juego.
Aunque los resultados obtenidos en el programa de
entrenamiento que se presenta carecen de evidencia
científica, existen diferentes estudios sobre la
aplicación de la Wii™ como herramienta terapéutica.
Laver (2011) [4] expone que el uso de realidad virtual y
videojuegos interactivos puede ser beneficioso
mejorando la función del miembro superior, así como
las actividades de la vida diaria, en comparación con la
terapia convencional. Mouawad (2010), Saposnik
(2011), Celinder (2012) y Hurkman (2011) [5-8] hablan
del beneficio potencial en la rehabilitación del paciente
con accidente cerebrovascular, así como en el aumento
de la motivación, a través de la incorporación del juego
WiiSports® en el programa de tratamiento de terapia
ocupacional. En otros estudios [8-10] se afirma que los
deportes de tenis y boxeo en WiiSports® pueden ser
útiles para incrementar los niveles de actividad y
promover un estilo de vida saludable en personas con
afectación neurológica. También existen estudios con la
consola Wii™ que hablan del beneficio de estos juegos
en personas mayores relativos a la fuerza, capacidad
cardiovascular, equilibrio y coordinación [11].
En lo referente a los productos de apoyo, se habla de
una mejora en la corrección de la posición de la cabeza
en personas con gran discapacidad utilizando el mando
Wii [12].
2. Objetivos
- Presentar la Wii™ como herramienta de trabajo en
rehabilitación desde el departamento de terapia
ocupacional de la Fundación del Lesionado Medular.
- Describir los objetivos y tratamiento en lesión
medular a través de la consola.
- Mostrar las distintas adaptaciones de su manejo.
- Exponer ventajas e inconvenientes de la intervención
con la Wii™.
3. Metodología
El entrenamiento de Wii™ se lleva desarrollando en
el departamento de terapia ocupacional durante un año.
Se ha trabajado con 64 pacientes con el siguiente
diagnóstico:
-
46 personas con tetraplejia, con niveles de lesión
entre C4 y C7, ASIA A, B, C y D (según la
American Spinal Cord Injury Association).
- 17 personas con paraplejia, con niveles de lesión
entre D2 y L2 ASIA A, B, C y D.
- Una persona con síndrome de Guillain Barré.
Todos los pacientes han pasado por una valoración
de actividades de la vida diaria, mediante una versión
de la escala SCIM (Spinal Cord Independence
Measure); además, aquellos con afectación de
miembros superiores han pasado por un balance de
músculos clave y medición goniométrica de miembro
superior, y una valoración funcional de la prensión. En
base a esto, se establecen unos objetivos que, si
coinciden con las destrezas que se entrenan a través de
la consola, constituyen la base del programa de
entrenamiento.
Las contraindicaciones son relativas, ya que según las
instrucciones del fabricante no existe riesgo para la
salud derivado de su uso, pero sí se han tenido en
cuenta distintos factores a la hora de incluir al paciente
en el programa de tratamiento con la videoconsola:
Afectación cardiorrespiratoria que impide la
participación en el juego con normalidad:
mareos, incapacidad para hablar durante la
actividad, etc.
Baja tolerancia a la frustración.
Lesión aguda del sistema musculoesquelético:
tendinitis, fractura, etc.
Alteraciones cognitivas o conductuales que
conlleven un riesgo de caída durante la
actividad.
Los objetivos que se pueden trabajar a través de la
Wii™ son el balance articular de miembros superiores,
balance muscular, coordinación, destreza, velocidad de
movimiento, tolerancia al esfuerzo, equilibrio, control
postural, integración visomotriz, transferencia de
cargas.
Dichos objetivos se conseguirán a través de la
elección del juego, que en este caso han sido Wii
Sports®, Wii Sports Resort®, Zumba® y Just Dance
2®, y el nivel de dificultad de éste, además de la forma
de trabajar: con adaptaciones y productos de apoyo para
el acceso, cambiando la postura del paciente
(sedestación, bipedestación), bases inestables, pesos
adicionales, etc.
Las sesiones tienen una duración de 30 minutos, con
una frecuencia de una vez por semana, pudiendo
desarrollarse de forma individual o por parejas. En el
caso de los juegos de baile se puede trabajar en grupo
siendo sólo una o dos personas las que puntúan. El
programa de entrenamiento se lleva a cabo con la
asistencia siempre al
de
terapeuta
118
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
ocupacional que controla la adecuada realización de la
actividad.
Tabla 1. Destrezas destacadas en el entrenamiento con juegos de Wii™.
Coordinación
Control
motriz
X
X
X
Golf
X
X
X
Boxeo
X
X
X
X
X
X
X
DESTREZA
Rango de
movimiento
Control
postural
Bolos
X
Tolerancia
al esfuerzo
Velocidad de
movimiento
Integración
visomotriz
X
X
X
X
X
X
X
X
X
Tenis
X
Béisbol
X
Frisbee
X
X
Tenis mesa
X
X
Vuelo
X
X
Wakeboard
X
X
Piragüismo
X
X
X
X
X
Ciclismo
X
X
X
X
X
Baloncesto
X
Moto
acuática
X
X
Espadas
X
X
Otras*
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
119
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Zumba
X
X
X
X
X
X
X
X
Just Dance 2
X
X
X
X
X
X
X
X
*Otras: transferencia de cargas en bipedestación, actividad bimanual.
4. Desarrollo
4.1 Características de la consola Wii™
La Wii™ es una consola con múltiples posibilidades
de utilización, dependiendo tanto de sus características
propias como de la forma con la que se trabaje con el
paciente.
Su funcionamiento consiste en una barra de sensores
que recoge los movimientos realizados con un mando, a
través de rayos infrarrojos.
Mando: el mando principal, Wii Remote, tiene unas
características que se adecuan bastante a las
capacidades de una persona con afectación de los
miembros superiores: es inalámbrico, se agarra
mediante una prensión palmar, no requiere
constantemente el uso de botones o joystick y tiene una
funda adherente. Además, su vibración en el juego da
una función de estímulo propioceptivo.
Posee un sensor en su interior que mide el
movimiento en cualquier dirección y velocidad [3].
Existen otros mandos accesorios o secundarios, que
se utilizan en juegos concretos, como el Nunchuk y la
Wii Balance Board.
Personaje Mii: Existe la posibilidad de crear un
avatar para cada usuario, eligiendo entre una amplia
variedad de características corporales. Cada paciente
tiene, por lo tanto, su propio personaje con su
puntuación acumulada de cada juego, lo que supone
una mayor implicación en el momento de realizar el
movimiento.
4.2 Juegos de la consola Wii™
En el departamento de terapia ocupacional se ha
trabajado con los juegos Wii Sports®, Wii Sports
Resort®, Zumba® y Just Dance2®, mediante los
cuales se han entrenado distintas destrezas, recogidas
en la tabla 1.
Los juegos Wii Sports® y Wii Sports Resort®
consisten en la simulación de diferentes deportes:
bolos, tenis, golf, béisbol, boxeo, espada, wakeboard,
frisbee, tiro con arco, baloncesto, tenis de mesa, moto
acuática, piragüismo, ciclismo y vuelo.
Existen
distintos niveles de dificultad, disponibles para elegir
antes de cada partida o según la acumulación de puntos
que se vayan consiguiendo. El paciente tiene que
realizar el movimiento de manera similar a como lo
haría en la realidad, y el personaje Mii se mueve tal y
como se ha ejecutado la acción, por lo que el feedback
es inmediato. En la mayoría de los juegos, es posible
que compitan entre dos o más personas. Las partidas
no tienen una duración larga (máximo 5 minutos), y es
posible hacer una pausa en cualquier momento del
juego.
Los juegos Zumba® y Just Dance 2® consisten en la
realización de una coreografía, imitando los
movimientos del personaje que aparece en la pantalla.
En el caso de Zumba®, la información que se recoge es
relativa al ritmo y a la energía que se gasta: a través de
una barra de energía se comprueba en el momento si la
persona debería moverse de manera “más enérgica”. Si
el color del personaje es rojo, el ritmo no se lleva
correctamente, mientras que si es verde, el ritmo es
adecuado. Además, es posible competir con otros
pacientes, en cuyo caso se obtiene una puntuación al
final de la coreografía. También existe la opción de
elegir una sola canción (unos 5 minutos) o una sucesión
de canciones, con una intensidad creciente y
decreciente, durante veinte minutos.
En el juego Just Dance 2®, es posible observar la
puntuación que se va acumulando de forma simultánea
a la coreografía. El feedback es relativo a la correcta
realización del movimiento recogido a través del
mando, y la duración de cada canción ronda los 4
minutos.
120
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Tabla 2. Movimientos principales que se trabajan con los juegos de Wii.
Movimiento
Flexión,
Abd y
rotaciones
hombro
Flexoextensión
codo
Bolos
X
X
Tenis
X
Tenis de
mesa
Golf
X
X
X
Rotaciones
tronco
Cuello
X
X
Ciclismo
Espadas
Flexoextensión
muñeca
X
Wakeboard
Zumba, Just
Dance 2
Pronosupinación
X
X
X
X
X
X
X
X
121
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
4.3 Modo de trabajo
El método de intervención con cada paciente es
individualizado. Dependiendo de sus características y
de la valoración y objetivos iniciales, se determina la
posición en la que se trabaja, así como la duración del
entrenamiento y el nivel de dificultad.
- Sedestación:
El paciente puede estar sentado en su silla de ruedas,
si no posee suficiente control de tronco o el único
objetivo es el trabajo de los miembros superiores o del
cuello. No obstante, especialmente cuando se ejercita el
control postural y el equilibrio de tronco, se realiza la
actividad en sedestación larga en colchoneta, en camilla
sin apoyos, en silla, o bien en una sedestación más
inestable, empleando utensilios como una pelota o un
cojín propioceptivo.
- Bipedestación:
Determinados juegos, como el golf, la realización de
coreografías o el frisbee, son interesantes cuando se
necesita trabajar el desplazamiento de cargas sobre los
miembros inferiores, las reacciones de enderezamiento y
el control postural y motriz.
4.4 Adaptaciones
La accesibilidad de la consola Wii™ es relativa,
dependiendo también de las adaptaciones que se
puedan realizar para que el mayor número de usuarios
puedan aprovechar su uso como una actividad de
tratamiento más dentro de la terapia ocupacional. Aquí
se exponen diferentes maneras de facilitar el acceso de
los pacientes a la práctica con la videoconsola.
-
-
-
Manopla o vendaje: indicado para aquellas personas
con dificultad para una prensión palmar mantenida, se
trata de vendar o sujetar el mando a la mano del
paciente, de manera que no necesita emplear fuerza en
el agarre.
Casco: se utiliza en personas con una gran afectación de
miembros superiores, con las que se pretende trabajar la
movilidad del cuello o incluso el tronco. El mando se
coloca sobre el casco, permitiendo participar en juegos
como wakeboard o el vuelo.
WiiWheel: mediante un volante, accesorio que ofrece
Wii™, se puede trabajar la pronosupinación en aquellos
pacientes que no tienen ninguna capacidad de prensión
y apenas movilidad de hombro. El volante se coloca
sobre una superficie (mejor si se dispone de material
antideslizante), de manera que la persona sólo tiene que
mantenerlo perpendicular a ella, realizando los
movimientos de pronosupinación requeridos. Este
movimiento no es exclusivo de los juegos de
conducción: por ejemplo, se puede utilizar como
adaptación en el juego de wakeboard.
Bloqueo de botones: en determinados juegos, el paciente se
encuentra con el obstáculo de presionar un botón para
realizar una acción. En algunos casos, es posible adaptar el
mando con un adhesivo elástico de manera que el botón se
mantenga presionado de manera continua.
5. Resultados
-
-
-
Desde el departamento de terapia ocupacional se han
encontrado resultados que sugieren un beneficio en el
proceso rehabilitador del paciente:
Mayor motivación a la actividad propuesta. Al tratar el
objetivo marcado a través de juegos, la actividad es
más entretenida. Además, el hecho de poder competir
entre varios usuarios, puede llevar a una mayor
tolerancia a la frustración.
Mayor adherencia al tratamiento. Con el resultado en
forma de puntuaciones y el paso a niveles de mayor
dificultad, el paciente obtiene un refuerzo positivo y
aprende nuevas estrategias para superarse.
Beneficios físicos: al trabajar con movimientos
funcionales y tener un feedback inmediato, es mucho
más intuitivo y más fácil de integrar hacia un
movimiento normal.
1. Velocidad de movimiento: en juegos como en el
tenis de mesa, el contrincante mantiene una
velocidad de juego según el nivel que obliga al
paciente a realizar el movimiento de acuerdo a las
exigencias de éste. En otras ocasiones, como en
los juegos de coreografía, es necesario seguir el
ritmo marcado. Esto supone un ajuste en la
velocidad del movimiento, que puede verse
incrementada o disminuida, con resultados
secundarios, como el aumento o la disminución
del tono muscular, o lo que es más importante, la
regulación de éste en base a la actividad exigida.
2. Rango de movimiento y fuerza muscular de
miembros superiores: como se puede observar en
la tabla 2, en los juegos utilizados en el programa
de entrenamiento se trabajar distintos
movimientos de miembro superior, con la ventaja
de que se realizan de forma global, incluyendo
todos los planos del espacio, lo que es más
funcional.
3. Integración visomotriz: juegos como el tenis de
mesa, el tenis, el béisbol o la espada, demandan la
realización del movimiento en un momento
determinado por un estímulo visual.
4. Tolerancia al esfuerzo: la variedad de los juegos y
la corta duración de éstos permiten ajustar la
122
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
resistencia necesaria para cada paciente,
proponiendo un solo juego o bien concatenando
varias partidas o coreografías.
5. Control postural: el trabajo en varias posiciones
permite que el paciente entrene el equilibrio y le
exige un ajuste continuo de sus reacciones de
enderezamiento.
6. Control motriz: los patrones de movimiento
utilizados en la consola son funcionales.
Propuesta de actividad de la vida diaria en ocio: a
través de la intervención, e ideando adaptaciones
y productos de apoyo específicos para la consola,
se ofrece una nueva posibilidad de ocio incluso a
personas con niveles de lesión muy alto.
La ventaja de este tipo de tecnología en realidad virtual
es la posibilidad de ofrecer, mediante un producto asequible
económicamente y accesible a la mayoría de la población,
una nueva forma de rehabilitación y ejercicio del
movimiento funcional.
-
6. Discusión
Debido a que la consola Wii™ está destinada al ocio y
su uso no estaba previsto para personas con discapacidad
física, durante el proceso de rehabilitación se han
encontrado diversas dificultades. Por un lado, no existe la
posibilidad de realizar una medición objetiva con el juego,
solamente a través de una puntuación obtenida. Sería
interesante que se pudiese registrar los datos de cada uno de
los usuarios de manera más detallada, permitiendo no sólo
ver los progresos sino hacer comparativas de datos.
Además, no siempre existe la posibilidad de graduar la
dificultad: lo ideal sería poder adaptarlos a cada tipo de
lesión para ir aumentando la dificultad o bien adaptarla a las
capacidades de cada persona. Lo mismo ocurre en la
velocidad de los juegos: si fuese viable su regulación, se
podría graduar también en base al objetivo planteado para el
paciente.
Otro inconveniente que se ha encontrado ha sido el refuerzo
negativo que ha supuesto para algunos pacientes cuando, en
algunas ocasiones, han visto su puntuación disminuir o se
han comparado con otros usuarios.
En cuanto a la adaptación de los juegos, sería interesante
que existiesen algunos en los que sólo fuese necesario el uso
de una sola articulación, y no la combinación de varias.
También, que se aumentasen el tipo de juegos que no
requieran el uso de botones, ya que esto ha limitado el
número de personas que podían realizar determinadas
actividades propuestas con Wii™.
Por otro lado, las muestras con las que se han realizado este
tipo de investigaciones deberían ser más amplias. Esto
sugiere que es necesario llevar a cabo más estudios para
poder confirmar tanto los beneficios a nivel motor como la
mayor motivación y adherencia al tratamiento que se
obtienen.
7. Conclusiones
La Wii™ es una herramienta útil dentro del proceso de
intervención en la rehabilitación de personas con afectación
neurológica, en este caso, de la lesión medular. Sus
características, así como las adaptaciones creadas por
terapeutas ocupacionales, permiten su acceso a personas con
gran afectación de miembros superiores. El valor que
adquiere la Wii™ como herramienta de trabajo en
rehabilitación se lo da el profesional, que sabe enfocar y
plantear el juego de forma adecuada para conseguir los
objetivos deseados con cada usuario. Esto supone una
mayor adherencia al tratamiento por parte de los pacientes,
a la vez que abre una nueva línea de intervención e
investigación con este tipo de nuevas tecnologías.
8. Bibliografía
[1] M. Holden, “Virtual environments for motor rehabilitation:
review”, CyberpsycholBehav, 2005, pp. 187-211.
[2] J.A. Gil-Gómez, R. Lloréns, M. Alcañiz, y C. Colomer,
“Effectiveness of a Wii balance board-based system (eBaViR) for
balance rehabilitation: a pilot randomized clinical trial in patients
with acquired brain injury”, JNeuroengRehabil, published online
2011 May 23, pp. 8-30.
[3] M.S. Cameirao, S. Bermúdez, y PFMJ. Verschure, “Virtual
reality based upper extremity rehabilitation following stroke: a
review”, Journal of CyberTherapy& Rehabilitation, 2008, pp. 6374.
[4] K. E. Laver, S George, S. Thomas, J. E. Deustsch, M. Crotty,
“Virtual reality for stroke rehabilitation”, C ochrane Database
Syst Rev., 2011, pp. 38.
[5] G. Saposnik, R. Teasell, M. Mamdami, J. HLL, W. McIlroy,
D. Cheung, K. E. Thorpe, L.G. Cohen, M. Bayley, “Effectiveness
of Virtual Reality Using Wii Gaming Technology in Stroke
Rehabilitation, A Pilot Randomized Clinical Trial and Proof of
Principle”, Stroke, 2010, pp. 1477-1484.
[6]M.R. Mouawad, C.G. Doust, M.D. Max, P.A. McNulty, “Wii based movement therapy to promote improved upper extremity
function post -stroke: a pilot study”, J Rehabil Med, 2011, pp.
527–533.
[7] D. Celinder, H. Peoples. “Stroke patients' experiences with Wii
Sports(®) during inpatient rehabilitation.”, Scand J Occup Ther,
2012, pp 7-9.
[8] H.L. Hurkmans, G.M. Ribbers, M. F. Streur- Kranenburg, H.J.
Stam, R.J. van den Berg- Emons, “Energy expediture in chronic
stroke patients playing Wii Sports: a pilot study”, Journal of
NeuroEngineering and Rehabilitation, 2011, pp. 3-8.
[9] H.L. Hurkmans, R.J. Van den Berg-Emons, y H.J. Stam,
“Energy expenditure in adults with cerebral palsy playing Wii
Sports”, Arch Phys Med Rehabil, Oct.2010, pp. 1577-81.
126
123
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[10] J.K. Hsu, R. Thibodeau, S.J. Wong, D. Zukiwsky, S. Cecile, y
D.M. Walton, “ A "Wii" bit of fun: the effects of adding Nintendo
Wii(®) Bowling to a standard exercise regimen for residents of
long-term care with upper extremity dysfunction”, Physiother
Theory Pract.EpubAug 10, Apr 2011, pp. 185-93.
[11] M.K. Baker, E. Atlantis, y M.A. Fiatarone Singh, “Multimodal exercise programs for older adults”, Age Ageing, 2007, pp.
375-381.
[12] C.H. Shih, C.J. Shih, y C.T. Shih, “Assisting people with
multiple disabilities by actively keeping the head in an upright
position with a Nintendo Wii Remote Controller through the
control of an environmental stimulation”, Res DevDisabil, SeptOct 2011, pp. 2005-10.
[13] H. Sveistrup, “Motor rehabilitation using virtual reality”, J
NeuroengRehabil, 2004, pp. 1-10. [14] J.H. Crosbie, S. Lennon, J.R. Basford, y S.M. McDonough,
“Virtual reality in stroke rehabilitation: still more virtual than
real”,
DisabilRehabil,
2007,
pp.
1139-1146
124
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
An Innovative Solution Based on Human-
Computer Interaction to Support Cognitive
Rehabilitation
José M. Cogollor1, Matteo Pastorino2, Javier Rojo1, Alessio Fioravanti2, Alan Wing3, Maria Teresa Arredondo2, Manuel Ferre1, Jose Breñosa1, Joachim Hermsdörfer4, Javier De Teresa5, Clare Walton6, Andrew Worthington7, Christos Giachritsis8
1
Centre for Automation and Robotics CAR (UPM-CSIC), José Gutiérrez Abascal 2, 28006 Madrid, Spain: [email protected], [email protected], [email protected],
[email protected].
2
Life Supporting Technologies, ETSIT-UPM, Avda. Complutense 30, Madrid, Spain:
[email protected], [email protected], [email protected].
3
School of Psychology, The University of Birmingham, Edgbaston, Birmingham B15 2TT, UK: [email protected].
4
Institute of Movement Science, Department of Sport and Health Science, Technical University
of Munich, 80992 Munich, Germany: [email protected].
5
RGB Medical Devices S.A., Alfonso Gómez 42, 28037 Madrid, Spain: [email protected].
6
Stroke Association House, 240 City Road, London EC1V 2PR, UK: [email protected]. 7
Headwise, Innovation Centre, Longbridge Technology Park, Birmingham B31 2TS, UK: [email protected]. 8
BMT Group Ltd, Goodrich House 1, Waldegrave Road Teddington, Middlesex, TW11 8LZ, UK:
[email protected]. Resúmen
Esta contribución describe el diseño e implementación
de un sistema innovador para proporcionar rehabilitación
cognitiva. Está orientado a personas que sufren de Apraxia
y Síndrome de la Desorganización de la Acción (por sus
siglas en inglés AADS) ocasionado principalmente tras
infartos cerebro-vasculares. La plataforma ha s ido
integrada en Universidad Politécnica de Madrid e intenta
reducir el periodo de visita en el centro de rehabilitación
proporcionando rehabilitación personalizada en casa. Así
que, el sistema actúa como una m áquina inteligente que
guía al paciente mientras ejecuta actividades de la vida
cotidiana (por sus siglas en inglés ADL), tales como
preparar un s imple té, informando sobre los errores
cometidos y acciones posibles para corregirlos. En el
documento se ofrece una pequeña introducción sobre otros
trabajos relacionados, pacientes con los que tratar, cómo
funciona el sistema y cómo se implementa. Finalmente,
también se muestra información relevante
experimento realizado para su validación técnica.
sobre
Abstract
This contribution focuses its objective in describing the
design and implementation of an i nnovative system to
provide cognitive rehabilitation. People who will take
advantage of this platform suffer from a post-stroke disease
called Apraxia and Action Disorganisation Syndrome
(AADS). The platform has been integrated at Universidad
Politécnica de Madrid and tries to reduce the stay in
hospital or rehabilitation center by supporting selfrehabilitation at home. So, the system acts as an intelligent
machine which guides patients while executing Activities of
Daily Living (ADL), such as preparing a simple tea, by
informing them about the errors committed and pos sible
actions to correct them. A short introduction to other works
related to stroke, patients to work with, how the system
125
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
works and how it is implemented are provided in the
document. Finally, some relevant information from
experiment made with healthy people for technical
validation is also shown.
1. Introduction
Neurological patients after stroke may suffer from
disrupted action due to cognitive deficits which prevent
them from maintaining independent lives. As indicated by
the World Health Organisation, 15 million people
worldwide suffer from a stroke each year. The number of
stroke sufferers will inevitably increase caused by the
continuous ageing of population [1].
One third of the stroke sufferers will experience longterm physical and/or cognitive disabilities, and stroke is
considered to be the most common cause for severe
disability and even death. Following a stroke incident, a
significant proportion of patients can suffer from Apraxia
and/or Action Disorganisation Syndrome (AADS) which,
among other symptoms, is demonstrated by the impairment
of cognitive abilities to carry out Activities of Daily Living
(ADL) [2-4].
Recent study estimates that 46% of stroke patients
initially have a degree of Apraxia with 24% showing
persistence of the problems at 9 months follow-up. AADS
can have a dramatic impact on patients’ independence and
may obviously result in the need for continuous support and
care provided by caregivers or specialist cares. Thus, there
is a requirement for effective rehabilitation for AADS.
Most common rehabilitation systems are focused on
treating physiological aspects of stroke, such as limb
movement [5], and are based on robot or virtual
environment platforms which are expensive and not
effective for a home base environment [6-9]. Furthermore,
they are space dependent, requiring the patient to function
within their working space rather than adapting to patient’s
natural environment.
To date, most common rehabilitation systems that are
based on Information and Communication Technologies
(ICT) focus on treating physiological symptoms of stroke
(e.g. muscle weakness) [10-13]. These systems are
inappropriate for rehabilitation of the cognitive basis of
AADS. Moreover, these systems tend to be expensive and
so impractical for home installations. As a consequence, this
affects the continuity of therapy and weakens its impact.
This paper presents a different solution whose
contribution is part of a European project called CogWatch
[14]. The aim is to provide a rehabilitation system based on
highly instrumented common objects and tools, wearable
and ambient devices that are part of patients’ everyday
environment and can be used to monitor behaviour and
progress as well as re-train them to carry out ADL through
persistent multimodal feedback at home.
The document is divided into several sections. Section II
presents a brief description of AADS patients and the
effects of stroke. Once the main features of these patients
are described, the physical description of the platform and
how the system works are presented in section III and
section IV in order to detail an experiment carried out to
assess the solution adopted in section V. Finally, in section
VI, a conclusion and brief summary of the general results
are presented.
2.
Apraxia
and
action
disorganisation syndrome
Apraxia is a cognitive impairment affecting the ability to
make purposeful skilled actions with objects or to use
communicative gestures which is not attributable to motor
weakness or sensory impairment. It is commonly associated
with lesions due to stroke in the left parietal region of the
cerebral cortex. Action Disorganisation Syndrome is a
cognitive impairment affecting the performance of
sequential action. Lesions of frontal lobe of the cerebral
cortex resulting from stroke can produce ADS.
Successful performance of Activities of Daily Living
(ADL) involves the elaboration of a high-level goal for
action (e.g. make a hot drink) into a series of sub-tasks
involving specific objects (e.g. fill the kettle with water, boil
the water, put the teabag in the cup, add the hot water, etc.)
selected from the environment.
Together, Apraxia and Action Disorganisation
Syndrome (AADS) can lead to marked impairment in ADL
task performance [15]. For example, on request patients
may be able to identify and take hold of each of the objects
needed to make a cup of tea. However, when asked to
perform the whole task they may make errors of omission
(e.g. failing to put water in the kettle), perseveration (e.g.
putting several tea bags into the cup), or substitution (e.g.
using coffee instead of tea).
A number of approaches to the rehabilitation of AADS
have been evaluated [16]. For instance, in a single case
study a 55 year old man with apraxia resulting from a stroke
received daily 1 hour treatment for 2 weeks [17]. Training
of gestures was based on the provision of multiple cues to
help the patient demonstrate the use of a target tool
including object, visual model, and feedback correction of
errors. The cues were progressively withdrawn until the
patient achieved 90% accuracy 3 times before moving on to
next target. Improvements were seen in quality of treated
and untreated gestures post treatment however, these were
not maintained at follow up 2 weeks later.
In another single case study a 34 year old man who
suffered carbon monoxide poisoning with Action
Disorganisation Syndrome resulting in impaired ability to
carry out routine everyday tasks was trained with a
verbalisation strategy [18]. Improvement was obtained on
the trained task (making a cup of tea) but this did not
transfer to other tasks (e.g. making toast).
Single case studies are informative for developing
approaches to rehabilitation that are closely related to the
needs of specific patients. However, group studies are
important to test the generalizability of findings from single
case studies and they have also been used to examine
whether apraxia rehabilitation is effective. For example, a
study with 33 left hemisphere stroke patients as participants
contrasted apraxia training with a control condition
(involving language training for rehabilitation of aphasia)
and showed specific effects of the apraxia training on ADL
performance that was retained at follow-up [19].
126
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Patients were randomly assigned to apraxia or control
(aphasia) treatment. Apraxia training was based on
progression from more to fewer cues. For instance,
transitive gesture training involved progression through
spoon, picture of spoon, verbal command. Intransitive
gesture and meaningless gestures were also trained.
Approximately 15 items in each condition were trained 3
times per week for up to 35 sessions. Before and after each
treatment, patients underwent neuropsychological testing
and caregiver evaluation of patient’s ADL independence in
personal hygiene, feeding and dressing. Apraxia treatment
specifically reduced apraxia and improved ADL function.
Control (aphasia) treatment improved patients’ language
and intelligence performance but had no effect on apraxia
and ADL.
The group study, demonstrating the benefits of apraxia
training, suggests the need for further rehabilitation research
to determine which cues lead to what gains in which
patients so that interventions can be targeted more
effectively.
However, a barrier to such aim is the intensive nature of
AADS therapy, requiring constant supervision by trained
staff to monitor the patient’s actions for errors and to
provide the cueing. Given limited therapist resources,
AADS patients generally receive relatively little practice in
such tasks.
Figure 1 and Figure 2 show the concept idealization of
the platform located in different scenarios.
Figure 1. Kitchen scenario.
3. System overview
As mentioned above, the goal of the system is to help
the patient to perform ADL tasks independently. The first
impression that this may cause to the reader is that the goal
is extremely ambitious, the possible tasks that the patient
can take and the ways for doing them are unlimited. For this
reason, four different activities are selected to split the effort
in general cases of some of the most representatives that the
patient has to face daily.
These chosen activities are:
 Preparing a hot drink.
 Preparing a snack.
 Grooming.
 Dressing.
For each activity one task is chosen. This task is divided
into component sub-tasks along the lines of Cooper and
Shallice [20]. The idea of segmenting the tasks is useful for
several reasons. The first reason is that it allows performing
one task in different ways, defined by the different order of
execution of the sub-tasks. It makes the system suitable to
adapt easily to other tasks of the same activity, i.e., when
every sub-task for preparing a tea is defined, most of them
can be used for defining how to prepare a coffee. Finally, it
can provide a diagnosis of what particular ones are difficult
for each patient.
Another way for classifying the ADL is by the scenarios
where they take place. Some studies defense the benefits
from domestic rehabilitation [21], [22]. Patients feel more
comfortable in familiar places.
Following these guidelines, the platform developed is
based on standard electronic gadgets that can be easily
installed and avoid drastic changes in the house layout.
Figure 2. Bathroom scenario.
The system requisites needed cover up the possible
problems that the patient could find. The use of All-In-One
computers and tablets asserts the processing capacity and
the portability of the system.
The patient will always have the possibility to get in
contact with the clinician through the platform.
Meanwhile, the professional will dispose in his/her
house or rehabilitation centre of dedicated software. The
clinician will be able to supervise and store all the
rehabilitation sessions for post studies, send messages and
reminders, through the corresponding devices, explained
later in the document, with this professional interface.
Furthermore, the clinician will be able to personalise the
interface to generate statistics, organize the sessions with
the patients, access to their clinic history and evaluate the
progress and efficiency of the system. Privacy of the
patients is guaranteed in accordance with the dataprotection laws and the access to all this information will be
restricted.
4. Overall architecture
Once the bases for the utilization and installation are
settle down, now it is time to focus on the technical
description of the platform.
Figure 3 shows a general technical overview of the
system architecture. The system is composed by two main
127
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
subsystems, a Client sub-system (CCS) and a Server subsystem (SS).
Figure 4. Table set up for the manipulation of the
objects.
Figure 3. Main architecture of the system.
4.1. Client sub-system (CCS)
The CCS, which will be located at the patients’ house,
is used for data acquisition and patient graphical user
interface, during the rehabilitation sessions. It manages the
patient data and presents the related rehabilitation sessions
outcomes to the healthcare personnel.
Regarding the hardware components, a group of
devices is used to capture and analyse the behaviour and
activity performance of the patients. These devices are
divided into two categories: monitoring and feedback
purposes.
First of all, the monitoring devices include vision-based
systems and instrumented objects to be used during the
tasks performance. Their main objectives are:
 Microsoft Kinect™: responsible for acquiring
information from patient hands, wrist
movement and general video of the execution
of the task.
 Sensorized
objects:
equipped
with
accelerometers and force sensitive resistors to
capture their interaction with patient and
collect the related data for future movement
recognition.
The sensorized objects considered in this first
preliminary version of the platform are related to the
activity focused on hot drink preparation, such as:
 Kettle (to boil water).
 Cup (for drinking).
 Brick of milk.
 Jug of water.
The objects are placed in a specific table set-up (Figure
4), with fixed positions, in order to make easy for the
patient their consequent manipulation.
Secondly, feedback devices are composed by a smart
watch with vibration capability and a Virtual Task
Execution (VTE) monitor:
 Smart watch. This device vibrates in case of
error, in order to make the patient aware of
his/her mistake.
 VTE monitor. It is an All-In-One computer
whose main features are to provide to patients
with the corresponding cues and possible risks
for correction of the errors committed; it also
collect the data coming from the patient
rehabilitation session in a database.
On the other hand, taking into account the software
modules, the main sub-modules of CCS are described as
follows:
 Information handler: it is in charge of handling
the data when an event is detected, by avoiding
the system to collapse through priority logics.
 Scheduler: it is in charge of the scheduling
management.
 VTE repository: it is the database responsible
for archiving the data coming from the
scheduled rehabilitation sessions.
 Prediction and recognition algorithms: the
system must recognize the stage patients have
reached during a task, estimate the goodness of
the single sub-tasks carried out and suggest the
consequent cues. The means through which the
system identifies the user’s motions are the
sensorized objects and the video tracking tools,
used by the Kinect™, as mentioned before.
 Communication module: responsible for the
communication between the CCS and the SS.
It is equipped by an encryption mechanism for
guarantee a secure data access to both the submodules through a symmetric and asymmetric
encryption.
4.2. Sever sub-system (SS)
The SS is composed by the HealthCare sub-system
(HS) and the Web Portal sub-system (WS). The HS is the
module in charge of receiving and storing the data of the
rehabilitation sessions. It is conceived to be installed in the
128
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
rehabilitation centre to manage data coming from external
resources.
The WS is in charge of showing the rehabilitation
sessions’ data and statistics of patients to the healthcare
personnel. The module installed in an external and unique
server, based on a web based portal, is accessible only by
the healthcare and the administration personnel.
More in detail, the HS is composed by:
 Communication module: responsible for the
communication with CCS side, it guarantees
encryption security.
 Healthcare information handler: it allows
handling data to be trigger to other modules
when an event is detected.
 Healthcare repository: responsible for storing
patient
personal
information,
medical
treatment and statistic of the rehabilitation
sessions.
 Interoperability module: responsible for
guaranteeing interoperability among existing
and external devices in the healthcare centers.
Meanwhile, the WS main sub-modules are:
 Account manager: responsible for managing
the user accounts.
 Login manager: it allows security and multidevice access authorization.
 WebPortal handler: it is in charge of the
information management exchange between
different sub-modules and it encapsulates the
centralized system’s logic.
4.3. Graphical interfaces
The system provides to both, patient and clinician,
simple and attractive interfaces, in order to let the users
interacting easily with it.
Considering the interface provided to the patient, this is
showed in the VTE monitor and its purpose is to provide
cues in sense of images, videos and messages (text and
verbal) that make the patients aware of the error committed
and try to tell them how to correct the action not executed
or executed in a wrong way.
Figure 5 shows the appearance of the first window of
patient interface, used to select the task to be performed.
Finally, the professional interface allows the clinician to
check and control the performance of both, the system and
patient, during the follow-up.
It is installed in a common computer and composed of
several features which make the clinician supervise the
system and act when required. (Figure 6)
Figure 6. Professional interface on the clinician laptop.
More deeply, the interface is composed mainly by the
following sub-windows:
 Task visualization: visualization of the task
chosen by the patient in the VTE.
 Sub-tasks and errors: to be used during the
execution of the task. The clinician selects the
sub-task being executed in a specific moment
to choose what error the patient has committed
in case that the prediction and recognition
algorithms fail.
 Cue preview: to display the cue to be sent to
patient for previous validation.
 Reliability of sensors: status of the sensors and
the proper functioning.
 Video streaming: display the video of patient
in real time.
5. Experiment and validation
Once the architecture and components of the system
have been shown, now it is time to test them and assess the
suitability for being used at home during the execution of
ADL.
For this purpose, the platform has been installed in the
kitchen of a specific Living Lab (Figure 7) to be used,
initially, by healthy people for technical validation.
Figure 5. Patient interface on the VTE monitor.
129
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Taking into account the kind of errors AADS patients
usually commit from ¡Error! No se encuentra el origen de
la referencia. and the methods used for feedback, a
relationship between the type of errors and the kind of
feedback to be provided was suggested.
Table 3 shows few examples of the errors committed by
patients, intentionally for validation, with the corresponding
cue provided.
Table 3. Feedback provided for each error committed.
Figure 7. Kitchen used to validate the system.
A simple task was considered to be executed and
simulate how a real patient would interact with the system.
In this case, the task was focused on the preparation of a hot
drink, in particular a tea, with four different versions:
 Simple tea.
 Tea with sugar.
 Tea with milk.
 Tea with sugar and milk.
For the preparation of the tea, a task tree (Figure 8) will
be considered, to collect all the necessary steps that the user
must execute for the correct completion of the task.
Figure 8. Task tree for tea preparation.
The task tree helps to locale the steps patient has already
performed in case an error occurs.
The errors are classified as indicated in Table 2:
Table 2. Errors classification.
Error Type
Definition
Addition
Add an extra component that is not
required.
Omission
Forget to perform a step or subtask.
Perseveration
The unintentional repetition of a
step or sub-task.
Anticipation
Perform a step or sub-task earlier in
the sequence than usual.
Perplexity
A delay or hesitation in performing
an action.
Toying
Repeated touching or moving of an
object without actually touching it.
Error
Cue for feedback
Add sugar into the cup when not
needed.
Final message to abort the system.
Forget to add water to the kettle.
Image>>Video>>Final message to
abort the system.
Add excessive water to the kettle.
Vibration>>Text/verbal
message>>Final message to abort
the system.
Drink tea without adding a tea
bag.
Image>>Video>>Final message to
abort the system.
A noticeable pause in placing the
tea bag into the cup.
Image>>Video>>Final message to
abort the system.
Touching the water jug repeatedly
without using it.
Final message to abort the system.
As seen in the previous table, there are mainly three
groups the errors were grouped into:
The first group is composed by those errors whose
feedback provided was only a final text or verbal message
in the monitor to indicate the error and abort the system
because the error could be dangerous for the user and/or the
task cannot be completed.
The second group is composed by those less dangerous
errors which feedback is divided into three stages:
 Firstly, a simple image of the correct action
was shown to the user.
 In case the patient do not execute the subtask, a
more explicit cue, represented by a real video,
is played.
 Finally, if pause in movement continued, a final
message is provided, informing about the error,
and abort the system, letting the user to be relax
and to try to perform again the task later.
The third and final group was composed by those errors
which feedback was also divided into three stages, but
different from the mentioned above:
 Firstly, a vibration from the watch is provided
to the user.
 If the user is not aware of the error, then a
simple text or verbal message from the monitor
is shown.
 Finally, if pause in movement continued,
another final message is provided informing
about the error and aborting the system letting
the user relax and try it again later.
130
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
As said before, the experiment was carried out by a
healthy person, not involved in the project, to test the
performance of the system.
Personally, he found the platform quite effective,
attractive and useful. In addition, ergonomics and comfort
are achieved for future patients due to the fact that the
wearable device is a simple and commercial watch that can
be purchased on internet. The rest of the devices, such as
VTE monitor or KinectTM, can be placed easily at home as a
common TV or security camera, respectively.
Regarding technical aspects, only few relevant issues
have been observed, mainly related to:
 Start up of the graphical interface.
 Unexpected disconnection of the sensors from
the sensorized objects.
 Punctual repetition of the same cue, due to
communication issues between both interfaces
(clinician and patient).
However, these aspects will be early improved, as the
platform is just on a first prototype version of the whole
system, continuously in development.
6. Conclusion
This contribution has presented an innovative and totally
different platform which will provide a personalized, longterm and continuous cognitive rehabilitation for stroke
patients with Apraxia and Action Disorganisation Syndrome
(AADS).
The system is conceived to be a Personal Healthcare
System (PHS), capable of offering a domestic, intuitive and
usable healthcare solution oriented on the rehabilitation of
AADS.
After a brief summary of the disease, the main features
of the whole architecture considered have been described in
terms of design, components, software and implementation.
The patients interact with mainly two groups of devices:
for monitoring and for feedback. Monitoring devices are in
charge of monitoring the execution of the task and
movements of the patient in order to be able to detect
possible errors and malfunctioning. Meanwhile, feedback
devices are in charge of providing the corresponding cues
and feedback to make the patient aware of the errors
committed and possible risks.
In order to assess the implementation of the platform for
its use at home, the system has been used during the
execution of a simple task, such as preparing a tea. The
results obtained from the performance show that it is quite
easy to use, attractive and very useful for its objective.
It is relevant to mention that, up to date, the system has
been tested only by healthy people, due to the work plan of
the project. However, during the evaluation of the
prototype, both healthy people (for technical evaluation)
and real patients (for medical evaluation) will have the
opportunity of experiment it.
As future work, the features of two of the main devices
involved, watch and objects, will be extended for future
versions of the platform. For instance, a new version of the
watch will be analyzed to incorporate tactile interface like a
touchable big button. Meanwhile, objects will be
complemented by RFID tags to improve the accuracy and
effectiveness in detecting errors while grasping and
manipulating objects.
7. Acknowledgment
This work has been supported by the European
Commission under the grant FP7- ICT-2011-288912.
The authors acknowledge CogWatch partners who are
working in different areas of the CogWatch project, but did
not directly contribute to the writing of this paper.
8. References
[1] «World Stroke Organization - Home». [Online]. Available:
http://www.world-stroke.org/. [Accessed: 07-may-2013].
[2] Liepmann, H., Drei Aufsätze aus dem Apraxiegebiet, Berlin:
Karger, 1908.
[3] Hermsdörfer, J., Blankenfeld, H. and Goldenberg, G., "The
dependence of ipsilesional aiming deficits on task demands,
lesioned hemisphere, and apraxia", Neuropsychologia, 2003, 41,
1628-1643.
[4] G. Goldenberg and S. Hagmann, "Therapy of activities of daily
living in patients with apraxia", Neuropsychological
Rehabilitation, 1998, 8 (2):123-141.
[5] Chris T. Freeman, Eric Rogers, Ann-Marie Hughes, Jane H.
Burridge and Katie L. Meadmore, "Iterative Learning Control in
Health Care, Electrical Stimulation and Robotic-Assisted UpperLimb Stroke Rehabilitation", IEEE Control Systems Magazine,
February 2012.
[6] Shor PC, et al., "The effect of Robotic-Aided therapy on upper
extremity joint passive range of motion and pain", Integration Of
Assistive Technology In The Information Age. IOS, Mokhtari M
(ed), 2001, Netherlands, pp79–83.
[7] Kahn LE, et al, "Comparison of robot assisted reaching to free
reaching in promoting recovery from chronic stroke", Integration
Of Assistive Technology In The Information Age. IOS, Mokhtari M
(ed), 2001, Netherlands, pp 39–44.
[8] Krebs HI, et al., "Robotic applications in neuromotor
rehabilitation", Robotica, 2003, 21(1): 3–12.
[9] Amirabdollahian F, et al., "Error correction movement for
machine assisted stroke rehabilitation", Integration Of Assistive
Technology In The Information Age. IOS, Mokhtari M (ed), 2001,
Netherlands, pp 60–65.
[10] Ying Mao and Sunil K. Agrawal, "Wearable Cable-driven
Upper Arm Exoskeleton-Motion with Transmitted Joint Force and
Moment Minimization", IEEE International Conference on
Robotics and Automation, 2010.
[11] J. Ueda, et al., "Individual Muscle Control Using an
Exoskeleton Robot for Muscle Function Testing", IEEE Trans. On
Neural Sys. And Rehab. Eng., 2010, vol, 18, n 4, pp 339-350.
[12] Samuel B. Kesner, Leif Jentoft, Frank L. Hammond III,
Robert D. Howe, and Marko Popovic, "Design Considerations for
an Active Soft Orthotic System for Shoulder Rehabilitation", 33rd
Annual International Conference of the IEEE EMBS, 2011.
131
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[13] Galiana, I., Hammond, F. L., Howe, R. D., and Popovic, M.
B., "Wearable soft robotic device for post-stroke shoulder
rehabilitation: Identifying misalignments", Intelligent Robots and
Systems (IROS), 2012 IEEE/RSJ International Conference on (pp.
317-322).
[18] Bickerton W.L., Humphreys G.W., Riddoch M.J., "The use of
memorised verbal scripts in the rehabilitation of action
disorganisation syndrome", Neuropsychological Rehabilitation,
2006, 16, 155-177.
Available:
[19] Smania N., Aglioti S.M., Girardi F. et al., "Rehabilitation of
limb apraxia improves daily life activities in patients with stroke",
Neurology, 2006, 67, 2050-2052.
[15] Hanna-Pladdy B., Heilman K.M., Foundas A.L., "Ecological
implications of ideomotor apraxia: evidence from physical
activities of daily living", Neurology, 2003, 60, 487–490.
[20] Cooper, R., and Shallice, T., "Contention scheduling and the
control of routine activities", Cognitive Neuropsychology, 2000
17(4), 297-338.
[16] Buxbaum L.J., Haal K.Y., Hallett M. et al., "Treatment of
limb apraxia: Moving forward to improved action", Am J P hys
Med and Rehab, 2008, 87, 149-161.
[21] L. Gamberini, G. Riva, A. Spagnolli, M. A. Raya, C. B.
Zapata, and R. Baños, Psychnology Journal.
[14] «CogWatch project - Home». [Online].
http://www.cogwatch.eu/. [Accessed: 14-may-2013].
[17] Maher L., Rothi L., Greenwald M., "Treatment of gesture
impairment: a single case", Am Speech Hear Assoc., 1991, 33,195.
[22] M. Scopelliti, M. V. Giuliani, and F. Fornara, "Robots in a
domestic setting: a psychological approach", Universal Access in
the Information Society, 2005, vol. 4, nº 2, pp. 146-155, July.
132
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Metodología de Estudio del Aprendizaje de Niños
con Parálisis Cerebral en el Uso de un Ratón por
Movimientos de Cabeza.
M. A. Velasco*, R. Raya*, R. Ceres*, R. Sola**, J. Jiménez, S. Morata**
*Grupo de Bioingeniería – CSIC (http://www.car.upm-csic.es/bioingenieria/)
**Colegio de Educación Especial Hospital San Rafael Madrid E-mail: [email protected], [email protected]
Abstract
This paper presents a methodology designed to evaluate
the learning process for people with cerebral palsy (CP)
who are asked to control a c omputer through an inertial
interface. The interface allows users to control the mouse
pointer and c lick with head movements. The metric
proposed in order to objectively measure the process of
learning is the “throughput”. This parameter has been
widely used for the evaluation of pointing devices and is
now applied for the first time to people with CP. The results
obtained show that the metric can be used to quantify how
the user is learning and therefore to assess the usability of
the inertial device.
Resumen
Este artículo presenta un e studio piloto que introduce
una metodología para valorar el aprendizaje de una
persona con parálisis cerebral (PC) en el manejo del
computador con una i nterfaz inercial, que permite el
control del cursor y el clic mediante movimientos de
cabeza. Se propone el uso de una métrica denominada
rendimiento para medir objetivamente el proceso de
aprendizaje. La métrica, ampliamente utilizada para la
evaluación de dispositivos apuntadores, se aplica por
primera vez en usuarios con PC. Los resultados obtenidos
muestran cómo la métrica propuesta permite cuantificar el
proceso de aprendizaje del usuario con PC, con lo que
puede ser empleada para valorar la usabilidad del
dispositivo inercial.
1. Introducción
Parálisis cerebral (PC) es un término muy amplio que
engloba una serie de trastornos permanentes no progresivos
de diversa índole como consecuencia de lesiones del
cerebro inmaduro producidas por trauma-tismos e hipoxias
durante el parto o infecciones ante-riores o posteriores al
mismo.
La PC se manifiesta principalmente en disfunciones
neuromotoras con alteraciones en el control motor y
postural debido a trastornos de la coordinación y del tono
muscular pero también pueden afectar a la percep-ción, la
memoria o el razonamiento [1].
Existe una gran variedad de cuadros y grados de
afectación. Así, se distinguen por una parte la PC espástica,
con origen en el córtex, caracterizada por la rigidez
muscular. Por otro lado, la PC atetósica, relacionada con los
ganglios basales, origina movi-mientos involuntarios en las
extremidades y la cara, así como dificultades de audición y
de lenguaje. La PC atáxica tiene origen en el cerebelo y
afecta a la postura, equilibrio y coordinación de
movimientos. General-mente suelen
aparecer formas
mixtas en las que se combinan los tres tipos de PC con
diferentes tonos (hipertónico, hipotónico, distónico). Estas
disfunciones psicomotrices determinan una falta de
autonomía ya que afectan a funciones de la vida diaria:
movilidad, manipulación, comunicación y relación con el
medio.
Es preciso insistir en que la PC, si bien es permanente ya
que las lesiones que la causaron no pueden ser curadas,
provoca limitaciones que pueden ser reducidas. Es
universalmente aceptada la neuro-plasticidad o capacidad
de reorganización del sistema nervioso central
(principalmente en los primeros años de vida) con el
desarrollo
consiguiente de sus fun-ciones físicas y
cognitivas a partir de estímulos externos y experiencias de
interacción con el medio. Esa plasticidad constituye una de
las bases principales de los procesos de adquisición de
habilidades y del aprendizaje en general. En el caso de
niños con PC, dadas las dificultades que presentan la
mayoría de ellos en llevar a cabo actividades básicas de
comunicación, juegos, desplazamiento y otras, que son la
fuente de adquisición de conocimientos y experiencias, es
preciso ofrecer una mayor atención desde los primeros años
al fomento de estas experiencias.
133
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
2. Canales alternativos de
acceso al computador. La
interfaz ENLAZA.
Por lo expresado en el apartado anterior es importante
implicar al usuario fomentando y estimu-lando la
experimentación personal ampliando sus actividades de
relación, de manipulación y desplaza-miento y el acceso a
fuentes de conocimiento impresas o audiovisuales. En este
sentido es preciso subrayar el papel que ha tomado el
computador como herramienta clave tanto para el acceso a
estos medios de relación y conocimiento (Internet, redes
sociales, email) como para el control de dispositivos
personales (sillas de ruedas, ortesis) y del entorno (puertas,
luces, TV).
El uso del computador es aún más importante en las
personas con PC ya que no pueden en muchos casos
desplazarse fácilmente ni manejar elementos físicos básicos
en las actividades diarias tales como libros o
electrodomésticos. Tienen también grandes trabas para
acceder al computador ya que sus restricciones motoras les
impiden manipular adecuadamente dispositivos como el
teclado y el ratón. Es por ello que desde hace más de una
década se vienen adaptando dispositivos de acceso
convencionales o desarrollando nuevas tecnologías que
tratan de aprovechar las habilidades del usuario utilizando
canales alternativos.
Entre los dispositivos adaptados podemos citar teclados
ergonómicos de una sola mano, sobreteclados con
perforaciones sobre cada una de las teclas, ratones
controlables por el mentón o ratones con filtros para
reducción de los efectos del temblor (Tech Filter). En el
terreno del software existen adaptaciones tales como
programas que presentan los iconos secuencialmente para
facilitar su selección o los editores de texto predictivos
todos ellos con metodologías propias de la CAA
(comunicación aumentativa y alternativa).
Otras interfaces de acceso al computador, como ya se ha
dicho, hacen uso de formas u órganos corporales diferentes
de expresión humana, aprovechando disposiciones
biomecánicas tales como gestos, posturas y movimientos de
extremidades, cabeza (SmartNav) y ojos (Tobii o
IRISCOM), o bien el registro de poten-ciales eléctricos
generados
por
acciones
voluntarias
musculares
(electromiografía) o cerebrales (electroen-cefalografía). Con
estas bases se están llevando a cabo numerosas
investigaciones orientadas a cubrir las necesidades
especiales de la discapacidad en general. Entre estos
dispositivos avanzados, con realizaciones cabe destacar los
sistemas de oculografía, tanto por electrodos superficiales
(EagleEyes) como mediante el uso de cámaras sin contacto
(Gaze) [2]. De esta última variante son de especial interés,
habiendo llegado incluso a los mercados en los últimos
años, diversos sistemas de seguimiento ocular mediante
cámaras infrarrojas habiendo dado lugar principalmente al
desarrollo de comunicadores generando textos escritos, con
la ayuda de editores predictivos.
El dispositivo ENLAZA [3], es un interfaz personacomputador basado en tecnología inercial desarrollada en el
Grupo de Bioingeniería del CSIC. El prototipo permite
medir el movimiento de la cabeza mediante una serie de
unidades de medida, llamadas sensores inerciales (Inertial
Measurement Unit, IMU en nomen-clatura anglosajona). El
IMU es un dispositivo que integra un acelerómetro
tridimensional (3D), que mide aceleración, un giróscopo
3D, para la velocidad angú-lar y un magnetómetro 3D, que
mide el campo magné-tico terrestre. La fusión de estas
señales permite la medida precisa de la orientación angular
del IMU y, por tanto, de la parte del cuerpo donde se ubique
el sensor, la cabeza en este caso.
Figura 8. Usuario manejando el interfaz de
ENLAZA en una rutina de alcance. El sensor está
inmovilizado sobre la cabeza del usuario y
conectado al ordenador por USB.
La interfaz inercial ENLAZA se muestra en la Figura 1 y
se compone de un IMU y de un soporte para su sujeción a la
cabeza del usuario. Este diseño supone que los usuarios con
PC sufren una discapacidad severa en las extremidades
superiores pero conservan un control voluntario residual de
la cabeza. Se predefine un rango de movimiento cervical en
los ejes horizontal y vertical (medido en grados), de tal
manera que dentro de un rango de posiciones de la cabeza,
el usuario pueda situar el cursor en todos los píxeles de la
pantalla. Para la ejecución de un clic el usuario deberá
mantener el cursor dentro de un área de extensión
preestablecida durante un tiempo escogido previa-mente
según sus características. El control razonable de la posición
del puntero sobre la pantalla con movi-mientos de cabeza y
la ejecución de clic, posibilita el acceso a aplicaciones
informáticas enfocadas al aprendizaje de habilidades físicocognitivas, a tareas de comunicación o a la interacción con
el entorno.
3. Metodología
La tarea propuesta consistió en la utilización de la
interfaz ENLAZA para la realización de una serie de tareas
de alcance y clic de objetivos sobre la pantalla como
simulación sistemática del acceso al computador. La tarea
es atractiva para el usuario ya que el objetivo consiste en
una figura reconocida por el usuario. Como incentivo, se
reproduce un fragmento de video tras un clic correcto.
134
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
posiciones del objetivo) y una serie de parámetros
registrados (orientación del sensor en los 3 ejes, posiciones
del cursor y el objetivo, instantes en que se produce el clic)
que son procesados con Matlab.
Figura 9. Evaluación de distancia al objetivo y
velocidad en función del tiempo para una rutina de
alcance y clic, en este caso para ratón
convencional.
Tras
una
fase
rápida
de
acercamiento, el movimiento se ralentiza para
ganar precisión.
Para el análisis de esos movimientos se puede aplicar la
Ley de Fitts [4], que modela los movimientos de alcance en
dos fases: una primera de aproximación con velocidades de
movimiento elevadas y una segunda fase de precisión
(Figura 2). Teóricamente existe una relación entre el tiempo
de consecución de la tarea y el índice de dificultad (ID)
asociado a cada objetivo en función de su distancia inicial D
y tamaño W. Asimismo, se usa el rendimiento o
“throughput”, como cociente entre el ID y el tiempo de
alcance.
La experimentación se presenta como estudio piloto para
la valoración del proceso de aprendizaje en el uso de la
interfaz ENLAZA. Las pruebas fueron realizadas con un
único usuario en el Colegio de Educación Especial del
Hospital San Rafael de Madrid. El usuario sufre una
parálisis cerebral distónica con componente espástico.
Alteración en la coordinación del movimiento, movimientos
poco precisos y sin un control adecuado. Dificultad para
mantener la cabeza enderezada en línea media salvo si es
por muy breves periodos. Cuando usa los miembros
superiores se activa un patrón flexor que afecta a la cabeza.
Actualmente utiliza una tablet táctil con lápiz puntero
adaptado a una férula. Con ella accede a un tablero de
comunicación y ocio y al aprendizaje en su aula; realización
de fichas sencillas de conteo del 1 al 4 con discriminación
de la grafía de números, así como de vocales,
categorizaciones.
Lleva
lentes
correctoras
para
hipermetropía. Es capaz de discriminar las formas básicas,
figura-fondo, constancia de la forma (2 dimensiones) y
cierre visual para imágenes conocidas.
Figura 3. Posición y trayectoria del cursor en la
pantalla y el objetivo durante una rutina de
alcance y clic.
Cada subtarea dentro de una sesión se plantea como una
rutina de alcance de un icono cuadrado de lado W a una
distancia D en la pantalla (ver Figura 3). Se define el tiempo
total de alcance y clic como el transcurrido desde que el
objetivo se fija en una nueva posición hasta que se inicia
una nueva reproducción de video. El tiempo de alcance se
calcula restando al tiempo total de la rutina el tiempo de
permanencia predefinido para el clic del interfaz ENLAZA.
Las 5 primeras sesiones son utilizadas por los terapeutas
para la configuración de los parámetros de calibración
acorde a las necesidades del usuario. En las sesiones
restantes se realiza una detección de los tiempos de alcance
que distan de la media de la muestra más de 2.5 veces la
desviación estándar. Se considerarán valores fuera de la
muestra o “outliers” ya que se reconocen como periodos de
tiempo en que el usuario se ha distraído de la tarea según los
terapeutas.
A continuación se realiza un promediado que produce
un efecto de filtrado paso-bajo y reduce la variabilidad entre
muestras consecutivas de los parámetros calculados. Se
persigue que la tendencia creciente o decreciente de la
métrica, si es que existe, pueda ser más fácilmente
observada.
4. Parámetros de valoración.
Procesado
de
datos
y
resultados
Al final de cada sesión, el software de ENLAZA genera
un fichero con la configuración de la interfaz (tiempo de
permanencia para el clic, duración del vídeo, tamaño y
135
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5. Discusión y conclusión
Figura 4A. Tiempos de alcance tras un
promediado con N=4. La curva roja representa la
muestra tras el procesado de “outliers”. 4B.
Valores de ID en las rutinas de alcance.
En la Figura 4A se muestran los tiempos de alcance
registrados a lo largo de las diferentes sesiones con el
interfaz ENLAZA y el juego de visualización de vídeos. Por
otra parte, la Figura 4B muestra las variaciones en el índice
de dificultad (ID) a lo largo de las diferentes rutinas.
El artículo presenta un estudio piloto que valora el uso
de una metodología para la evaluación del apren-dizaje en
personas con PC en la utilización de un interfaz basado en
sensores inerciales para el control de un ordenador. En el
ensayo se han realizado una serie de pruebas de alcance de
objetivos en pantalla para las que se ha utilizado una
métrica denominada rendi-miento utilizada por primera vez
en la evaluación de movimiento de personas con PC. El
rendimiento se obtiene a partir del índice de dificultad ID
(depen-diente de la distancia a la que se encuentra el
objetivo y su tamaño) y del tiempo que el usuario tarda en
completar la tarea. Los resultados muestran una varia-ción
del rendimiento durante las diferentes sesiones.
En trabajos futuros se propone estandarizar los valores
que el ID tomará en las rutinas de alcance a realizar por el
sujeto. Asimismo será de interés analizar el grado de ajuste
a la ley de Fitts del dispositivo inercial bajo el manejo de
usuarios con PC. Para ello se debe extender el estudio a un
número mayor de usuarios, de modo que las métricas
presentadas puedan ser analizadas de manera coherente y la
existencia de ese aprendizaje pueda ser comprobada.
6. Agradecimientos
Se desea expresar el reconocimiento a A. Ruiz y T.
González, de ASPACE Cantabria por su colaboración en las
tareas de desarrollo del sistema ENLAZA.
7. Referencias
[1] Ruiz A., Arteaga R., Parálisis Cerebral y Síndromes
Específicos e Individualidad en los Apoyos. Santander.
Universidad de Cantabria y otros.
[2] De Santis A., Iacoviello D., Robust real time eye tracking for
computer interface for disabled people. Computer Methods and
Programs in Biomedicine 96 (2009) 1–11, homepage:
www.intl.elsevierhealth.com/journals/cmpb
Figura 5. Medida del
promediado con N=4.
“throughput”
tras
un
El ID en aquellos objetivos para los cuales se midieron
tiempos de alcance muy superiores a la media de la muestra
presentaba valores muy próximos a los de las rutinas
inmediatamente anteriores y posteriores. Se considera, por
tanto, que esos tiempos de alcance tan altos no son debidos
exclusivamente al tamaño y la distancia del objetivo (ID) y
su clasificación como valores fuera de la muestra es
correcta.
[3] Raya R., Rocon E., Ceres R., Harlaar J., Geytenbeek J,.
Characterizing head motor disorders to create novel interfaces for
people with cerebral palsy. IEEE 12th International Conference on
Rehabilitation Robotics, Zurich, Suiza, junio, 2011.
[4] Fitts P.M. The information capacity of the human motor
system in controlling the amplitude of movement. Journal of
Experimental Psychology, 47(6):381–391, 1954.
El rendimiento, que se calcula a partir de los tiempos de
alcance medidos, se considera más robusto por tener en
cuenta la dificultad de realización de la tarea. La Figura 5
representa su evolución a lo largo de las sesiones y muestra
tendencias crecientes que pueden tener relación con el inicio
de cada sesión.
136
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Hécate: Sistema integral de gestión de
accesibilidad global y de consulta e información
ciudadana
Z. Valero Ramón1, G. Ramiro Sala2
1
Instituto de las TIC Avanzadas - Grupo TSB, Universidad Politécnica de Valencia, Valencia, España, [email protected]
2
Fundación CEDAT, Universidad Politécnica de Valencia, Valencia, España, [email protected]
Resumen
Garantizar la accesibilidad en espacios públicos,
significa asegurar que los ciudadanos, independientemente
de sus capacidades técnicas, cognitivas o f ísicas, puedan
participar de su ciudad. Pero la realidad es que diferentes
barreras, tanto arquitectónicas hacia los ciudadanos, como
tecnológicas hacia los profesionales que podrían
solucionarlas, limitan seriamente la accesibilidad en
nuestro entorno. Poniendo el foco en los profesionales
técnicos de las administraciones públicas y en los
ciudadanos como usuarios del entorno, este trabajo ha
hecho un amplio estudio de las necesidades y limitaciones
de ambos grupos, para desarrollar un sistema de gestión de
accesibilidad y de consulta e información ciudadana. El
resultado ha sido la creación de una herramienta
profesional que permita a los técnicos de los ayuntamientos
realizar esa gestión, y una a plicación de red social para
consultar y generar información de accesibilidad, creando
además un canal de comunicación directa entre ambos de
gestión de incidencias.
Abstract
Guarantee accessibility in public areas means to ensure
citizens, regardless of their technical, physical or cognitive
skills can participate in their city. But reality shows that
different barriers, both architectural for citizens and
technological towards accessibility professional, who can
solve them, severely limited accessibility in public areas.
Focusing this document on technical public municipality’s
professionals and c itizens, it has been done an exhaustive
work on the needs and limitations of both groups to develop
a system to accessibility management and of consulting and
information for citizens. The result was the implementation
of a professional tool that allows municipality technicians
to carry out this management and a social network
application for citizens, to query and generate accessibility
information; it is also created a direct communication
channel among citizens and municipalities to manage
incidences.
1. Introducción
Desplazarse, comunicarse, alcanzar, entender, usar y
manipular son algunas de las distintas dimensiones de la
actividad humana. Dependiendo de sus capacidades
técnicas, cognitivas o físicas, cada individuo accede a estas
actividades con un grado distinto de consecución.
Garantizar la accesibilidad significa garantizar que estas
actividades puedan ser ejecutadas de forma segura,
confortable y autónoma por cualquier usuario sin que se
encuentre con ningún tipo de barreras.
Implantar una política de accesibilidad integral es el
medio imprescindible para que todos los usuarios del
espacio público alcancen plenamente sus derechos de uso y
participación de dicho entorno. Cualquier ciudadano, con o
sin discapacidad, debe poder alcanzar los mismos derechos
de participación y tener garantizado su acceso a: medio,
trabajo, lugares de ocio, transporte, cultura, educación y
comunicación. Para ello, es indispensable una coordinación
de esfuerzos entre las empresas de diagnóstico y
asesoramiento técnico en accesibilidad, que son los
encargados de validar profesionalmente la accesibilidad del
espacio público, las entidades públicas y la propia
ciudadanía, de forma que se genere, gestione y comparta la
información necesaria para un uso más justo y universal del
espacio público.
Sin embargo, diversos factores arquitectónicos,
económicos y sociales limitan seriamente la accesibilidad
en nuestro entorno, ocasionando que las infraestructuras y
servicios públicos actuales no cubren las necesidades de
todos los ciudadanos. Asimismo, las empresas de
diagnóstico y asesoramiento técnico en accesibilidad y las
entidades locales promotoras se encuentran con numerosas
limitaciones tecnológicas que les impiden analizar, validar y
gestionar de forma práctica y eficiente la accesibilidad de su
entorno. Todos estos factores se traducen tanto en barreras
físicas hacia los ciudadanos con discapacidad, los cuales
ven limitados sus derechos de uso y participación de su
ciudad, como en barreras tecnológicas hacia los
profesionales que pueden proporcionar soluciones a dichas
limitaciones.
Teniendo en cuenta dichas necesidades y limitaciones, el
presente trabajo pretende diseñar, desarrollar e implantar un
137
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
sistema integral de gestión profesional de la accesibilidad
global y de consulta e información ciudadana que permita
mejorar de forma continua la accesibilidad universal [1] en
espacios públicos.
El presente documento se estructura de la siguiente
forma: a continuación se describe el punto de partida del
trabajo realizado, la problemática asociada a la accesibilidad
en espacio públicos y el estado del arte en herramientas
tanto para profesionales para gestionar la accesibilidad, y
herramientas para usuarios de información sobre
accesibilidad. En la sección 3 se describen los resultados
obtenidos, es decir, el sistema desarrollado. Finalmente se
exponen las conclusiones y líneas de trabajo futuras.
2. Estado del Arte
La información generada sobre accesibilidad urbanística
en espacios públicos es heterogénea y proviene de fuentes
muy diversas. Además, son varios los actores involucrados
en un proyecto en el cual se planifique la accesibilidad
universal del espacio público y son varios los interesados en
generar y consumir dicha información, pero cualquier
actuación que se realice alrededor de la accesibilidad tendrá
como actores fijos a la entidad local o ayuntamiento como
promotora de esa actuación y a los ciudadanos en general,
como usuarios finales que utilizan y participan de la ciudad.
Para conocer las necesidades y la forma de trabajar de
los técnicos municipales encargados de las acciones
relacionadas con la accesibilidad, se hizo indispensable la
colaboración de alguna entidad local que proporcionara
información sobre el trabajo que realizan los técnicos. Por
ello el proyecto contó con la colaboración de cuatro
ayuntamientos, elegidos por su alto nivel de implicación
con los colectivos de discapacitados, dos de los cuales han
sido Premio Reina Sofía de Accesibilidad Universal (Quart
de Poblet [2] y Aldaia [3]), y por disponer todos ellos de
planes de accesibilidad, como datos de partida con los que
trabajar:
• Ayuntamiento de Alaquàs
• Ayuntamiento de Aldaia
• Ayuntamiento de Paterna
• Ayuntamiento de Quart de Poblet
Tras analizar la forma de trabajar de los técnicos en
estos cuatro ayuntamientos mediante entrevistas personales
y cuestionarios orientados a conocer su forma de trabajar y
necesidades, se llegó a la conclusión de que los técnicos
municipales se encuentran con la dificultad de que la
información que manejan de accesibilidad se encuentra en
formato CAD, y no siempre se dispone de un sistema de
información geográfica GIS en el que publicar los datos.
Además el formato de los datos en CAD requiere de una
adaptación para poder ser publicada que conlleva una serie
de dificultades y por lo tanto no se suele realizar esa
adaptación.
Lo mismo sucede con las obras, modificaciones o
actualizaciones que se van sucediendo y que no se trasladan
a ningún sistema, esto provoca que la información de
accesibilidad sea escasa, dispersa y poco fiable.
La necesidad fundamental detectada es poder gestionar
de forma global y completa los datos de accesibilidad,
mantener actualizada toda la información para poder
proporcionar una respuesta adecuada a los ciudadanos y
conseguir una mejora continua de los espacios públicos.
Tras ahondar en el trabajo de las distintas entidades
locales, y entre las principales actuaciones dentro del campo
de la gestión de los datos sobre accesibilidad se encuentra la
herramienta eMAP, es una Sistema de Información
Geográfica (también conocido como GIS) de T-Systems [4]
que permite la configuración y análisis cartográfico de
información de forma integrada con el resto de sistemas de
gestión de la entidad. Se trata de una solución propietaria
muy útil para el tratamiento de datos cartográficos, pero que
no permite la publicación de la información fuera del
sistema ni la comunicación con los ciudadanos (sistema de
incidencias) ni recibir información en formato electrónico
de las empresas que realizan los planes de accesibilidad.
Otra solución en el mismo sentido es gvSIG [5], esta
herramienta se distribuye con licencia GNU GPL v2, pero
presenta las mismas carencias que eMAP. La herramienta
LocalGIS basada en soluciones Open Source, está
especialmente diseñada para la administración de datos de
entidades públicas combinando la tecnología de los GIS [6].
Tras el análisis del estado del arte se puede concluir que
existen herramientas muy útiles y funcionales para el
tratamiento de los datos de carácter general de las entidades
públicas de todo tipo, precisamente esta generalidad es la
que hace que los datos relacionados con la accesibilidad no
puedan ser tratados adecuadamente, además ninguna de las
herramientas ofrece un canal de comunicación de directa
con los usuarios.
En el caso de los ciudadanos el procedimiento para saber
sus necesidades fue similar, realizando entrevistas grupales,
a modo de mesa redonda, con un colectivo de personas con
discapacidad física de distintos grados (distrofia muscular
en silla de ruedas, distrofia muscular y esclerosis múltiple
que camina con ayuda de bastón y personas con lesión
medular de distintos niveles todos ellos con silla de ruedas)
Los resultados obtenidos fueron que los ciudadanos con
problemas de movilidad estudian previamente las rutas a
emprender que no conocen para conseguir llegar a su
destino y evitar encontrarse con obstáculos que se lo
impidan. Las vías de que disponen para planificar sus rutas
pasan por recorrerla con alguien previamente, a consultar
páginas web de ayuntamientos, foros, asociaciones, etc.,
consultar a través de Google Street View, incluso a llamar
por teléfono para preguntar las condiciones de accesibilidad
de su destino.
La principal dificultad que encuentran actualmente es
que las modificaciones que puedan ocurrir en la vía pública
son difíciles de detectar previamente, además de que la
información que obtienen a través de los medios
mencionados puede estar obsoleta o no ser la adecuada.
Surge la necesidad por tanto, de disponer de una
herramienta que permita consultar información actualizada
y veraz de las condiciones de accesibilidad del espacio
público.
Respecto al envío de peticiones a las entidades locales
respecto a incidencias en la vía pública, encuentran
138
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
dificultades en la atención que reciben dado que en la
mayoría de los casos no obtienen respuesta a su petición, y
no se les informa de si se ha subsanado la incidencia
enviada.
Es necesario disponer, por tanto, de un servicio de
información ciudadano de accesibilidad que permita una
comunicación fluida, consultando el estado actual con la
seguridad de que los datos son fiables y que permita el
envío de incidencias obteniendo una confirmación y una
respuesta rápida a la solicitud. Así mismo se valora
positivamente la existencia de un foro ciudadano en el que
intercambiar información.
Actualmente hay una serie de iniciativas en marcha que
intentan solucionar algunas de las necesidades expuestas,
como el proyecto Wheelmap.org [7] que funciona como una
Wikipedia, se pretende que los ciudadanos ayuden a
recopilar la información acerca de la accesibilidad de
lugares públicos para un perfil de usuarios en silla de
ruedas. Wheelmap.org utiliza tecnología OpenStreetMap [8]
para geo-localizar esos lugares. Otra iniciativa en este
mismo sentido es la aplicación Mapp4all [9], aplicación
basada en geo-localización para lugares de interés públicos,
indicando qué tipo de elementos accesibles incorpora el
lugar y cuáles no, dispone de una versión web y móvil. La
aplicación se centra únicamente en lugares de interés y los
datos los aportan únicamente los ciudadanos, sin que haya
ninguna entidad que avale la veracidad de esos datos. Blue
Badge Parking Map (BB) [10] es un producto que muestra
las plazas de aparcamiento para personas con discapacidad
sobre un mapa, para el Reino Unido.
Además de estas aplicaciones existen guías que
pretenden facilitar la movilidad de personas con movilidad
reducida en determinadas ciudades, como por ejemplo Guía
Accesible de Turismo Adaptada a Castilla-La Mancha
(GATACA) [11]. Otra iniciativa parecida es la web Ciudad
Para Todos (CPT) [12], proyecto español que a través de
una red social promueve iniciativa para una movilidad
sostenible en la zona metropolitana de Guadalajara.
Puede observarse, después de la realización del estado
de arte, la falta de una herramienta que integre las
necesidades comunes de los ciudadanos con problemas de
movilidad, que esté disponible en cualquier localización y
que además sirva como elemento de comunicación con las
entidades locales para hacerles llegar sus quejas o
problemas sobre el espacio público que usan.
Esta falta de herramientas, se traduce en barreras físicas
y tecnológicas tanto frente a los ciudadanos con
discapacidad como, frente a los técnicos municipales que
pueden solucionar dichas limitaciones. Es por ello que surge
la necesidad de desarrollar nuevas herramientas que traten
de solucionar este problema.
Hécate ha creado un prototipo de herramientas y
contenidos para la gestión de la accesibilidad y consulta de
la accesibilidad para las entidades locales y de consulta e
información ciudadana.
ciudadana que sirvan de ayuda, tanto a los ciudadanos en
general, como a las entidades locales y ayuntamientos, a la
hora de gestionar el espacio público, sea creado un sistema
de gestión de accesibilidad, generación y consulta de
información ciudadana para la mejora continua de la
accesibilidad universal
en espacios públicos, cuyos
resultados se presentan a continuación.
El sistema Hécate se ha diseñado como un conjunto de
dos aplicaciones:
• GIA Lite: herramienta profesional con la que el
técnico de la administración pública gestiona la
accesibilidad del espacio público basándose en
información urbanística y arquitectónica, a partir
de información certificada y de los ciudadanos.
• Vadeo 2.0: aplicación de red social online para los
ciudadanos para consulta y generación de
información de accesibilidad y el trazado de rutas
accesibles.
El sistema se ha diseñado como un conjunto de dos
herramientas funcionalmente independientes, y dirigidas a
usuarios diferentes, pero compartiendo un espacio común de
información de accesibilidad en el espacio público: el
profesional proporcionará información de accesibilidad que
consumirá el ciudadano. A mismo tiempo, la ciudadanía y/o
asociaciones generarán información de accesibilidad del
espacio público que usan, que será utilizada tanto por el
resto de la ciudadanía como por los profesionales.
Esta retroalimentación entre las dos herramientas del
sistema permite dar un valor añadido al contenido generado
y compartido por cada una de las herramientas: el
profesional alcanza una visión global de la situación del
entorno público, trabajando no solo con información
técnica, sino con las necesidades reales de los ciudadanos
que usan y participan de la ciudad, de forma que se
proporcione fiabilidad y confianza entre los usuarios. De la
misma manera, el ciudadano tendrá acceso no solo a las
incidencias y opiniones de otros usuarios como él, sino que
podrá acceder a información certificada por profesionales
de accesibilidad.
3.1 Arquitectura
El sistema se ha desarrollado siguiendo un modelo
Cliente-Servidor, en el que profesionales y ciudadanos
acceden al sistema a través del navegador web, no
almacenando ningún tipo de información en local y
pudiendo hacer uso de las herramientas desde cualquier
ubicación.
Atendiendo a los criterios descritos, la estructura del
sistema puede observarse en la imagen 1.
3. Resultados
Como resultado a la necesidad de desarrollo de nuevas
aplicaciones y servicios de consulta e información
139
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
•
•
•
Imagen 1. Arquitectura del sistema Hécate
En la imagen 1 puede apreciarse que el elemento central
y común a amabas herramientas, es el servidor Hécate,
donde se almacena todo la información que generan ambas
partes, profesionales y ciudadanos. El profesional, a través
de GIA Lite, no solo publica elementos con información de
accesibilidad certificada en el servidor, sino que también
recibe información de los ciudadanos, a través del canal de
incidencias abierto con el sistema. De forma similar, se
aprecia que el ciudadano, a través de la aplicación Vadeo
2.0, puede consultar información de accesibilidad
(certificada o de otros usuarios), generar su propia
información de accesibilidad, con comentarios y fotos,
opinar sobre la información generada por otros usuarios y
remitir incidencias.
La arquitectura del sistema Hécate está formada por los
siguientes componentes:
Servidor Hécate, elemento que concentra toda la
inteligencia del sistema, aloja la base de datos con todos los
datos de accesibilidad, tanto de GIA Lite como de Vadeo
2.0, ofrece el contenido vía web a los clientes y dispone de
una API de acceso vía web para el cliente móvil.
El cliente GIA Lite, cliente Web para los profesionales
que accede a la correspondiente web ofrecida por el
servidor.
Clientes Vadeo 2.0, cliente Web, que accede a la web
ofrecida por el servidor, y cliente Móvil que accede a la API
del servidor.
Servicios de terceros, servicios de mapas y publicación
en Twitter y Facebook.
La información de accesibilidad que se almacena en el
servidor y se gestiona a través de las herramientas, se ha
clasificado en diferentes tipos de elementos que se pueden
visualizar sobre el mapa, a continuación se presenta esa
clasificación:
• Punto de Interés o PDI: lugar, edificio o zona que
ofrece alguna utilidad, frecuentemente relacionados
con el ocio. Ejemplos básicos son edificios de
turismo, restaurantes, tiendas,…
• Punto del Mapa o PDM: objeto que reside en la calle
y que puede suponer una barrera desde el punto de
vista de la accesibilidad al medio físico y del que
deja constancia el usuario. En ningún caso se trata de
información validada ni certificada por un técnico,
solo es la percepción de un usuario. Ejemplos
básicos son escaleras, caminos cortados, vados o
aceras en mal estado.
Transporte: información de accesibilidad sobre
elementos de transporte. Ejemplos básicos son
paradas de tranvía o de autobús.
Elementos urbanísticos: información de accesibilidad
urbanística y de edificación, creada y certificada por
un técnico competente.
Incidencia: representa quejas o sugerencias sobre
deficiencias o barreras encontradas en la vía pública,
siempre desde el punto de vista de la accesibilidad,
que envía un ciudadano a la entidad pública
competente, en el caso de que la entidad participe en
el sistema a través de GIA Lite.
Los ciudadanos, usuarios de Vadeo 2.0, pueden crear a
través de la aplicación PDIs, PDMs e incidencias; mientras
que los profesionales de las entidades locales, a través de
GIA Lite pueden crear PDIs, elementos de transporte y
elementos urbanísticos certificados, es decir, que la
información aportada proviene de un profesional que la
acredita.
La información común que se almacena en el servidor
para cada tipo de elemento incluye los siguientes campos:
nombre del autor que creó el elemento, fecha de creación, el
tipo de elemento (tipo de PDI o tipo de PDM), una
descripción sobre el elemento, fotos, estado del elemento
(por ejemplo una incidencia puede estar pendiente, recibida,
en proceso o resulta) y coordenadas del elemento para su
geo-localización (altitud y longitud). Además para los
elementos “certificados”, es decir que han sido creados por
un profesional, se almacena una estructura de accesibilidad
que se corresponde con una descripción detallada de las
características de accesibilidad.
Esta descripción responde a un estudio detallado
efectuado por técnicos especialistas en accesibilidad, de
cada uno de los elementos, basándose en normativas
vigentes locales, nacionales y europeas sobre accesibilidad.
Un ejemplo de descripción de accesibilidad se puede ver en
la imagen 2.
Imagen 2. Descripción accesibilidad elemento
En la imagen 2 se puede observar que la descripción
sobre la accesibilidad incluye el elemento al que se refiere
una clasificación, una descripción de la accesibilidad del
elemento junto con una valoración del técnico experto. Los
pictogramas aparecen en azul cuando son accesibles (el
elemento cumple con la normativa establecida,) naranja
cuando es practicable (no cumple algún punto de la
normativa pero el técnico experto ha constatado que es
practicable) y rojo cuando no es accesible (no cumple con la
normativa).
140
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
3.2 GIA Lite
Los usuarios de esta herramienta son los técnicos de la
entidad local o ayuntamiento encargados de gestionar y
supervisar la obra pública. Los técnicos disponen de
información actualizada y precisa sobre el estado de sus
vías e infraestructuras, de forma que una herramienta que
les permita usarla para hacer una planificación de obra y
accesibilidad más eficiente, implicará la mejora continua de
las infraestructuras públicas, debido a la detección temprana
de incidencias y puntos no accesibles en espacios públicos.
La herramienta GIA Lite permite gestionar esta
información, a través de GIA Lite los técnicos municipales
pueden gestionar la accesibilidad del espacio público
basándose en la información urbanística y arquitectónica
generada por distintos actores: ciudadanía (a través de
Vadeo 2.0) y técnicos de accesibilidad (plan de
accesibilidad). Además permite hacer un seguimiento de las
incidencias de los ciudadanos sobre las deficiencias de su
entorno urbano.
A continuación se describe cada una de las funciones
implementadas en la herramienta, incluyendo capturas de
pantalla del prototipo que ilustran de manera real cada una
de las funciones implicadas.
Los usuarios registrados acceden a la herramienta
mediante la siguiente URL:
http://www.vadeo.es/testing/hecate/gia_lite/html/secciones/l
ogin/hmain.php, la página inicial de la herramienta muestra
la sección de “Incidencias” donde el profesional tiene un
resumen de las incidencias abiertas y el detalle de las
mismas, como se puede ver en la imagen 3.
haya traslado la incidencia al departamento correspondiente
para su subsanación, “Pendiente” cuando el técnico ha
recibido la incidencia pero aún no tiene recursos para
atenderla y “Resulta” cuando el técnico considere que la
deficiencia que produjo la incidencia ha sido resuelta.
Y a su vez, el usuario recibe una contestación del estado
la incidencia, y sabe inmediatamente que está en
tramitación, o que ya se ha subsanado. Esto permite que la
información sobre las condiciones de accesibilidad del
entorno construido se mantenga actualizada en tiempo real,
y aumente la satisfacción de los usuarios al ver que reciben
respuesta por parte de la administración y que la
información que se les proporciona es real.
La funcionalidad de “Informes”, permite al profesional
hacer un seguimiento de los informes de accesibilidad que
ha recibido y descargarlos en formato pdf. Los técnicos de
las administraciones públicas reciben los informes de
accesibilidad y proyectos directamente a través de la
plataforma web GIA Lite.
Una vez disponen de toda la información sobre el estado
de la accesibilidad del entorno urbano y de la edificación,
pueden planificar acciones y publicar la información que
consideren relevante, para que los ciudadanos conozcan las
condiciones de accesibilidad de su ciudad. Esta acción se
realiza a través de la funcionalidad “Vadeo”. Esta
información certificada por técnicos especializados y
avalada por el ayuntamiento se muestra en Vadeo 2.0. En la
figura 4 se puede ver la sección “Vadeo”, donde se muestra
un resumen del elemento, junto con toda la información
asociado, que el profesional puede exportar a Vadeo.
Imagen 4. Función exportar a Vadeo desde GIA Lite
Imagen 3. Incidencias en GIA Lite
Las incidencias llegan al sistema GIA Lite a través de
Vadeo 2.0 cuando un ciudadano decide notificar una
deficiencia en la vía pública responsabilidad del
ayuntamiento. El técnico puede hacer un seguimiento de las
incidencias que tiene abiertas y a su avisar al ciudadano que
creó la incidencia del estado de tramitación de la misma, el
sistema envía correos a los implicados automáticamente
cada vez que cambia el estado de la misma.
Una incidencia estará en estado “Recibida” cuando el
técnico tiene constancia de la misma, “En proceso” cuando
3.3 Vadeo 2.0
Los usuarios de esta aplicación son los usuarios finales,
la ciudadanía, así como las diferentes centros, asociaciones
y colectivos de ciudadanos con diferentes tipos de
discapacidad.
Los usuarios que utilicen Vadeo 2.0 para consultar las
condiciones de accesibilidad de su entorno, y cuáles son las
rutas que mejor se ajustan a su perfil de necesidades,
pueden participar aportando sus comentarios, y remitiendo
posibles incidencias que puedan detectar.
Además de la información avalada, están los
comentarios de los ciudadanos. Ver la opinión de otras
personas con discapacidad sobre la condiciones de un
141
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
servicio o instalación es un complemento perfecto a la hora
de planificar una visita o una ruta por la ciudad.
A continuación se describe cada una de las funciones
implementadas en la aplicación y que son comunes tanto
para la versión web como para la versión móvil de Vadeo
2.0, incluyendo capturas de pantalla del prototipo que
ilustran de manera real cada una de las funciones
implicadas.
Los ciudadanos pueden acceder a la aplicación Vadeo
2.0
Web
mediante
el
siguiente
enlace:
http://www.vadeo.es/testing/vadeo/html/secciones/mapa/co
nsultas.php, la página inicial de la aplicación muestra la
sección “Consultas” que permite al usuario consultar
información en el mapa filtrando según el tipo de elemento.
Pulsado sobre cada uno de los iconos que aparecen en el
mapa se obtiene una descripción más detallada sobre el
elemento. En la imagen 5 se puede ver una captura de
pantalla de esta sección con los elementos descritos.
Imagen 5. Sección consultas Vadeo
La sección “Rutas” permite obtener la ruta a pie entre
dos punto, incluyendo información de accesibilidad, según
el perfil del usuario, si el usuario no está registrado, y por
tanto, no se dispone de su perfil, se muestran todos los
elementos de accesibilidad. En la imagen 6 se puede ver una
ruta entre dos puntos que incluye los elementos de
accesibilidad almacenados en el servidor Hécate en las
proximidades.
Imagen 6. Detalle de una ruta con información de
accesibilidad Vadeo 2.0 Web
En la imagen 7 una ruta pero en la versión móvil de la
aplicación.
Imagen 7. Detalle ruta en Vadeo 2.0 Móvil
Los usuarios pueden participar en Vadeo 2.0 y compartir
información de accesibilidad con el resto de actores de la
aplicación, otros ciudadanos y las entidades locales. Los
usuarios pueden participar insertando nuevas elementos o
comentando elementos ya creados, solo los usuarios
registrados pueden tener acceso a esta sección.
Uno de los objetivos del sistema Hécate es participar en
las redes sociales a través de Vadeo 2.0, con el fin de crear
contenido de forma dinámica. Con este fin se han creado
cuentas y grupos tanto en Facebook como en Twitter, para
que los usuarios puedan seguir la información que se
comparte en Vadeo 2.0. Los tweets se etiquetan con el
código postal para que cada usuario siga el estado de la
zona que le interese.
La aplicación Móvil es la solución portable y compacta
de Vadeo 2.0, aportando a al sistema de una herramienta de
información en tiempo real, permitiendo al usuario acceder
a la información “in situ” y añadir o actualizar la ya
existente. Precisamente para dotar a la aplicación de un
flujo de trabajo en tiempo real, dispone de una
funcionalidad extra, la sección de Realidad Aumentada. La
Realidad Aumentada permite al ciudadano obtener
información adicional acerca del nivel de accesibilidad en
tiempo real sobre el espacio público a su alrededor. La
imagen 8 muestra una captura real donde se muestra la
función de Realidad Aumentada, donde se puede ver la
información de accesibilidad en forma de iconos
superpuesta a la imagen real capturada por la cámara.
Imagen 8. Detalle Realidad Aumentada Vadeo 2.0
Móvil
Ambas versiones de Vadeo 2.0 permiten al usuario darse de
alta en el sistema y configurar su perfil de accesibilidad en
cualquier momento. Para configurar el perfil de
accesibilidad se le realizan al usuario una serie de
preguntas, relacionadas con su autonomía en los
142
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
desplazamientos, que luego serán utilizadas para filtrar los
elementos de accesibilidad a mostrar cuando se calcula una
ruta.
4. Conclusiones
Según el artículo 2.c de la Ley 51/2003, de 2 de
diciembre, de Igualdad de Oportunidades, No
Discriminación y Accesibilidad Universal de las Personas
con Discapacidad [13], la Accesibilidad Universal es la
condición que deben cumplir los entornos, procesos, bienes,
productos y servicios, así como los objetos o instrumentos,
herramientas y dispositivos, para ser comprensibles,
utilizables y practicables por todas las personas en
condiciones de seguridad y comodidad y de la forma más
autónoma y natural posible. Garantizar el acceso y
participación del espacio público de todos los ciudadanos,
con o sin discapacidad, es por lo tanto clave para alcanzar la
Accesibilidad Universal. La utilización de las TIC en el
campo de la gestión de la accesibilidad y de información
ciudadana puede reducir las barreras tanto físicas como
tecnológicas y ayudar a alcanzar el objetivo de tener un
entorno accesible para todos.
Con este proyecto se pretende abrir nuevos horizontes
en este sector, que se traduzcan en una mejora continua del
entorno y como consecuencia en la calidad de vida de las
personas con movilidad reducida.
La principal innovación del sistema Hécate radica en la
creación de una herramienta profesional de gestión de la
accesibilidad del espacio público, que comparte un mismo
sistema de información que la herramienta de consulta
ciudadana. Esta característica permite abrir un canal de
comunicación directa entre los dos grupos principales de
actores involucrados en la accesibilidad del espacio público,
ciudadanos y profesionales de accesibilidad de las
administraciones públicas, de forma que ambos se
realimenten de la información aportada por el otro grupo.
Otro punto fuerte del sistema es la red social que se crea
a través de Vadeo 2.0, el uso de redes sociales facilita la
creación de información dinámica y consigue que se
presione desde la ciudadanía a los gobiernos locales y
municipios a participar e implantar la herramienta GIA Lite,
y así satisfacer las demandas que los ciudadanos puedan
hacer desde Vadeo 2.0.
Pero uno de los principales puntos fuertes del sistema, la
red social, también puede ser una de sus principales
amenazas, ya que si no se consigue enganchar a bastantes
usuarios, la información mostrada en Vadeo 2.0 será pobre
y escasa, de forma que a los ayuntamientos no les será
atractivo pertenecer al sistema. Pero gracias a las relaciones
establecidas entre los diferentes colectivos de personas con
discapacidad durante la ejecución del proyecto, y a su
implicación en el mundo asociativo a nivel nacional, ha
hecho que diversos ayuntamientos se hayan interesado por
las herramientas y su implantación en sus municipios.
Los resultados de las pruebas piloto, realizadas con
técnicos de accesibilidad, los cuatro ayuntamientos
colaboradores y usuarios con distintos grados de
discapacidad han reportado unos resultados iniciales muy
positivos. Todos los usuarios (ciudadanos) participantes en
el prototipo consideraron la aplicación Vadeo 2.0 fácil de
utilizar, fiable y que cumplía con sus expectativas. Pero lo
más importante es que buena parte de los usuarios
consultados consideraron la aplicación Vadeo 2.0 útil y
valoraron que la utilizarían para planificar sus
desplazamientos diarios. La parte que más positivamente
valoraron los usuarios fue la funcionalidad de incidencias
como canal de comunicación directa con sus entidades
locales.
En cuanto a los resultados obtenidos en el piloto con los
profesionales, la mayoría de los usuarios destacó el hecho
de que la herramienta GIA Lite no interfería en su proceso
de trabajo y veían en la implantación de la herramienta en
sus correspondientes administraciones, como una forma de
mejorar la imagen pública de su localidad, por un lado por
el empleo de TICs en determinados procesos técnicos, y por
otro, por la atención ciudadano modernizada, mediante red
social, de la atención directa de incidencias e información
pública actualizada.
Por tanto, el hecho de que la aplicación Vadeo 2.0 haya
tenido una buena aceptación por parte de los colectivos
participantes unida al hecho de que los profesionales vean
en GIA Lite una herramienta útil y gracias a la difusión del
proyecto y al respaldo de las entidades municipales, se ha
creado un tejido de usuarios importante, se espera que, por
un lado se atraiga a más usuarios, y por otro que se traduzca
en una forma de presión, desde la ciudadanía y los
colectivos de profesionales, a los gobiernos locales de otras
ciudades y municipios a participar e implantar la
herramienta GIA Lite. Todo ello hace pensar en una
continuidad del sistema más allá de la continuidad del
proyecto aquí presentado.
Como líneas futuras de actuación se prevé incluir en el
sistema la herramienta GIA Pro, esta herramienta está
destinada a las empresas certificadoras de accesibilidad
responsables del realizar los Planes de Accesibilidad que
encargan los municipios, de esta forma se pretende cerrar el
círculo e incluir a todos los actores relacionados con la
accesibilidad en el sistema. El hecho de que los
ayuntamientos utilicen GIA Lite, se puede traducir en que
soliciten los servicios de los profesionales de accesibilidad
para que incorporen datos actualizados y fiables de las
condiciones de accesibilidad del entorno construido, y así
satisfacer las demandas que los ciudadanos puedan hacer
desde Vadeo 2.0.
5. Agradecimientos
Este trabajo ha sido financiado por el Subprograma
Avanza Competitividad I+D+I dentro del Plan Nacional de
I+D+i Acción Estratégica de Telecomunicaciones y S. I. del
Ministerio de Industria, Turismo y Comercio. Los autores
quieren agradecer al resto de miembros del consorcio
Hécate, Fundación CEDAT, Universidad Politécnica de
Valencia, CEDAT AG SL, Soluciones Tecnológicas para la
Salud y el Bienestar, SA y el Centro Tecnológico ITACA
por su opinión y ayuda en la elaboración de este trabajo.
Los autores también quieren dar las gracias a los cuatro
ayuntamientos colaboradores (Ayuntamiento de Alaquàs,
Ayuntamiento de Aldaia, Ayuntamiento de Paterna y
143
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Ayuntamiento de Quart de Poblet) por su tiempo y
colaboración.
6. Referencias
[1] Accesibilidad Universal, definición en el artículo 2C de la Ley
51/2003, de 2 de diciembre, de igualdad de oportunidades, no
discriminación y accesibilidad universal de las personas con
discapacidad, [en línea], [13 de Febrero de 2013].
https://www.boe.es/diario_boe/txt.php?id=BOE-A-2003-22066
[2] Premio Reina Socia de Accesibilidad Universal a Quart de
Poblet, [en línea], [20 de abril de 2013].
http://www.boe.es/diario_boe/txt.php?id=BOE-A-2006-253
[3] Premio Reina Socia de Accesibilidad Universal a Aldaia, [en
línea], [20 de abril de 2013].
http://www.boe.es/boe/dias/2008/10/09/pdfs/A40605-40616.pdf
[12] CPT – Ciudad Para Todos, [en línea], [11 de Mayo de 2013].
http://www.ciudadparatodos.org/
[13] Ley 51/2003, de 2 de diciembre, de igualdad de
oportunidades, no discriminación y accesibilidad universal de las
personas con discapacidad, [en línea], [13 de Febrero de 2013].
https://www.boe.es/diario_boe/txt.php?id=BOE-A-2003-22066
7. Derechos de autor
El autor o los autores de los artículos presentados como
soporte documental para sus intervenciones en el Congreso,
en el mismo acto de enviarlos para su aprobación, aceptan
la cesión de los derechos de autor sobre los mismos para su
publicación en el libro de actas del Congreso.
[4] Sistema de Información Geográfica eMAP, [en línea], [6 de
Abril de 2013].
http://www.tsystems.es/tsi/es/100308/Homepage/SolucionesIndust
rias/Industrias/PublicSector/Sistemasdeinformacinterritorial/Sistemas-de-informacionterritorial
[5] gvSIG, Programa informático para el manejo de información
geográfica,
[en
línea],
[20
de
Abril
de
2013].
http://www.gvsig.org/web/
[6] LocalGIS, Sistema de información territorial, [en línea], [3 de
Mayo de 2013].
http://www.planavanza.es/avanzalocal/Soluciones/Paginas/LocalG
is.aspx
[7] Wheelmap.org Team, [en línea], [25 de Abril de 2013].
Disponible en la Web: http://wheelmap.org/
[8] OpenStreetMap, [en línea], [30 de Abril de 2013]. Disponible
en la Web: http://www.openstreetmap.es/
[9] Map4all, [en línea], [15 de Abril de 2013]. Disponible en la
Web: http://fundacionequipara.cdp-tatum.com/wp/map4all/
[10] BB – Blue Badget Parking Map, [en línea], [11 de Mayo de
2013]. http://www.bluebadgeparking.com/
[11] GATACA – Guía Accesible de turismo para Castilla-La
Mancha, [en línea], [9 de Mayo de 2013].
http://www.proyectogataca.es/
144
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Accesibilidad a los servicios telemáticos para todos
los ciudadanos
Yolanda Hernández1, Miguel Ángel Valero2
1
ASPAYM Madrid. Camino de Valderribas 115,
28038 Madrid, Spain
[email protected]
2
Universidad Politécnica de Madrid.
Departamento de Ingeniería y Arquitecturas
Telemáticas
Resumen
La accesibilidad es un derecho fundamental que plasma
la Convención Europea sobre los derechos de las Personas
con Discapacidad, que ha sido ratificada por España en la
Ley 26/2011, de 1 de agosto, de adaptación normativa a la
Convención Internacional sobre los Derechos de las
Personas con Discapacidad.
La accesibilidad a las gestiones telemáticas sigue siendo un
punto importante que las Administraciones deben
solucionar, teniendo en cuenta a los ciudadanos con
discapacidad en las soluciones que se planteen. En este
proyecto, se tratan de suplir algunas de las necesidades que
el colectivo de la discapacidad física se encuentra hoy en
día para conseguir realizar todos los trámites necesarios
con las Administraciones pertinentes. Los beneficios que
supone para la ciudadanía los trámites telemáticos, se
multiplican en el caso de las personas con discapacidad, ya
que suponen un ahorro de tiempo, dinero y en muchos
casos, la posibilidad de ser independientes a l a hora de
realizar la gestión. (Palabras clave: Vida independiente,
gestión telemática, accesibilidad)
Abstract
Accessibility is a fundamental right that reflects the
European Convention on the Rights of Persons with
Disabilities, which was ratified by Spain in Law 26/2011, of
August 1st of normative adaptation to the Convention on the
Rights of the Persons with Disabilities. The telematic
accessibility efforts remains an important point that should
solve Administrations, taking into account citizens with
disabilities in solutions that arise. In this project, we try to
meet some of the needs that the collective who is physically
disabled today have to prepare all necessary arrangements
with the correspondent authorities. The benefits of
citizenship telematics procedures, multiply in the case of
people with disabilities as they represent a s aving of time,
money and in many cases, the possibility of being
independent when they do several managements.
(Keywords: Independent Living, management telematics,
accessibility)
Carretera de Valencia km 7, 28031 Madrid, Spain
[email protected]
1. Introducción.
En la sociedad actual en que las nuevas tecnologías son
la base del progreso, son muchas las personas con
discapacidad que ven en la Sociedad de la Información una
“mano amiga” con la que poder servirse para llevar una vida
más autónoma.
En los casos de discapacidades más severas, como la
tetraplejia, la Sociedad de la Información está siendo
construida alrededor de una serie de aspectos que excluyen
de manera significativa a aquellos individuos que no se
incluyan dentro del denominado usuario medio.
Los problemas varían en base a las distintas
características de la persona. Las dificultades en el habla y
la movilidad, los movimientos involuntarios descontrolados
o la falta de tono muscular hacen que, para la mayoría de
estos individuos, resulte extremadamente complicado
interactuar con el ordenador, manejando el teclado y el
ratón estándares. De la misma forma, resulta muy
complicado realizar otra serie de actividades como conducir
un coche, desplazarse en transporte público por la ciudad, o
realizar largos recorridos con su producto de apoyo (bastón,
muleta, silla de ruedas...) Un gran sector de las Personas
con Discapacidad desconoce el beneficio que las Nuevas
Tecnologías y los Servicios Digitales pueden reportar a su
calidad de vida, desde hacer la compra a través de Internet
hasta poder solicitar ayudas a la administración, realizar las
gestiones necesarias con el DNI electrónico, hacer los
trámites de la declaración de la renta, etcétera.
El proyecto Accesibilidad a los Servicios Telemáticos
Inteligentes para el Ciudadano (a partir de ahora, ASTIC)
pretende garantizar la accesibilidad a los servicios ofrecidos
por las Administraciones Públicas para el ciudadano.
Enmarcada dentro del Plan Avanza2 del Ministerio de
Industria, Turismo y Comercio, más concretamente de la
Convocatoria Ciudadanía Digital, en su convocatoria de
2011 y con una duración de 2 años.
Está siendo desarrollado por un consorcio entre
Universidad Politécnica de Madrid, Fundación Vodafone
España, Federación Nacional de ASPAYM y ASPAYM
Madrid, con colaboraciones puntuales de otras entidades
como APAM, CRMF (de Madrid) o ASPAYM Murcia y
ASPAYM Toledo.
El objetivo principal de este proyecto es analizar y
dinamizar servicios telemáticos avanzados de interés
general a través de un único punto de acceso para el
145
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
colectivo de personas con discapacidad física, con el fin de
promover su participación ciudadana en igualdad de
condiciones pudiéndose beneficiar de las oportunidades de
la e-Administración y la Sociedad de la Información.
@STIC aspira ser un referente en la adopción de
medidas de inclusión digital efectivas para minimizar la
brecha digital y garantizar la e-accesibilidad de estos
potenciales ciudadanos digitales.
2. Justificación.
En el Real Decreto 366/2007, de 16 de marzo, por el que
se establecen las condiciones de accesibilidad y no
discriminación de las personas con discapacidad en sus
relaciones con la Administración General del Estado, se
establecen las medidas para “que los ciudadanos puedan
resolver sus asuntos, ser auxiliados en la redacción formal
de documentos administrativos y recibir información de
interés general por medios telefónicos, informáticos o
telemáticos”. Las medidas se estructuran en estas áreas:
I.
Medidas de accesibilidad a las oficinas de
Atención al Ciudadano (ubicación, acceso, recepción,
señalización, configuración de los puestos y sistemas
interactivos de información)
II.
Medidas para garantizar la accesibilidad en
relación con los impresos y documentos administrativos.
III.
Medidas para garantizar la accesibilidad en la
prestación de servicios de atención al ciudadano.
Sobre todo, se especifican actuaciones para hacer los
edificios y entornos accesibles para su uso por personas con
discapacidad, lo cual garantiza en muchos casos la
tramitación de solicitudes o la solicitud de información.
Este colectivo, encuentra doble dificultad para acceder a los
servicios de la administración pública o privada. Por un lado
encuentran, problemas de accesibilidad para acceder a
muchos edificios, o dificultad para llegar hasta ellos
(transporte
público
inaccesible,
problemas
de
aparcamiento); y por otro, una dificultad todavía mayor para
acceder a través del formato telemático debido a los
problemas para utilizar un ordenador, como la dificultad
para manejar un ratón, menor rapidez para completar
formularios o dificultad para entender cierta información.
Estos son los principales problemas detectados a través
de los 3 grupos de discusión (30 personas) y entrevistas
(72) realizadas en la primera fase del proyecto.
Distancia con el edificio, que derivan en
dificultades de movilidad, para llegar hasta el centro, en
transporte público o en su propio vehículo.
Accesibilidad del edificio (escaleras, ascensores
inadecuados, falta de mantenimiento en ciertas adaptaciones
como salvaescaleras…)
Barreras en los mostradores (demasiado altos, sin
espacio de aproximación, mostradores adaptados que no se
utilizan adecuadamente…)
Dificultad para rellenar ciertos documentos,
incluso en determinados casos para firmar.
Problemas de comunicación derivados de
dificultades para vocalizar, derivadas de las lesiones.
Otros
En cuanto al uso de los servicios telemáticos:
Problemas para rellenar documentos extensos:
dificultad para escribir (derivados de los problemas de
motricidad fina, dificultad para manejar un teclado
normalizado,
enlentecimiento
de
las
funciones
superiores…), además, por la caducidad de las propias
páginas web que requieren de cierta velocidad para rellenar
los formularios.
Dificultad para entender términos técnicos y
concretos.
Falta de confianza en internet, similar a la del resto
de ciudadanía, pero sumada a la falta de independencia, y
descuido de ciertas actividades relacionadas con la persona
(como gestiones con banco, con la Seguridad Social,
etcétera) que encontramos en muchos casos.
Falta de interés, puede venir derivado de los pocos
recursos que una persona con discapacidad puede tramitar
de forma telemática con relación a su discapacidad.
Otros problemas que también tienen el resto de
ciudadanos (confianza, seguridad, desconocimiento…)
Entre los resultados más interesantes, destacamos este
gráfico en el que se observan los distintos medios a través
de los cuales las personas encuestadas refieren el método
por el cual utilizan estos servicios. Esta pregunta admitía
varias respuestas, cada usuario puede realizar los trámites a
través de uno o varios medios.
Imagen 1. Gráfico sobre la forma de realización de los
trámites con la Administración
En este otro gráfico, se detecta quién es la persona
encargada de realizar estos trámites. Al verlo junto al
gráfico anterior, se visualiza la necesidad de impulsar la
accesibilidad a los servicios telemáticos, para garantizar que
cada usuario pueda realizarlos de forma autónoma, a través
del medio más adecuado y con la garantía de
confidencialidad y seguridad necesaria.
Imagen 2. Gráfico sobre quién realiza los trámites con la
Administración
146
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Es evidente que son necesarias medidas de inclusión
para conseguir evitar esta situación, y conseguir concienciar
al usuario de los beneficios que consideramos que pueden
reportarle a cualquier individuo con discapacidad. Es
necesario emprender acciones que minimicen la brecha
digital y maximicen la e-accesibilidad de estas personas a
los servicios telemáticos que tanto pueden mejorar la
calidad de vida de estas personas. El Certificado Electrónico
garantiza al usuario:
-
Autenticidad: tanto de las personas como de la
entidad que realiza los tramites.
- Confidencialidad: entre el emisor y receptor.
- Integridad: que la información llegue sin ninguna
modificación a su destino.
- No repudio: pudiendo solo el titular generar la
firma y posibilita que en el caso que se intente
suplir su identidad pueda negar su titularidad.
Con los certificados electrónicos, reconocidos por la
Comunidad de Madrid, podrá realizar consultas y efectuar
gestiones a través de la web de Administración Electrónica,
de tal forma que pueda:
-
-
-
Autentificar la identidad del usuario, de forma
electrónica, ante terceros.
Firmar electrónicamente de forma que se garantice
la integridad de los datos trasmitidos y su
procedencia.
Cifrar datos para que sólo el destinatario del
documento pueda acceder a su contenido.
3. Proyecto.
Este proyecto ha sido planificado desde el comienzo por
y para el usuario final, las personas con discapacidad, que
formaron parte del mismo desde su inicio. Tiene carácter
interprovincial, con la participación de tres Comunidades
Autonómicas, la Comunidad Autónoma de Madrid, Castilla
la Mancha y Murcia, en la que se tienen en cuenta aspectos
tan importantes como el entorno en el que viven (rural o
urbano) que facilitará o dificultará en gran medida el acceso
a las gestiones con las Administraciones.
En el desarrollo del proyecto, se han analizado los
servicios que permiten realizar gestiones con las
Administraciones, tanto Central, Autonómico y Local,
valorando su accesibilidad y usabilidad por las personas con
discapacidad física.
El fin que se persigue es conseguir soluciones que
permitan que esta relación ciudadano-administración sea
sencilla y útil. Además, se promoverá el uso de estos
servicios telemáticos en el colectivo de personas con
discapacidad física, ya que permitirán mejorar su autonomía
e independencia.
Los pilotos se han realizando con un grupo de personas
con discapacidad física, entre ellas, Lesión Medular, Daño
Cerebral, Parálisis Cerebral y Distrofia Muscular.
4. Metodología.
Como hemos comentado se han tenido en cuenta a los
usuarios finales desde el comienzo del proyecto. Se han
desarrollado estas tres fases:
FASE 1: Conocer el uso real que se está haciendo de los
servicios telemáticos por parte del colectivo objeto de
estudio. Se han encontrado las necesidades y deseos del
usuario final con respecto a los fines que se pretenden
conseguir con el proyecto. Posteriormente a la selección de
los usuarios participantes, teniendo en cuenta la importancia
de crear un grupo heterogéneo, se han tenido en cuenta
aspectos como el género o la edad, el nivel de manejo de las
nuevas tecnologías (ordenador, internet, redes sociales,
móvil…).
Imagen 3. Gráfico sobre el nivel de manejo de las nuevas
tecnologías de los encuestados
Además del grado de dependencia (Grado I-Moderado;
Grado II-Dependencia severa; Grado III- Gran
dependencia), dentro del cual se valoraban las capacidades
conservadas para de realizar las Actividades de la Vida
Diaria.
Imagen 1. Gráfico sobre la forma de realización de los
trámites con la Administración
Este tipo de selección de participantes busca conseguir
la máxima representación de circunstancias posibles dentro
de la validación. Se han realizado dos acciones para realizar
identificar el uso y las barreras de los servicios digitales:
1. Análisis cualitativo: ha permitido detectar cuáles
son las principales dificultades que encuentras
personas objeto del proyecto, cuando intentan
acceder a los servicios ofrecidos por la
Administración. Para ello se han realizado las
siguientes tareas:
147
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Elaboración de requisitos para obtener una
muestra de servicios públicos y de usuarios
representativos de la población a quien va
dirigida la solución tecnológica.
Análisis documental sobre evaluación
internacional de administración electrónica.
Realización de un cuestionario donde
recogiendo
los
principales
servicios
identificados para discriminar por uso más o
menos habitual.
Análisis de conclusiones de la documentación
como los resultados del cuestionario han sido
debatidos en tres grupos de discusión
formados por personas con cada una de las
discapacidades incluidas en la investigación:
daño cerebral, lesión medular y parálisis
cerebral.
- Realización de pilotajes con una muestra de
72 personas en las 3 CC.AA. participantes.
Las personas que realizaron los pilotajes,
probaron
los
servicios
previamente
seleccionados para identificar las barreras en
el acceso a los servicios de la administración
pública.
- Análisis de las principales causas de la escasa
utilización de los certificados digitales en las
personas con discapacidad física.
2. Evaluación de la accesibilidad y usabilidad de los
servicios proporcionados por una Administración
local (Ayuntamiento de Madrid). Análisis sobre la
accesibilidad y usabilidad de dos servicios
proporcionados por el Ayuntamiento de Madrid:
padrón municipal y censo electoral.
En todas estas pruebas, se ha tenido en cuenta los tres
indicadores que describen la experiencia de los usuarios con
los servicios telemáticos de administración pública,
encontrados en las primeras entrevistas con los usuarios:
o Accesibilidad técnica. Evalúa la web: se refiere a
las barreras de origen tecnológico (contenidos
multimedia, ayudas técnicas, duración de la sesión,
etc.).
o Comprensión. Evalúa al usuario: se refiere a la
capacidad de la persona de completar la gestión
(ruta de enlaces, texto, comprensión de
formularios, etc.).
o Ayuda y contacto. Evalúa la posibilidad de
completar la gestión de forma autónoma –con
ayuda del servicio- sin recurrir a terceras personas
(formularios de contacto, ayuda web, etc.).
FASE 2: Prueba con las soluciones desarrolladas, CDA y
aplicación web y móvil.
Actualmente nos encontramos en este momento del
proyecto. Ya se han realizado algunas pruebas con usuarios,
y los resultados son muy alentadores, ya que garantizan un
uso adecuado, seguro y fácil del manejo del certificado.
Este token oculta a los ciudadanos toda la problemática que
conlleva el uso de certificados, de manera que proporciona
una solución accesible para que las personas con
discapacidad puedan beneficiarse de los servicios ofrecidos
por la administración electrónica. Paralelamente a las
pruebas con el CDA, se están realizando una serie de
-
pruebas con el e-DNI y el certificado digital, para garantizar
la accesibilidad a través de los tres medios, y proporcionar
así diversos canales de acceso a la e-Administración, siendo
el usuario/a el que elija la solución más adecuada para
él/ella.
5. Soluciones/Aspectos novedosos desarrollados
Desarrollo
de
una
plataforma
web/móvil
http://www.tramitesaccesibles.aspaym.org/ que aglutina
servicios con las distintas administraciones locales,
autonómicas y estatales, para ciudadanos con o sin
discapacidad. Se han diferenciado nueve categorías
(empleo; sanidad; educación, cultura y ocio; documentos
personales, impuestos y rentas; vehículos y multas;
discapacidad; policía y justicia; otros) de tal forma que el
usuario sin conocer quién es la Administración encargada
de gestionar ese servicio pueda acceder de una forma
cómoda y rápida. Al acceder a cada servicio, el usuario
encuentra de forma desglosada los pasos de los trámites que
debe seguir. En otro apartado, recibe información relativa a
las gestiones telemáticas (como solicitar el eDNI, descargar
un certificado digital, para que sirven…), así como los datos
del servicio de atención al usuario del portal. El portal
además tiene información sobre el proyecto, sobre las
entidades que forman parte del mismo, tecnologías de
apoyo de bajo coste o gratuitas que pueden servir a
cualquier usuario a manejar el ordenador, y un enlace a un
servicio de ayuda para el usuario.
El proyecto y la plataforma, así como las soluciones se
están promocionando desde las redes sociales twitter
https://twitter.com/STIC_Aspaym y Facebook
https://www.facebook.com/AsticAspaym
Imagen 1. Pantallazo de la plataforma.
CDA o tokken criptográfico. Solución accesible,
portable y personal, que el usuario con algún tipo de
problemas de movilidad puede utilizar en cualquier lugar,
148
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
como su centro de referencia (asociación o fundación), en
su propio domicilio, o en el domicilio de algún familiar.
Proporciona al usuario servicios de autenticación y
autorización.
El dispositivo elegido fue el token
criptográfico iAM desarrollado por la empresa Bit4id
(http://www.bit4id.com). A través de la creación de una
Autoridad de Registro, dependiente de Camerfirma
(http://www.camerfirma.com/,
entidad
certificadora
autorizada) en ASPAYM Madrid, de tal forma que la propia
entidad, realice la labor de certificación de las identidades
digitales, evitando los desplazamientos a las entidades
certificadoras, y generando confianza entre los usuarios
atendidos. Se trata de un dispositivo USB basado en un
microprocesador criptográfico que incorpora una memoria
micro-SD con aplicaciones para firma electrónica, cifrado, y
verificación de documentos firmados electrónicamente. El
dispositivo incluye una tarjeta SIM en la que pueden ser
almacenados certificados personales de usuario. El acceso a
este certificado está protegido mediante códigos PIN/PUK.
Además, se le ha incorporado un navegador Firefox
portable, que es el navegador que mejor se adapta a los
requisitos de CDA. El Firefox de iAM es capaz de leer el
certificado digital de la tarjeta SIM usando el dispositivo de
seguridad DS Crypto Smart Cart.
Imagen 2. Tokken criptográfico
Servicio de atención al usuario del portal @STIC.
Unos de los mayores beneficios que se pensaron ofrecer al
usuario al plantear este proyecto, fue la creación de un
servicio de atención al usuario, ejecutado desde la misma
entidad social (ASPAYM Madrid) y por personas con
discapacidad. Este servicio, proporcionará atención al
cualquier usuario, tanto telefónico, a través de mail, o en la
propia web. Proporcionará formación a las distintas
entidades que forman parte de la Federación Nacional de
ASPAYM, facilitando el uso de la plataforma web,
informando sobre los beneficios de utilizar los servicios
telemáticos y facilitando los CDA con la identidad digital
como servicio propio de la entidad.
Mejoras en las web de las Administraciones: Se ha
conseguido involucrar a Administraciones como el
Ayuntamiento de Madrid o el Ministerio de
Administraciones Públicas, con el fin de que tengan en
cuenta los requisitos web en sus propias páginas, no sólo
Requerimientos de la Administración (los conocidos como
1.0.) si no seguir la tendencia actual y las recomendaciones
de las asociaciones de discapacidad, los criterios de
evaluación 2.0, enfatizando la importancia de la
comprensión y el contacto/ayuda web de forma autónoma.
6. Beneficios
El proyecto ASTIC facilita las relaciones del usuario
con la administración electrónica, actuando principalmente
a través de la confianza del usuario. El certificado portable
proviene de una entidad “amiga”, que le facilita los trámites
para acceder al mismo. Además, evita los transportes
innecesarios, tan costosos en los casos de las personas con
discapacidad, por un lado económicos y por otro personales
(necesidad de acompañamiento por parte de una tercera
persona para llevar papeles, salvar obstáculos, etcétera.)
Proporciona opciones para el usuario, ya puede realizar
ciertos trámites relativamente sencillos en su domicilio,
favoreciendo la privacidad del usuario; así como aporta el
poder realizar trámites más complicados o relacionados con
la propia discapacidad, en la entidad social, en este caso, el
centro de ASPAYM Madrid, con profesionales cualificados.
Garantiza la privacidad y la seguridad del usuario, al
poder realizar las gestiones por si mismo y sin necesidad de
terceras personas que realicen esas gestiones, autorizando a
realizar su firma a otros o proporcionando datos personales
a los acompañantes.
Promociona el uso de los servicios telemáticos en la
ciudadanía, ya que los acerca de una manera sencilla y
cercana, naturalizando el trámite.
Además, reduce gastos a la administración pública así
como aglomeración de usuarios en los servicios.
Es por tanto, un proyecto beneficioso para el usuario final,
para el entorno más cercano del mismo, y para la propia
administración. Es de esperar que la Administración
paulatinamente vaya consiguiendo mayores niveles de
accesibilidad y usabilidad de sus servicios y que los
problemas aquí tratados queden resueltos. Mientras tanto, la
solución recogida en este papel permitirá a los ciudadanos
con discapacidad beneficiarse a partir de este momento de
las grandes ventajas que les brinda la administración
electrónica.
Referencias
[1]
Fundación ORANGE. Informe anual 2012 sobre el
desarrollo de la sociedad de la información en España (2012).
[2]
DNI Electrónico (DNIe). http://www.dnielectronico.es/
[3]
Ley 34/2002 de 11 de julio. Ley de Servicios de la
Sociedad de la Información y del comercio electrónico.
[4]
Ley 11/2007, de 22 de junio, de acceso electrónico de
los ciudadanos a los Servicios Públicos.
[5]
Ley 56/2007. Medidas de Impulso de la Sociedad de la
Información.
[6]
Real Decreto 1671/2009, de 6 de noviembre, por el cual
se desarrolla parcialmente la Ley 11/2007, de 22 de junio, de
acceso electrónico de los ciudadanos a los servicios públicos.
[7]
Token
iAM.
Bit4ID
(2013).
http://www.bit4id.com/es/index.php?option=com_content&view=
article&id=143&Itemid=581
[8]
Encuesta sobre Equipamiento y Uso de Tecnologías de
la Información y Comunicación en los hogares. Instituto Nacional
de
Estadística
(2010).
http://www.ine.es/jaxi/menu.do?type=pcaxis&path=/t25/p450&fil
e=inebase
[9] Camerfirma (2013). http://www.camerfirma.com/
149
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[10] Eficiencia y Ahorro con la Aplicación de Tecnologías
Accesibles en las Administraciones Públicas. Colección
Accesibilidad, Tecnologías y Sociedad Vol 4. CENTAC
2013.
El Sistema ECCA: “un diseño para tod@s”
Sonia María Jorge García
(coautora junto con el equipo de trabajo que forma parte de este proyecto)
Radio ECCA, Fundación Canaria
[email protected]
Resumen
Las TIC pueden llegar a c onvertirse en puentes de
comunicación que contribuyan a eliminar las barreras con
las que los colectivos de personas con discapacidad
auditiva, visual y física se encuentran ante su acceso a la
formación y la información por las vías más tradicionales.
Este proyecto, desarrollado por Radio ECCA Fundación
Canaria, una institución educativa con 48 años de
experiencia en la formación a distancia de personas
adultas, significa una apuesta por la formación a l o largo
de la vida para todos y todas, con un e nfoque que
contempla la diversidad funcional; contribuyendo así a l a
sensibilización de la población sobre la realidad de estos
colectivos, la necesidad de formación y mejora de su
empleabilidad y la creación de una comunidad educativa
que se enriquezca con la diversidad de su alumnado.
Abstract
The ICTs may become the appropriate bridge of
communication with those people with hearing, visual and
physical-motor impairment. Barriers may no l onger exist
for these people who can have access now to training and
information through traditional means.
This project, developed by Radio ECCA Canary Islands
Foundation (an educational institution, with 48 y ears of
experience, involved in distance learning for adults),
implies a l ifelong training for everyone with an approach
that contemplates people’s functional diversity, thereby
contributing to raise the awareness of the population about
the reality that these groups must face, the need for
training, the improvement of employability, the creation of
an educational community that enriches itself with the
students’ diversity.
1. Introducción
Esta iniciativa nace en el contexto social actual, donde el
acceso al mercado de trabajo es cada vez más difícil y
muchas personas necesitan completar o ampliar su
formación para conseguir un puesto de trabajo o mejorar el
que tienen. Las personas con discapacidad sensorial y física
se enfrentan a esta situación con mayores dificultades, dado
que tienen unas barreras de comunicación que superar para
continuar su formación y que no suelen estar cubiertas por
la educación tradicional, lo que influye en su bajo nivel de
empleabilidad.
El proyecto tiene como objetivo el desarrollo de un
prototipo de acción formativa, siguiendo el Sistema ECCA
en su modalidad en línea, cuyo diseño incluye los puentes
de comunicación necesarios para que cualquier persona, con
las capacidades cognitivas suficientes para acceder al nivel
del curso, pueda realizarlo en el contexto de un modelo
educativo sostenible e inclusivo que incremente la igualdad
de oportunidades para la formación a lo largo de la vida.
El proyecto cuenta con la colaboración de distintas
instituciones, asociaciones y empresas que aportan a Radio
ECCA su conocimiento y amplia experiencia con las
personas con discapacidad. Durante varios años, un equipo
de trabajo multidisciplinar, con distintos perfiles
profesionales, trabaja con una única intención: aportar sus
conocimientos y experiencias para que, a partir del Sistema
ECCA y el uso de las TIC, se disminuyan las barreras de
acceso a la educación para todas las personas,
independientemente de que tengan algún tipo de
discapacidad sensorial (auditiva, visual) o física.
2. Presentación de Radio
ECCA, Fundación Canaria
Radio ECCA nació en Canarias en 1965. Desde sus
orígenes es una entidad sin ánimo de lucro dedicada a la
formación de las personas adultas. Constituida como
Fundación en 1985, actúa hoy en Canarias, Andalucía,
Baleares, Extremadura, Galicia, Madrid y Murcia, al igual
que en Marruecos, Cabo Verde, Guinea Bissau y Senegal.
Asimismo, colabora con instituciones de catorce países
latinoamericanos a las que cede gratuitamente la tecnología
educativa ECCA.
2.1. Más de 2 500 000 personas han realizado
alguna acción formativa con el Sistema ECCA
Aproximadamente, trescientas personas – entre
docentes, comunicadores y técnicos de distintas
especialidades - trabajan en Canarias para llegar al mayor
número de beneficiarios/as y localizaciones, tanto rurales
como urbanas: la media anual de población atendida desde
la red de centros ECCA supera las 60 000 personas y más
de 2 500 000 a lo largo de su historia.
150
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
2.2. La mejor formación posible, al mayor número
de personas, con preferencia a quienes más lo
necesitan
Radio ECCA promueve la formación a lo largo de toda
la vida y tiene como uno de sus objetivos conseguir que
muchas personas adultas, que aún carecen de la formación
básica o media, accedan a ella. Para ello, como centro
educativo, imparte formación reglada, en los niveles de
Graduado en Educación Secundaria Obligatoria,
Bachillerato en dos modalidades (Humanidades y Ciencias
Sociales y Ciencias y Tecnología) y Formación Profesional
del Sistema Educativo (Ciclo Superior de Integración
Social). Como referencia, en los últimos cinco años, 6 859
personas adultas titularon en la formación reglada.
Por otro lado, cuenta con una amplia oferta de
formación no reglada que aborda las necesidades de
formación vinculadas a las nuevas tecnologías, cualificación
profesional para el empleo, idiomas, formación del
profesorado, medio ambiente, educación para la salud,
empresa, economía, intervención psicosocial, habilidades
educativas básicas, ocio y tiempo libre.
Nuestro principal alumnado son las personas adultas con
mayores necesidades educativas y, para que ninguna de
ellas deje de hacerlo por limitaciones económicas, se
dispone de un sistema de ayudas al estudio que Radio
ECCA promueve a través de la solidaridad y la
responsabilidad social de instituciones y entidades
colaboradoras, con el fin de minimizar las desigualdades
sociales.
2.3. Un sistema propio de enseñanza
Radio ECCA, la más antigua de las instituciones oficiales
de educación a distancia en España, tiene un sistema
educativo propio: el Sistema ECCA. Dicho Sistema se utiliza
en las diferentes modalidades de enseñanza-aprendizaje
presentes en Radio ECCA: modalidad radiofónica y
teleformación.
El Sistema ECCA se basa en el uso sincronizado de tres
elementos:
• Material impreso. Contiene toda la información precisa
para seguir los cursos. Suele constar de un conjunto de
esquemas, elemento central e imprescindible que sirve de
soporte para la clase radiofónica, cumple la función de
pizarra y llega a convertirse en libro de texto; notas y/o
documentos, que amplían y complementan los contenidos
explicados en la clase radiofónica; cuestionarios, prácticas y
evaluaciones.
• Clase. Consiste en una explicación minuciosa y
eminentemente activa del contenido del esquema que el/la
alumno/a completa siguiendo las indicaciones de su pareja
de profesores. En la clase se proporciona la información
básica del tema del día. Normalmente, su duración es de 30
minutos.
• Orientación o tutoría. Completa los dos elementos y
fomenta el contacto entre los alumnos y las alumnas, entre
sí y con el profesorado. Puede ser presencial y/o a distancia
y favorece la retroalimentación del sistema. Están
realizadas por profesorado especializado.
Este sistema ha demostrado, a lo largo de los años, que
es un sistema eficaz y eficiente, especialmente para las
personas adultas, permitiendo que un mayor número pueda
acceder de una manera más flexible a la formación
adaptando sus itinerarios formativos a sus necesidades
personales y laborales.
2.4. Compromiso con la educación de otros
pueblos y culturas
Desde los inicios, Radio ECCA ha extendido su
actividad a varios países africanos, habiendo trabajado en el
Sahara Occidental español en 1967 y, puntualmente, en
Angola, años 80-90, y los campamentos saharauis de
Tinduf en el año 2001. En los años 70 se inicia la
colaboración con países del continente americano,
habiendo transferido nuestro Sistema a instituciones de
varios países con los que actualmente mantenemos la
colaboración. También destacamos la transferencia del
Sistema, a países africanos como es el caso de Cabo Verde
en el año 2007.
Desde 1985 que se constituyó como fundación, a
través de nuestros proyectos de cooperación al desarrollo
en África, se ha atendido a 64 984 personas de las cuáles 50
420 han conseguido finalizar su formación (alfabetización,
educación básica, salud y español).
2.5. Compromiso con la atención preferente a
sectores sociales desfavorecidos
Radio ECCA es consciente de los grandes cambios
sociales actuales, e intenta poner al servicio de las personas
más desfavorecidas recursos socio-educativos que las
ayuden a afrontar los desafíos de integración, capacitación
y formación que la sociedad actual les plantea.
Como fundación, desarrolla proyectos sociales que
tienen como colectivos beneficiarios o sectores de
intervención los declarados prioritarios desde las políticas
sociales y de empleo: personas desempleadas de baja
cualificación, personas en exclusión social o riesgo de
padecerla, menores en situación de riesgo, jóvenes sin
formación, mujeres con problemas de integración, personas
con discapacidad e inmigrantes.
Como referencia, mencionamos los siguientes
proyectos desarrollados en la Comunidad Autónoma de
Canarias:
- Caixa Proinfancia, dirigido a la lucha contra la pobreza
infantil, en el que se ha atendido a 27 223 beneficiarios/as
entre 2007-2012.
- Proyectos de formación y empleo: programas
experimentales en materia de empleo y proyectos de
itinerarios integrados de inserción sociolaboral en los que
se ha atendido a 8 992 personas entre 2007 y 2012. Son
proyectos financiados por el Sevicio Canario de Empleo.
2.6. El carácter educativo y cultural de nuestros
medios de comunicación
Radio ECCA gestiona una cadena de emisoras cuya
titularidad pertenece a Radio ECCA, Fundación Canaria.
Está configurada actualmente por una red de emisoras de
FM y una emisora de AM que cubre el 92% del territorio
del Archipiélago Canario. La audiencia media entre 2005 y
2010 fue de 200.000 oyentes.
151
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
La misión institucional de la cadena de emisoras es la
misma que la de su entidad titular: la promoción cultural y
la elevación de la formación humana de las personas.
La evolución de las Tecnologías de la Información y
la Comunicación han hecho que Radio ECCA, en la
actualidad, además, desarrolle su actividad formativa y
cultural a través de la web, las redes sociales y la televisión
digital terrestre.
Gráfico No. 1
3. Un compromiso con la
innovación educativa y la
atención a los sectores más
necesitados
Radio ECCA promueve el desarrollo del Sistema
ECCA (I+D+i) sin perder de vista su misión de anteponer
los intereses de los sectores más necesitados. Entre sus
actuaciones innovadoras, destacamos uno de los proyectos
que está llevando a cabo actualmente, El Sistema ECCA:
un diseño para todos/as. Con este proyecto se desarrolla un
prototipo de una acción formativa con el Sistema ECCA,
accesible para las personas con discapacidad visual y
auditiva, y que luego se hará extensible a las personas con
discapacidad motora.
Con el desarrollo de este prototipo se han elaborado
los protocolos necesarios para enfocar el Sistema ECCA
hacia un modelo educativo inclusivo, en el que cualquier
persona, independientemente de su condición, tenga acceso
a la formación a lo largo de la vida y a la mejora de su
capacidad de empleabilidad.
Este proyecto está parcialmente subvencionado por la
ONCE, en un trabajo conjunto con el Departamento de
Servicios Sociales para afiliados de la Delegación
Territorial de Canarias, junto con la Consejería de Cultura,
Deportes, Políticas Sociales y Vivienda del Gobierno de
Canarias. Además, se cuenta con el apoyo y el
asesoramiento técnico de otras instituciones y empresas
especialistas en los diferentes aspectos necesarios para la
consecución de este proyecto.
3.1. Algunos datos que justifican el por qué de este
proyecto.
Según los datos publicados por el Instituto Nacional
Estadística, en adelante INE, en el año 2008, según
Boletín informativo, en España existen 3,85 millones
personas con discapacidad, alrededor de un 9 % de
población total.
de
su
de
la
Imagen Nº 1. Distribución de personas con discapacidad por
edad y sexo (Fuente: Boletín informativo del Instituto
Nacional de Estadística. Cifras INE, p.2 – 10/2009).
Según datos del estudio sobre Discapacidad, estudios
superiores y mercado de trabajo. Barreras de acceso y
repercusión en la inserción laboral, realizado en el marco
del Programa Operativo de Lucha contra la Discriminación
2007-2013, la mayoría de las personas con discapacidad
visual tienen estudios primarios, un 5,7 % ha alcanzado el
nivel de Formación Profesional y un 4,5 % tiene estudios
universitarios. En la interpretación de estos datos, hay que
tener en cuenta que existe una alta concentración de
afiliados adultos con deficiencia visual, lo que incide en su
nivel de estudios, dado que las personas de mayor edad no
han tenido las mismas oportunidades que las personas más
jóvenes en el acceso a la educación.
La tasa de paro de este colectivo está en un 6 % con
respecto al total de personas desempleadas, aun contando
con planes específicos desde la ONCE de inserción en el
mercado laboral.
En lo que se refiere a las personas con discapacidad
sensorial auditiva, las estimaciones del INE, según los datos
publicados en el Libro Blanco de la Lengua de Signos
Española en el Sistema Educativo, en España existen
961.491 personas sordas, de las cuales solo un 12 % tiene
una gran pérdida auditiva y tiene certificada una minusvalía
por deficiencia en el oído. El resto son personas con
pérdidas leves de audición, un 71 %, con dificultades para
escuchar sonidos fuertes, un 20%, y solo un 9% con
discapacidad para recibir cualquier sonido. Ahora bien, si lo
consideramos por edad, según los datos del INE, el 70 % de
las personas sordas son mayores de 65 años, debido al
envejecimiento de la población, y solo un 30 % tiene entre 6
y 64 años.
De ellos, el 47 % son personas analfabetas o no tienen
estudios, solo el 8,1 % ha terminado la enseñanza
obligatoria y aquellos que han terminado los estudios
primarios presentan dificultades para la comprensión lectora
y escrita. Únicamente un 2,8% tiene estudios universitarios
y, si consideramos a las personas con discapacidad para la
audición de sonidos fuertes y recibir cualquier tipo de
152
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
sonido, son una minoría en este último porcentaje. Esta
desigualdad es mayor en las mujeres sordas que en los
hombres y la tasa de paro entre este colectivo es muy
superior al resto de la población española, ya que el 54,6 %
de las personas sordas entre 16 y 65 años no se incorpora al
mercado laboral. Además, esta población cuenta con menos
planes específicos, como los desarrollados por la ONCE
para la inserción laboral.
3.2. Una legislación al amparo de las personas con
discapacidad
En La Ley 51/2003, de 2 de diciembre, de igualdad de
oportunidades, no discriminación y accesibilidad universal
de las personas con discapacidad (LIONDAU) se propone la
estrategia de “diseño para todos/as” que sugiere que a la
hora de realizar una actividad se platee de tal forma que
pueda ser utilizada por el mayor número de personas.
La Constitución Española reconoce en sus artículos 9.2,
10, 14 y 49 los derechos de las personas con discapacidad y
la responsabilidad política de crear las condiciones para que
se consiga la igualdad de oportunidades de estos colectivos
con el resto de ciudadanos, eliminando aquello que impida
su integración en la sociedad.
Pero para el cumplimiento real de estos derechos es en
educación donde hay que realizar los mayores esfuerzos,
trabajando por el desarrollo social y personal de las
personas con diversidad funcional, en igualdad de
oportunidades que el resto de personas.
Así, en el contexto actual de crisis, en el que cada vez
más personas necesitan mejorar o ampliar su formación con
el fin de conseguir un trabajo o mejorar su perfil profesional
y adquirir las competencias necesarias para adaptarse al
mercado laboral, es de gran importancia el concepto de
educación a lo largo de toda la vida para toda la población.
La desigualdad en el acceso a la formación influye en los
niveles de ocupación de las personas con discapacidad,
creando situaciones de exclusión social y dificultando su
acceso a un empleo.
Radio ECCA, como centro de educación permanente de
adultos, contribuye al cumplimiento de la legislación
vigente utilizando las TIC como herramientas para trabajar
por una inclusión social sostenible, ajustándose a las
condiciones de accesibilidad que se exponen en el Real
Decreto 1494/2007, del 12/11/2007, condiciones necesarias
para el acceso de las personas con discapacidad a la
sociedad de la información. Con ello, a través de esta
iniciativa, no solo se desarrollan medidas de ayuda a la
formación y empleabilidad de estos colectivos, sino que
crea un escenario formativo más inclusivo, donde personas
con y sin discapacidad puedan formarse en un entorno
virtual de aprendizaje adaptado a la diversidad funcional.
Así, este proyecto nace estrechamente unido a la misión
de Radio ECCA, que es la de potenciar la formación
humana de las personas adultas y llegar al mayor número
de personas, sobre todo a los sectores más necesitados; con
una visión humanizadora, colaboradora y eficiente ante las
necesidades de formación de la sociedad actual y el
desarrollo de otros pueblos, desde unos valores basados en
el respeto a todas las personas, el servicio a la sociedad, la
profesionalidad de sus integrantes y el papel del alumnado
como sujeto activo de su propia formación y generador de
una sociedad mejor.
La evolución en los últimos años de la tecnología y su
aplicación en el terreno educativo ha permitido a Radio
ECCA en la actualidad incluir entre sus objetivos
estratégicos la adaptación de su Sistema a las personas con
discapacidad, personas a las que hasta el momento solo
había podido ofrecer servicios puntuales.
La tecnología lo permite y la situación social del
momento lo requiere; además, las cifras apuntan a la
gravedad de la situación y la necesidad urgente de facilitar
respuestas formativas adecuadas a los nuevos tiempos para
que todos los miembros de esta sociedad puedan ser agentes
de cambios positivos de la misma, en un conjunto donde la
diversidad de las personas sea un valor añadido para la
creación de una sociedad más justa, inclusiva y solidaria.
4. Descripción del proyecto
Este proyecto consiste en la realización de un prototipo
con el Sistema ECCA, accesible para un alumnado con
diversidad funcional, en la línea de una educación inclusiva
que propicie la formación a lo largo de la vida.
Se trata de un diseño formativo sostenible; ya que, una
vez adaptada una acción formativa, al impartirse a través de
internet, puede beneficiar a tantas personas como se
matriculen en ella, sin importar el lugar geográfico en el que
se encuentren, a su propio ritmo y en el horario que más
convenga a cada alumno o alumna.
En este proyecto educativo, las TIC se convierten en
puentes de comunicación que contribuyen a eliminar las
barreras con las que estos colectivos se encuentran en su
acceso a la formación y la información por las vías más
tradicionales, sumándolos así a las ventajas que hoy las
nuevas tecnologías ofrecen a la población en general.
Este prototipo se desarrolla en tres fases y sobre cada
uno de los tres elementos que componen el Sistema ECCA:
la clase, el material didáctico y la acción tutorial, así como
sobre algunos de los aspectos que rodean la impartición de
un curso a través de internet.
La primera fase comprende el conjunto de adaptaciones
realizadas para que el Sistema ECCA sea accesible a las
personas con discapacidad sensorial-auditiva. La segunda
fase está dirigida a las personas con discapacidad sensorialvisual y, por último, la tercera fase está enfocada a las
personas con discapacidad física (motórica). Todo ello con
la finalidad de contribuir a la mejora de la formación de
estos colectivos, su inclusión social e incorporación al
mercado laboral actual.
5. Desarrollo del proyecto
5.1. El análisis
El proyecto comienza en el curso escolar 2010/11 con
un estudio de las necesidades de todos los aspectos clave
relacionados con el mismo:
- La situación actual de la Institución: los recursos
tecnológicos, humanos y financieros con los que se cuentan
para afrontar el inicio del proyecto.
- El perfil del alumnado potencial.
153
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
- Las características y necesidades formativas de este
alumnado potencial.
Para realizar este diagnóstico de partida, así como para
el desarrollo del proyecto, se constituye un equipo de
trabajo multidisciplinar formado por:
Profesorado de Radio ECCA, técnicos especialistas de la
Delegación Territorial de la ONCE en Canarias, de la
Asociación de Personas Sordas de Gran Canaria (ASPGC),
FUNCASOR (Fundación Canaria para el Sordo),
COCEMFE (Confederación Española de Personas con
Discapacidad Física y Orgánica), SUILSE (Servicios de
interpretación y traducción en lengua de signos española),
SUBBABEL (Traducción, subtitulado y accesibilidad
audiovisual), técnicos especialistas en informática,
grabación y edición de vídeo a través de la empresa
Neuronal Software & Media y PODEMOS SMA
(Tecnología adaptada para personas con limitaciones
físicas). En un trabajo conjunto, liderado por Radio ECCA,
se sientan las bases de partida de este proyecto, así como el
conjunto de adaptaciones que será necesario realizar sobre
cada uno de los elementos que conforman el Sistema
ECCA: la clase en audio, el material didáctico, en este caso
en formato digital, y la acción tutorial, que se llevará a cabo
a través de la plataforma educativa Moodle.
5.2. Adaptaciones para la discapacidad visual y
auditiva.
5.2.1. El acceso al curso
Para la discapacidad auditiva: el acceso al portal web
donde se encuentra la información acerca del curso cuenta
con interpretación a la lengua de signos española, como un
apoyo para la comprensión de los textos que en él aparecen
y como parte del camino que el alumnado sordo, usuario de
la lengua de signos, irá emprendiendo hasta ir alcanzando
mayores recursos en la comprensión y expresión de la
lengua española de forma escrita. Esto responde a otro
objetivo de este proyecto, que es el de impulsar el dominio
de la lecto-escritura entre este colectivo y así poder
contribuir a aumentar su grado de autonomía en el acceso a
la información, la formación, la comunicación y los
servicios a través de internet.
Para la discapacidad visual se contempla que todos los
contenidos puedan ser leídos a través de lectores de pantalla
y que respondan al uso de magnificadores para las personas
con restos de visión. Así, los documentos de relevancia para
el seguimiento del curso, se encuentran disponibles en PDF,
en un formato adaptado que cumple con las condiciones de
accesibilidad del formato PDF (Portable Document
Format), respecto a la “Guía de accesibilidad en
documentos PDF” publicada por el Ministerio de la
Presidencia del Gobierno de España y el Observatorio de
Accesibilidad de octubre de 2010.
El resto de la información, necesaria para seguir una
acción formativa según el Sistema ECCA, se encuentra,
para las personas con ceguera, en un formato audio que
incluye audio-descripciones y palabras-clave, situando al
alumnado, de forma autónoma, en cómo usar los distintos
apartados del curso.
Las adaptaciones incluidas en este prototipo de acción
formativa accesible se desarrollan en la plataforma Moodle,
que cumple con los criterios básicos de accesibilidad dados
por el W3C, que son universales; siendo que aquellos
aspectos en los que aún es insuficiente su accesibilidad han
sido subsanados con herramientas complementarias, como
las descritas anteriormente, que mejoran el acceso a la
plataforma para las personas con diversidad funcional.
5.2.2. Cómo seguir un curso a través de internet con el
Sistema ECCA adaptado
Colaborar a disminuir la brecha digital es otro de los
objetivos de esta institución, que potencia el que las nuevas
tecnologías estén al alcance de todas las personas; por ello,
no haber estudiado antes en una plataforma educativa
virtual no es un inconveniente, ya que el alumnado tiene a
su disposición un Departamento de Orientación virtual con
una serie de manuales en vídeo que lo guiarán en torno a
todo lo que debe conocer para obtener un mejor
aprovechamiento de la plataforma en la que realizará su
formación y del curso que va a realizar.
En el caso del alumnado con discapacidad auditiva,
estos manuales cuentan con interpretación a la lengua de
signos española y tutoriales explicativos acerca de las
herramientas adaptadas con las que cuenta el curso y cómo
manejarlas. Estos manuales se encuentran siempre a
disposición del alumnado para tantas consultas como se
precisen.
Para las personas con discapacidad visual estos
manuales se encuentran también en formato audio y se
cuenta con tutoriales sobre cómo utilizar el programa
informático Jaws para una navegación más sencilla por la
plataforma educativa. Las recomendaciones técnicas
ayudan también al alumnado a instalar y manejar aquellas
aplicaciones que le harán más fácil su formación con las
TIC en el Sistema ECCA.
5.2.3. El comienzo del curso
Cuando el alumnado accede al curso, encuentra en la
plataforma distintos apartados que, para las personas con
discapacidad auditiva, usuarias de la lengua de signos, se
encuentran interpretados a la lengua de signos, con una
“ayuda en pantalla” que garantiza la comprensión de la
finalidad y el manejo de cada uno de ellos. En el caso del
alumnado con discapacidad visual, la plataforma puede ser
leída a través de los lectores de pantalla y ampliada por
magnificadores, los contenidos se encuentran dispuestos de
una forma organizada y estructurada, para que sea más
sencilla su localización. Todos los cursos están
estructurados de igual manera, de tal forma que una vez
familiarizados con el primero sea más fácil realizar los
siguientes.
5.2.4. Siguiendo la clase
Una vez familiarizados con el entorno virtual donde se
desarrolla el curso, el alumnado accede a la clase. Para las
personas oyentes se trata de una clase en audio que se
caracteriza por tener una duración de unos 30 minutos y
estar grabada por una pareja de docentes, habitualmente un
hombre y una mujer, que además de impartir los contenidos
principales del curso, lo hacen de una forma motivadora y
154
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
cercana, facilitando así la comprensión y el seguimiento de
la misma. Esta clase, por tanto, es válida para las personas
con discapacidad visual.
En el caso de las personas con sordera esta clase en
audio es sustituida por una clase en vídeo, en la que una
pareja de intérpretes (hombre y mujer), en la lengua de
signos española, en adelante ILSE, traslada fielmente el
modelo de una clase ECCA, a la que se le añade el
subtitulado.
Para garantizar un correcto seguimiento de los
contenidos de cada clase, las personas sordas usuarias de la
lengua de signos cuentan con un glosario de términos
signados. Este glosario tiene como objeto aclarar el
significado de determinados signos que aparecen en la
clase interpretada y su significado dentro del curso. Esta
herramienta es esencial para asegurar el buen
entendimiento de las clases y puede irse ampliando en
función de las necesidades que se detecten entre el
alumnado que lo siga.
Imagen Nº 2. Esquema ECCA y captura de pantalla de un
ejemplo de adaptación de la clase en audio a formato vídeo.
Interpretada por una pareja de intérpretes en la lengua de
signos española y subtitulada, para que la puedan seguir las
personas sordas.
Imagen Nº 3. Alumna con ceguera total siguiendo el
Sistema ECCA en línea adaptado a la discapacidad visual.
5.2.6. La tutoría
Cada curso cuenta con un tutor o tutora encargado de
guiar a su alumnado en su proceso de aprendizaje. Este
contacto se puede establecer tanto de forma privada como
grupal y tiene el objeto de aclarar cuantas cuestiones
relativas al curso se precisen. En el caso del alumnado con
discapacidad auditiva usuario de la lengua de signos, el
acceso a la tutoría puede establecerse también en esta
lengua, a través de un sistema de vídeo-mensajería con el
cual puede tanto enviar sus vídeos signados como recibir la
respuesta de su tutor o tutora también en lengua de signos.
Para establecer esta comunicación, entre profesorado y
alumnado en lengua de signos, no es preciso que el
profesorado tenga conocimientos de esta lengua, ya que
cuenta, a través de la plataforma, con el apoyo del ILSE,
encargado de traducir todas las dudas que el tutor o la
tutora reciban de esta manera, además de interpretar sus
respuestas en vídeo, para que el tutor o la tutora puedan
remitirlas a su alumnado.
5.2.5. Completando el esquema durante la clase
Para seguir la clase el alumnado cuenta con el Esquema
ECCA, que funciona a modo de pizarra, sintetizando las
principales ideas y conceptos del curso y propiciando la
interacción entre el alumnado y el profesorado; ya que, a lo
largo de cada clase, deberá irlos completando para así
construir sus propios apuntes, que luego le servirán como
material de estudio y repaso.
Para las personas con discapacidad auditiva el esquema
no ha necesitado de adaptaciones, ya que se trata de un
material sencillo, complementado con imágenes, que
además es explicado durante las clases.
Para el alumnado con discapacidad visual, el esquema
ha sido necesario adaptarlo a un formato legible por
lectores de pantalla y que pueda cumplimentarse a través
del ordenador u otros dispositivos móviles. Este esquema
cuenta con la descripción de las imágenes que en él
aparecen, para que este alumnado no pierda ninguna
información de la que allí aparece y pueda seguir así todos
los contenidos de la clase.
Imágenes Nº 4 y 5. Alumna sorda realizando una tutoría en
lengua de signos con el Sistema ECCA en línea y el apoyo
de un servicio de ILSE incluido en la plataforma educativa.
En el caso del alumnado con discapacidad visual, una
vez que ya puede navegar por la plataforma guiado por un
lector de pantalla o ampliándola visualmente para localizar
mejor cada apartado, la comunicación con su tutor o tutora
se realiza de forma escrita a través de las herramientas de
comunicación con las que cuenta la propia plataforma.
155
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5.2.7. La evaluación
Cada curso finaliza con un proceso de evaluación, con
el cual se validan los conocimientos recibidos durante el
curso y que, una vez superados, llevarán al alumnado a la
consecución de un diploma acreditativo de su formación.
Es importante que las personas con sordera, usuarias de
la lengua de signos y que aun no han alcanzado un nivel
alto de lecto-escritura, tengan una buena comprensión de lo
que se les pide en la prueba; por ello, la plataforma incluye
una serie de vídeos traducidos a lengua de signos que les
aclara tanto el contenido de dicha prueba, como las
instrucciones para realizarla correctamente.
En el caso de la discapacidad visual, el acceso a la
evaluación se realiza, de igual forma que en el caso del
material didáctico, con un formato que puede ser leído por
lectores de pantalla y cumplimentado a través del
ordenador u otros dispositivos móviles, pudiendo así este
alumnado completar y remitir sus instrumentos de
evaluación a su tutor o tutora para finalizar su proceso
formativo junto con el resto del alumnado.
Los distintos elementos del Sistema ECCA, ya
mencionados, son también accesibles para las personas con
discapacidad motora, una vez cuenten con la tecnología
adaptada necesaria en cada caso, en función de la
limitación física que presenten. El que todo el curso se
desarrolle en formato digital, incluso el acceso a las
tutorías, que se lleva a cabo a través de la plataforma
educativa, permite - que con el dispositivo adecuado - la
diversidad funcional no sea una barrera para realizar un
curso.
sencillos y aplicables a distintos perfiles y niveles de
estudio, de tal manera que lo importante al realizar este
curso sea el comprobar la eficacia de sus adaptaciones para
las personas con discapacidad auditiva, visual y física.
Hasta el momento, ha sido realizado por distintas
personas que presentan este tipo de limitaciones,
representando a cada uno de los colectivos y formando
parte del equipo de colaboradores para el desarrollo y
experimentación del prototipo, junto con técnicos de
distintas organizaciones especialistas en la temática, y que
ya han manifestado la valoración positiva del mismo, así
como la importancia de este modelo para el desarrollo y
autonomía de las personas, que por su diversidad funcional,
tienen más limitado el acceso a la formación a lo largo de
la vida.
El curso se realiza a través de internet, por lo que se
trabaja con el alumnado a distancia, a través de una
plataforma educativa, pero también de forma presencial,
midiendo y ajustando el diseño en función de las
valoraciones obtenidas durante las pruebas. Está previsto
que en Septiembre de 2013 se cierren los últimos ajustes de
este prototipo, para que en el primer trimestre del curso
escolar 2013/14 se produzca la apertura de los primeros
cursos en Sistema ECCA, adaptados y disponibles a nivel
nacional. La oferta de cursos que se irá constituyendo a
partir de esa fecha estará enfocada a mejorar las
oportunidades de empleabilidad de estas personas.
6. Referencias. Webgrafía.
[1] Panorámica de la discapacidad en España. Encuesta de
Discapacidad, Autonomía personal y situaciones de Dependencia
(2008). Cifras INE. Boletín informativo del Instituto Nacional
Estadística. Recuperado el 02 de Febrero de 2013 desde
http://www.ine.es/revistas/cifraine/1009.pdf
[2] Baixeras, Alonso, Pilar, Aroca, Eva, Ferreiro, Emilio, Nogales,
Inés, Pérez, María del Mar Rodríguez, Pilar, Valmaseda, Marian
(2003). Libro Blanco de la Lengua de Signos Española en el
Sistema Educativo, p.15-24. Recuperado el 09 de Octubre de
2012
desde
http://www.cnse.es/comunicacion/pdf/libroblancolse.pdf
Imagen Nº 6. Alumno con parálisis cerebral y limitaciones de
tipo físico, siguiendo el Sistema ECCA en línea adaptado a
la discapacidad física.
Usar las nuevas tecnologías, en favor de una educación
inclusiva, es un objetivo importante en Radio ECCA, con la
intención de contribuir a que la formación a lo largo de
toda la vida sea también una realidad para las personas con
discapacidad auditiva, visual y física. Colaborando así a
evitar que esta población quede excluida de una sociedad,
que cada vez les exige mayores competencias para el
acceso a un puesto de trabajo.
5.2.8. Aplicación real del prototipo.
El prototipo se ha desarrollado sobre una acción
formativa, “Las familias hoy”, perteneciente al área de
Intervención psicosocial y que reflexiona sobre el papel de
la familia en la sociedad actual. Sus contenidos son
[3] Radio ECCA Fundación Canaria. Conózcanos. Misión, visión,
valores. Recuperado el 1 de Mayo de 2013 desde
http://www.radioecca.org/conozca/index.html
[4] Radio ECCA. Memoria Final. Plan Estratégico Institucional
2005-10. Recuperado el 1 de Mayo de 2013 desde
www.radioecca.org
[5] Radio ECCA. Memoria 2011-12. Recuperado el 1 de Mayo de
2013 desde www.radioecca.org
[6] “Guía de accesibilidad en documentos PDF” publicada por el
Ministerio de la Presidencia del Gobierno de España y el
Observatorio de Accesibilidad de octubre de 2010.
156
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Development of a P300-based Brain Computer
Interface to Assist Severe Disabled People
Rebeca Corralejo Palacios1, Luis Fernando
Nicolás Alonso1, Daniel Álvarez González1, Roberto Hornero Sánchez1
1
Grupo de Ingeniería Biomédica, E. T. S. I. de
Telecomunicación, Universidad de Valladolid,
Paseo Belén 15, 47011 Valladolid, Spain
Abstract
The present study aims at developing an assistive P300based BCI (Brain Computer Interface) tool for managing
electronic devices at home. The developed tool is simple,
presents a user-friendly interface and attends the main
needs of severe disabled people, such as comfort,
entertainment and communication. It allows managing up to
113 control commands from 8 different devices: TV, DVD,
Hi-Fi systems, multimedia hard drive, lights, heater, fan
and phone. Fifteen subjects with severe impairments took
part in the study. Nine out of the fifteen participants were
able to suitably manage the developed assistive tool with
accuracy higher than 80%, although most of subjects also
showed cognitive impairments. Hence, our results suggest
P300-based BCIs could be suitable for developing control
interfaces for severe disable people, increasing their
personal autonomy and improving their quality of life.
Resumen
El presente estudio tiene el objetivo de desarrollar una
herramienta BCI (Brain Computer Interface) asistiva, que
permita controlar dispositivos electrónicos presentes
habitualmente en el hogar. Se ha desarrollado una
aplicación simple, con una interfaz fácil de usar y que tiene
en cuenta las principales necesidades de las personas con
grave
discapacidad:
confort,
entretenimiento
y
comunicación. La aplicación permite realizar hasta 113
comandos de 8 dispositivos diferentes: televisión,
reproductor de DVD, equipo de música, disco multimedia,
luces, calefactor, ventilador y teléfono. Quince sujetos con
grave discapacidad participaron en el estudio. Nueve de
ellos fueron capaces de controlar la aplicación con una
precisión superior al 80%, a pesar de que la mayor parte de
los sujetos presentaban problemas cognitivos además de
discapacidad motora. Así, los resultados sugieren que los
sistemas BCI basados en P300 podrían ser adecuados para
desarrollar interfaces de control para personas con grave
discapacidad, incrementando su autonomía personal y
mejorando su calidad de vida.
[email protected],
[email protected],
[email protected], [email protected]
1. Introduction
A Brain-Computer Interface (BCI) is a communication
system that monitors brain activity and translates specific
signal features, which reflect the user’s intent, into
commands
that
operate
a
device
[1].
The
electroencephalogram (EEG) is commonly used for
recording brain activity in BCIs, since it is a portable and
non-invasive method that requires relatively simple and
inexpensive equipment [2].
BCIs can be classified into two groups, according to the
nature of the input signals. Endogenous BCIs depend on the
user’s control of endogenic electrophysiological activity,
such as amplitude in a specific frequency band of EEG
recorded over a specific cortical area [2]. Motor imagery or
slow cortical potentials-based BCIs are endogenous systems
and often require extensive training. On the other hand,
exogenous BCIs depend on exogenic electrophysiological
activity evoked by specific stimuli and they do not require
extensive training [2]. P300 or visual evoked potentialsbased BCIs are exogenous systems.
P300-based BCIs do not require training. P300 is a
typical, or naive, response to a desired choice [2].
Infrequent or particularly significant auditory, visual or
somatosensory stimuli, when interspersed with frequent or
routine stimuli, typically evoke in the EEG over parietal
cortex a positive peak at about 300 ms [2], [3]. Thus, these
BCIs allow users to select items displayed on a screen.
Several studies have verified the usefulness of P300-based
BCIs for people with severe impairments [4]-[7].
The present study aims at developing a P300-based BCI
tool to assist severe disable people at home. Our assistive
BCI application will allow users to manage electronic
devices at home fulfilling their main comfort, entertainment
and communication needs. Then, fifteen subjects with
motor and cognitive impairments will interact with the
assistive BCI tool, assessing its usefulness for increasing
personal autonomy at home. Furthermore, in order to reduce
the set up time, active electrodes will be used for recording
EEG signals instead of passive ones.
157
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
2. Material and methods
2.1. EEG signal acquisition
EEG data was recorded using a g.USBamp biosignal
amplifier (Guger Technologies OG, Graz, Austria). A total
of 8 active electrodes were used: Fz, Cz, P3, Pz, P4, PO7,
PO8 and Oz, according to the modified international 10-20
system [8]. Recordings were grounded to the FPz electrode
and referenced to the right earlobe. EEG was sampled at
256 Hz and bandpass filtered at 0.1–60 Hz. Common
Average Reference (CAR) was applied as spatial filter and
signals were notch filtered at 50 Hz in order to remove the
main power interference.
2.2. Subjects
Fifteen subjects (7 males, 8 females; mean age: 50.3 ±
10.0 years) participated in the study. All of them were
patients from the National Reference Centre on Disability
and Dependence (CRE-DyD), located in León (Spain).
Participants had motor impairments because of different
pathologies: acquired brain injury, spastic cerebral palsy,
extrapyramidal syndrome, neurofibromatosis or multiple
sclerosis. Thirteen out of them also showed some degree of
cognitive impairment. The study was approved by the local
ethics committee of the centre. All subjects gave their
informed consent for participation in the current study.
2.3. Assistive BCI tool design and procedure
Digital homes improve our quality of life by making
easier the interaction with electronic devices at home.
Nevertheless, severe disabled people need a special
interface to access these devices. Thus, BCIs could be
useful for people with severe impairments allowing them to
manage electronic devices present at their usual
environment. Our assistive application takes into account
the most common needs of disable people: comfort
(temperature and lights control), communication (phone)
and entertainment (TV, DVD player and multimedia
devices). Thus, personal autonomy and quality of life of
people with severe impairments could be increased.
Experimental design and data collection were controlled
by the BCI2000 general-purpose system [9]. A user-friendly
interface was developed in C++ language. The application
is divided into several menus, one for each device, consisted
in matrices of pictures. Each picture shows a control
command from a specific device. Thus, users can navigate
through different devices and access to their most common
functionalities.
During the assessment phase, participants were seated
facing a computer screen in a comfortable chair or in their
own wheelchair. Each subject performed three sessions.
During the first session, data was collected in copy-spelling
mode (Copy-Spelling Session, CSS) [10], [11]. The TV
submenu matrix was presented to users and feedback was
not provided during this session. CSS was comprised of 10
runs. In each run, the user was asked to attend a specific
item from a proposed task of 4-6 single items. Participants
who did not achieved accuracy higher than 65% during this
session repeated the CSS tasks in the following session. The
next sessions were performed in online free mode (Free
Mode Sessions, FMS) [12] while participants interacted
with the assistive BCI tool. FMS sessions were comprised
of 7 evaluation runs. Participants were asked to select items
across different menus for completing a proposed task in
each evaluation run. During the last session, the number of
sequences was decreased for each user depending on their
specific performance. Hence, is possible to minimize the
necessary time to access each single item or command.
2.4. EEG signal processing
For each EEG channel, segments of 800 ms after each
stimulus were extracted and low pass filtered [12]. A
StepWise Linear Discriminant Analysis (SWLDA) was
applied to compose the classifier. SWLDA performs feature
space reduction by selecting suitable spatiotemporal
features (i.e., the amplitude value at a particular channel
location and time sample) to be included in a discriminant
function based on the features with the greatest unique
variance [4], [13]. In this study, the discriminant functions
were obtained by using up to 60 spatiotemporal features
from all the EEG channels [13]. The classifier built using
CSS tasks data was applied during the online running of
FMS tasks.
3. Results
An assistive P300-based BCI tool for managing
electronic devices at home was designed and developed in
this study. This BCI application allows users to operate
several devices related to comfort, communication and
entertainment needs. All devices are managing by means of
an infrared (IR) emitter device (RedRat Ltd., Cambridge,
UK). Specifically, the developed tool manages the
following devices and their main functionalities:
• TV: switch on/off; volume control: turn up/down or
mute; switch TV channels: up/down or select a channel
using digits from 0 to 9; TV menu configuration:
access/exit the menu, enter and move right, left, up or
down; and, finally, access and navigate through the
teletext service.
• DVD player: switch on/off; play, pause or stop a video;
explore the DVD’s contents navigating through the
menu, list, up, down and enter options; switch to the
next or previous file; mute the sound; and record from
TV.
• Hi-Fi system: switch on/off; volume control: turn
up/down or mute; change to the radio or CD function;
play, pause or stop an audio track; and switch to the next
or previous track or radio station.
• Multimedia hard drive: switch on/off; explore the hard
drive’s contents navigating through the menu, up, down,
right, left and enter options; play, pause, stop or switch
to the next/previous file; and show/hide the subtitles.
158
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
• Lights: switch on/off; change the light colour: white,
red, blue, green, orange or purple; turn up/down the
intensity; and activate the flashing mode.
• Heater: switch on/off; turn up/down the power intensity;
program the sleep function from 30 min to 4 h; and
activate/deactivate the swing mode.
• Fan: switch on/off all the fans; increase/decrease speed;
program the sleep function; activate/deactivate the
swing mode; and activate/deactivate the desired fans.
• Phone: pick up or hang up the phone; make a phone call
dialling a phone number by selecting digits from 0 to 9;
access the address book; making an emergency call and
dial a memorized phone number.
Figure 1. Main menu of the assistive P300-based BCI tool
(in Spanish). Users can select the desired device to operate:
TV, DVD, Hi-Fi system, multimedia hard drive, lights,
heater, fan, phone and phone book.
Figure 2. Specific submenu for TV managing (in Spanish).
From this submenu users can switch on/off the TV, select a
specific TV channel, turn up/down or mute the sound,
navigate through the TV menu and teletext service and go
back to the main menu.
Figure 3. Specific submenu for DVD managing (in
Spanish). From this submenu users can switch on/off DVD
player, explore and navigate DVD’s contents, navigate
through the menu, mute the sound and go back to the main
menu
Figure 4. Specific submenu for Hi-Fi system managing
while second row is dimmed (in Spanish). From this
submenu users can switch on/off, control the volume,
change to the radio or CD function, play, pause, stop or
switch to the next or previous track and go back to the main
menu.
Figure 5. Specific submenu for multimedia drive managing
(in Spanish). From this submenu users can switch on/off,
explore and navigate hard drive’s contents, play, pause, stop
or switch to the next/previous file, show/hide the subtitles
and go back to the main menu.
159
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Figure 6. Specific submenu for lights managing while third
column is dimmed (in Spanish). From this submenu users
can switch on/off the lights, select a specific light colour,
turn up/down the intensity and go back to the main menu.
Figure 7. Specific submenu for heater managing (in
Spanish). From this submenu users can switch on/off, turn
up/down the power intensity, program sleep function from
30 min to 4 h, activate/deactivate swing mode and go back
to the main menu.
Additional session only for two participants (U11 and U13).
In the specific case of U13, it was not possible to create a
reliable classifier after three CSS sessions because the EEG
recordings were excessively noisy due to frequent sudden
muscle spasms. Regarding FMS results, nine out of the
fifteen participants reached accuracy higher than 80%
managing the developed assistive BCI system. Moreover,
five of them achieved more than 95% accuracy. The
remaining participants were not able to suitably operate the
assistive BCI tool (U05 and U13) or they reached moderate
accuracies ranging between 56-63% (U06, U07, U11 and
U15).
Figure 9. Specific submenu for phone managing (in
Spanish). From this submenu users can pick up or hang up
the phone, make a phone call dialling the number, access
the phone book, call emergencies and go back to the main
menu.
Figure 10. Specific submenu for phone book while second
column is dimmed (in Spanish). From this submenu users
are able to dial a memorized phone number from eleven
options and go back to the main menu.
Figure 8. Specific submenu for fan managing while third
column is dimmed (in Spanish). From this submenu users
can switch on/off, increase/decrease speed, program sleep
function, activate/deactivate swing mode and each internal
fan and go back to the main menu.
160
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
4. Discussion
Most of the studies related to BCIs are commonly
applied to healthy people. Moreover, studies related to BCIs
are usually not aimed at developing new assistive
applications. However, some authors have assessed BCI
systems for real end-users. Hoffman et al [5] applied a
P300-based BCI to five subjects with different pathologies.
Four out of the five participants reached 100% accuracy.
Nevertheless, this study was carried out using a quite
different paradigm. Only two sessions were performed and
only one stimuli matrix, consisted of six images that flashed
one by one, was used. Whereas our BCI application
comprises 113 items from 10 menus and stimuli is
presented over rows and columns. Nijboer et al [4] applied
the typical 6 x 6 characters matrix [14] to eight subjects
with amyotrophic lateral sclerosis (ALS). Four out of the
eight participants were able to control suitably the system.
Their mean accuracy ranged from 58% to 83%.
Furthermore, this exhaustive study showed that the
amplitude and latency of the P300 potential remained stable
over 40 weeks. However, the number of participants, the
percentage of them who managed properly the system and
their mean accuracy is higher in our study.
The developed assistive tool also improves our
preliminary previous studies [7]. The new BCI tool has a
more user-friendly interface. First, new control commands
were added to the assistive application, such us recording
from TV or making an emergency call. Second, all
submenus were colour unified: all commands from a
specific device or submenu have the same colour. Finally,
all commands were reorganized in order to show a better
distribution, like if users were facing the real remote control
of each device. Furthermore, the use of active electrodes
instead of passive ones for EEG recording allows to reduce
the set up time. Thus, users do not get tired or loose
motivation and they are able to achieve higher accuracies
than in previous studies [7].
Our results show that assistive P300-based BCI
applications could be useful to increase the autonomy of
people with severe impairments. However, this study has
certain limitations. It would be recommendable to increase
the number of subjects in future studies. Furthermore, it is
necessary to improve the quality of EEG signals of patients
with sudden muscle spasms. Moreover, new features and
signal processing methods could be assessed in order to
improve the P300 potential peak detection. In addition, the
developed assistive tool could be easily modified to include
new devices in order to adapt it to additional needs and
requirements of end-users. Therefore, it would be useful to
increase the personal autonomy of severe disabled people at
home, decreasing their dependence from nurses, caregivers
and relatives.
Table 1. Accuracy results for each user
MA-Mean classification Accuracy for copy-spelling
(CSS) and free mode sessions (FMS)
*
: Participant repeated the CSS tasks once
**
: Participant repeated the CSS tasks twice
User
U01
U02
U03
U04
U05
U06
U07
U08
U09
U10
*
U11
U12
**
U13
U14
U15
MA CSS (%)
100.0
100.0
100.0
100.0
35.7
68.9
78.6
91.7
96.7
82.4
80.0
87.5
37.5
95.8
67.9
MA FMS (%)
96.2
95.6
85.8
95.5
50.9
55.6
62.3
96.5
95.3
80.1
63.3
92.3
­
89.3
62.5
5. Conclusions
This study was aimed at designing and developing an
assistive P300-based BCI application. The assistive tool
allows users to manage electronic devices commonly
present at home, according to comfort, communication and
entertainment needs. Specifically, the developed tool allows
users to operate the following devices: TV, DVD player,
Hi-Fi system, multimedia hard drive, lights, heater, fan and
phone. Thus, users can manage up to 113 control commands
from 10 different menus with a user-friendly interface.
Therefore, severe disabled people can interact with their
environment increasing their personal autonomy and
independence. Fifteen real end-users with severe disabilities
took part in the study. The assessment results are promising:
nine out of the fifteen participants reached accuracies higher
than 80% interacting with the proposed tool. Moreover, the
population under study included people with both motor and
cognitive impairments. Hence, these results suggest that
P300-based BCIs could be useful to assist people with
severe impairments.
In summary, the present study proposes an assistive
P300-based BCI application that allows severe disabled
people to operate electronic devices usually present at
home. Moreover, real end-users assessed the performance
of the developed tool with promising results: nine out of the
fifteen participants achieved more than 80% accuracy
managing the assistive tool. Hence, these results suggest
P300-based BCIs could be really suitable to increase the
autonomy and independence of people with severe
impairments.
161
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
6. References [1] J.R. Wolpaw, N. Birbaumer, W.J. Heetderks, D.J. McFarland,
P.H. Peckham, G. Schalk, E. Donchin, L.A. Quatrano, C.J.
Robinson, and T.M. Vaughan, “Brain-Computer Interface
Technology: A Review of the First International Meeting”, IEEE
Transactions on Rehabilitation Engineering, 2000, vol. 8, pp. 164–
173.
[2] J.R. Wolpaw, N. Birbaumer, D.J. McFarland, G. Pfurtscheller,
and T.M. Vaughan, “Brain–Computer Interfaces for
Communication and Control”, Clinical Neurophysiology, 2002,
vol. 113, pp. 767–791.
[3] E. Donchin, and D.B. Smith, “The Contingent Negative
Variation and the Late Positive Wave of the Average Evoked
Potential”,
Electroencephalography
and
Clinical
Neurophysiology, 1970, vol. 29, pp. 201–203.
[4] F. Nijboer, E.W. Sellers, J. Mellinger, M.A. Jordan, T. Matuz,
A. Furdea, S. Halder, U. Mochty, D.J. Krusienski, T.M. Vaughan,
J.R. Wolpaw, N. Birbaumer, and A. Kübler, “A P300-based
Brain–Computer Interface for People with Amyotrophic Lateral
Sclerosis”, Clinical Neurophysiology, 2008, vol. 119, pp. 1909–
1916.
[5] U. Hoffmann, J.M. Vesin, T. Ebrahimi, and K. Diserens, “An
Efficient P300-based Brain–Computer Interface for Disabled
Subjects”, Journal of Neuroscience Methods, 2008, vol. 167, pp.
115–125.
[6] E.W. Sellers, A. Kubler, and E. Donchin, “Brain–computer
interface research at the University of South Florida Cognitive
Psychophysiology Laboratory: the P300 speller”, IEEE
Transactions on Neural Systems and Rehabilitation Engineering,
2006, vol. 14, no. 2, pp. 221–224.
[10] D.J. Krusienski, E.W. Sellers, D.J. McFarland, T.M.
Vaughan, and J.R. Wolpaw, “Toward enhanced P300 speller
performance”, Jounal of Neuroscience Methods, 2008, vol. 167,
pp. 15–21.
[11] E.W. Sellers, E. Donchin, “A P300-based brain–computer
interface: initial tests by ALS patients”, Clinical Neurophysiology,
2006, vol. 117, pp. 538–548.
[12] G. Schalk, and J. Mellinger, A Practical Guide to BrainComputer Interfacing with BCI2000, Springer-Verlag London,
2010.
[13] D.J. Krusienski, E.W. Sellers, F. Cabestaing, S. Bayoudh, D.J.
McFarland, T.M. Vaughan, and J.R. Wolpaw, “A comparison of
classification techniques for the P300 Speller”, Journal of Neural
Engineering, 2006, vol. 3, pp. 299–305.
[14] E. Donchin, K.M. Spencer, and R. Wijesinghe, “The Mental
Prosthesis: Assessing the Speed of a P300-based Brain–Computer
Interface”, IEEE Transactions on Rehabilitation Engineering,
2000, vol. 8, pp. 174–179.
7. Acknowledgements
This research was supported in part by the Project Cero
2011 on Ageing from Fundación General CSIC, Obra
Social La Caixa and CSIC and by the Ministerio de
Economía y Competitividad and FEDER under project
TEC2011-22987. R. Corralejo was in receipt of a PIRTU
grant from the Consejería de Educación (Junta de Castilla y
León) and the European Social Fund. L.F. Nicolás-Alonso
was in receipt of a PIF-UVa grant from University of
Valladolid.
[7] R. Corralejo, D. Álvarez, R. Hornero, “A P300-based BCI
Aimed at Managing Electronic Devices for People with Severe
Disabilities”, Proceedings of the International Conference on
NeuroRehabilitation Part. I, 2012, Toledo (Spain), pp. 641–645.
[8] H.H. Jasper, “The Ten Twenty Electrode System of the
International Federation”, Electroencephalography and Clinical
Neurophysiology, 1958, vol. 10, pp. 371–375.
[9] G. Schalk, D.J. McFarland, T. Hinterberger, N. Birbaumer, and
J.R. Wolpaw, “BCI2000: a general-purpose brain–computer
interface (BCI) system”, IEEE Transactions on Biomedical
Engineering, 2004, vol. 51, no. 6, pp. 1034–1043.
162
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
DAI Virtual Lab: a Virtual Laboratory for Testing Ambient Intelligence Digital Services
Francisco Javier Ferrández-Pastor1, Juan Manuel García-Chamizo1, Mario Nieto-Hidalgo1, and Francisco
Flórez-Revuelta2
1
Dept. of Computing Technology, University of Alicante, P.O. Box 90, E-03080, Alicante, Spain 2
Faculty of Science, Engineering and Computing, Kingston University, Kingston upon Thames, KT1 2EE, United Kingdom
{fjferran,juanma,mnieto}@dtic.ua.es, [email protected]
Resumen
El soporte tecnológico de la Inteligencia
Ambiental proporciona utilidades muy diversas de
información de contexto y operación sobre el entorno.
Dichos sistemas ponen en juego una amplia diversidad de
sensores, actuadores, organizados mediante redes de
interconexión complejas, en las cuales coexisten diversos
protocolos de comunicación y de operación, así como
numerosos niveles de modularización.
La validación de nuevos desarrollos se realiza
sobre prototipos físicos de viviendas inteligentes que hacen
las veces de laboratorio. Las posibilidades de
experimentación encuentran poderosas limitaciones debido
a que el propio laboratorio se convierte en un r ecurso
crítico que soporta un solo uso cada vez.
DAI VIRTUAL LAB es un entorno que recrea
escenarios virtuales tridimensionales para ayuda al diseño
de los sistemas digitales de inteligencia ambiental.
Proporciona un nivel preliminar de validación virtual pero
cercana a la realidad que soporta simulaciones en paralelo,
sin gastos ni restricciones de tiempo y sin molestias para
los usuarios.
Abstract
Ambient Intelligence technologies provide very
diverse uses for context information and operation on the
environment.
These systems bring into play a w ide variety of
sensors, actuators, organized in complex interconnection
networks, in which different communication and operating
protocols, as well as many levels of modularization, coexist.
The validation of new developments is performed
on physical smart homes prototypes that serve as
laboratories. Experimentation possibilities are quite limited
because the laboratory itself becomes a critical resource
that supports only a single use at a time.
DAI VIRTUAL LAB is an environment that recreates
three-dimensional virtual environments to support the
design of ambient intelligence digital systems. It provides a
preliminary level for virtual validation but close to the
reality that allows parallel simulations, without cost or time
restrictions and inconvenience to users.
1. Introduction
One of the main issues in the design of Ambient
Intelligence (AmI) services is testing the developments at
different stages in conditions as similar as possible to the
real ones. This is usually solved by using laboratories which
are designed to resemble specific rooms or complete
houses; incorporating very diverse devices (sensors,
actuators, control networks...) what usually involves very
high costs for a research centre. Only few centres can afford
one of these smart living labs. In other cases, developments
may be validated in real environments such as homes,
nursing centres, hospitals... The main drawback of the latter
is the inconvenience caused to users, which always suggests
reducing real tests.
Recent computational and electronic advances
have increased the capacity and functionality of AmI
services. New interfaces enable people and devices to
interact with each other and with the environment.
Technology operates in the background while computing
capabilities are everywhere, connected and always
available. AmI provides a vision of the Information Society
where the emphasis is on greater user-friendliness, more
efficient services support, user-empowerment, and support
for human interaction [1] [2] [3].
Anyone should be able to use digital services from
home, regardless of their personal skills and capabilities.
Therefore, the inclusion criteria must be considered as an
essential design factor. The requirements that inclusive
systems have to satisfy are much higher and the benefits to
be provided are, correspondingly, of much greater
163
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
magnitude. The confluence of AmI and inclusion criteria is
part of the ambient assisted living (AAL) paradigm. There
are intense advances in scientific domain (research projects,
scientific journals, specific conferences, etc.) and
technological field (equipment, systems and specialized
environments) [4] [5] [6].
Inclusive design has implications in all the layers
of a system. From a technological point of view, the
characteristics of the sensors and actuators, and the structure
and organization of the resulting system are affected.
Features of the services that the solution must provide are
also influenced. Therefore, the impact on the design of user
interfaces is extremely important because they must be
adapted to different functional skills; physical, sensory or
intellectual disabilities; age… [7] [8] [9]. Besides the
impact is also relevant for the designers and developers, the
task-specific system managers, the installers, the
maintenance engineers…
There are tools that automate the design of user
interfaces in embedded systems using FPGAs. These tools
allow to automatically generate code from UML
specifications or other specification models, both hardware
(usually VHDL) and software (C or similar) [10] [11] [12]
[13]. However the number of tools to automate the interface
design process is reduced. In [14] an automatic generator of
user interfaces for multiple platforms using discourse
models as a starting point is presented. In [15] Beale and
Bordbar provide interface design support tools.
There are different simulators for AAL. Some
simulate different services that a smart home can offer and
provide a testing environment for those services using
process choreography principles [16], it also provide the
VAALID IDE [17] which is composed by an authoring tool
and a virtual reality simulation environment. Another
simulator, Virtual Valley [18] is integrated in an AAL
environment for telerehabilitation, it integrates motion
controllers and medical sensors and it is used to support
physical rehabilitation, education, socialization and sharing
of knowledge between users. In [19] a framework to
develop interaction techniques for virtual worlds is
presented.
2. Objectives
The inclusion skills could be established as
follows. The inclusion of people in their environment is to
facilitate communication between them through multimedia
channels regardless of their personal skills.
Although this definition is concise, it provides a
model of the problem (communication), identifies the
entities involved: the people, in all their diversity of skills;
the environment, with its richness of factors and processes;
and the communication channel between them, which has to
be bidirectional and with no restrictions initially on its
nature.
The diversity of sectors, conditions and services
(comfort,
security,
safety,
energy
management,
communication and autonomy, health, administration, etc.)
that make up the environment where people behave, qualify
the definition of the inclusion problems with regards to the
environmental aspects. Furthermore, the skills of each
person impose the global conditions in which that
communication will occur, particularly through sensory
skills and perceptual attitudes. The phenomena that
integrate the communication channel will be those
potentially resulting from the compatibility between the
characteristics of the environment and the people who
inhabit it.
Inclusive interfaces for AAL implies both the design of
homogeneous, intuitive and coherent user interfaces and the
development of efficient AmI services. Therefore, the main
aim of this research is to develop a generator of virtual
environments intended to facilitate (ideally, automate) the
design of interfaces for AAL. DAI VIRTUAL LAB generates
3D virtual environments that emulate the functionality of
smart or automated homes, and has the following
objectives:
• To create new interaction channels between users and
the numerous and varied devices and services present
at home. The developed system allows the automatic
customization of the interfaces to access the
functionality and state of the devices according to the
needs and functional preferences of the user and the
technological capabilities of the device to interact with;
• To serve as an aid tool for the designer of automated
and smart homes, with different purposes: generation
of the tridimensional virtual model of the environment,
design of the installation, and simulation of its
performance; and
• To provide a specialized, intuitive and powerful
interface to end-users. This interface allows end-users
to collaborate on design decisions by preliminary
validations, through simulation using the virtual
environment, recreating services and environments
before proceeding to the final installation.
Furthermore, the three-dimensional virtual model
incorporates control panels for the different devices
and services. These panels constitute the final
interfaces that are installed in the real facilities.
DAI Virtual Lab is composed of a threedimensional home generator and a simulation module.
The three-dimensional virtual home generator
includes a home editor to allow the designer, in consensus
with the end-user, set the equipment and the home services.
The tasks in this phase are the following:
• Determine the installation structure, organization and
division in modular sections,
• Characterize the technological elements of the system:
sensors and actuators, and
• Establish the installation topology and the location of
elements and components.
The simulation module emulates the constructive
elements and allows simulating all kind of interactions and
services that could be installed in a 3D environment. This
virtual environment, once tested, becomes an interface
adapted to the user that controls and monitors the services
installed. The interface can be reconfigured according to the
needs of the user and the evolution of the domotic system.
164
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
3. Principles and architecture
DAI VIRTUAL LAB generates a three dimensional
environment which allows the simulation of services and
the interaction with real devices. These two possibilities
offered in a same platform increase the performance and
support the designer to create assistive interfaces. Through
the simulation, the designer can predict interactions patterns
using a variety of input devices and allows reviewing and
improving the performance. The three-dimensional
environment allows the user to navigate through it and
interact with the devices.
The communication between the virtual model and the
real installation is done via web services using a control
middleware (DAI middleware) [20]. This middleware
completes the functionality of DAI VIRTUAL LAB and
enables the integration and interoperability of all the
installed systems. It offers an access interface, a set of web
services and an API to develop services and applications
(Fig. 1). It also includes a layer of services that can be used
by the simulator module.
Fig. 2. DAI-Middleware: architecture and connection with DAI VIRTUAL LAB
3.1. DAI VIRTUAL LAB Architecture
The modules of DAI VIRTUAL LAB (editor and
simulator) use a layered architecture (Fig. 3) that allows the
abstraction of the functionalities of the lowest layers. At the
lowest level there are the engines of graphics, audio and
physics, which allow the rendering of the virtual models.
These three engines are abstracted in the upper layer
"Scene" where all the objects of the virtual environment are
located. Above this layer there is the smart home devices
layer. This layer virtualizes the home installation and
associates the devices with the virtual objects of the scene.
The upper layer includes the user interface and the web
services modules. They both allow the interaction with the
installation devices.
Fig. 1. DAI-middleware: control, integration and
interoperability in heterogeneous systems
DAI middleware is based in an intranet that integrates
control technologies and communication protocols
(proprietary and standard) using gateways to Ethernet. The
information and tasks assigned to the services are treated by
a OSGI 3 (Open Services Gateway Initiative) based
framework that can manage all the petitions from control
devices or from the interfaces and applications. Its
architecture (Fig. 2) is divided into three layers: device
integration layer, task manager (OSGI) and services and
applications layer.
3
http://www.osgi.org/
Fig. 3. DAI Virtual Lab architecture
3.1.1. Device programming. DAI VIRTUAL LAB
incorporates a graphic language, DAI Device Macro
Programming, that allows, in a simply but powerful way, to
modify the behavior of the devices of the smart home
installation, creating new macros (services). It is very
intuitive and has been designed to offer an easy way to
program the devices without the need of specialized
knowledge about programming. This feature allows the enduser to program his smart home by adding new services or
modifying existing ones.
Each device can have associated different macros
that will be executed each time any of the functionalities of
165
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
the device changes its value. This allows the incorporation
of additional services by interconnecting the devices.
Fig. 4 shows a macro for the device "Light_1" with
the following function:
while Light_1.switch {
Sleep(10);
Light_1.dimmer=(light_1.dimmer + 1)
mod 256;
}
Fig. 4. Flow diagram of a macro
3.1.2. User Interface module. The upper layer is the user
interface. It provides the user with a mechanism to interact
with the devices in the home while viewing the results in
the three-dimensional virtual environment.
There are two ways of interacting with the devices:
selecting the device from a list, or selecting the device in the
virtual environment itself. Fig. 5 shows a view of the
interface with all the available options.
Fig. 5. DAI VIRTUAL LAB user interface: 1) open and save
virtual labs, 2) options for the design, 3) help and support
information, 4) viewing area, 5) detailed device information,
6) scene information: rooms, objects, devices…, 7) device
information, 8) device actions, and 9) status bar
3.1.3. Interaction with the environment. After a scene is
loaded, it is possible to interact with the devices. If the
mouse is over a device it is highlighted. A device can be
selected by clicking on it at the viewing area, or by selecting
it from the list on the left.
Once selected, its information is shown in the right
frame (5). Its functionalities are also accessible in (8) (i.e. if
a door is selected it can be opened or closed).
The information shown and the available
functionalities will depend on the device type. All the
devices have a "Go To" button which focuses and moves
the camera to its location. The functionalities categorized by
device type are as follows:
• Lights: it permits to turn on/off the lights through a
drop down list which contains the options OFF | ON.
When the light is turned on/off, the scene will be
illuminated with the respective color and intensity
• Alarm: it permits to turn on/off the alarm through a
dropdown list which contains the options OFF | ON.
When the alarm is turned on a sound will be played at
the device location.
• Blind: it permits to close, open and set the blind with a
scrollbar or a dropdown list which contains the options
STOP | UP | DOWN. Any scrolling implies the
corresponding movement of the blind at the viewing
area.
3.1.4. Web service module. In order to communicate with
the application, DAI VIRTUAL LAB implements a socket that
can receive a set of commands in order to get information or
modify the device status. The socket layer communicates
with the devices just as the user interface does.
To make a common interface between virtual and
real house, we have developed a web service that
communicates with the virtual house socket offering exactly
the same features as the original Web service of DAI
middleware. Thus all interfaces designed for the virtual
house can be used in the real house simply by changing the
direction of the web service.
3.1.5. Home editor. The home editor provides a tool to
modify the appearance of the virtual house by adding
textures to objects, moving them to a specific position, or
incorporating new devices and their characteristics. This
tool is designed to retouch and add details to a virtual house
4
modelled with a 3D modelling environment
like Blender or
3D Studio and exported in COLLADA format. Therefore,
the original modelling of the house must be made with any
of these environments and imported into the authoring tool.
Later, the devices can be added and textures details or
sound effects incorporated.
4. Use cases
DAI VIRTUAL LAB has been tested in two use
cases. In each case a virtual 3D world that recreates each
space has been designed and created offering the possibility
to interact and simulate all the services provided by the
middleware.
4
http://collada.org/
166
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
4.1. MetalTIC - Digital Home
This version shows the three-dimensional
representation of MetalTIC – Digital Home 5, which is a
smart laboratory and demonstrative facility for innovation,
designed and developed by the Domotics and Ambient
Intelligence research group for the Federation of Metalworking firms in the Province of Alicante [21].
This house has many interconnected devices from
different brands and using different control protocols. The
virtual representation simulates that interconnection and
permits visualizing the devices behavior in a realistic way.
These devices are placed virtually at this application,
around the different rooms. The appearance offered at the
virtual representation of the MetalTIC – Digital Home is
quite similar to the real laboratory (Fig. 6).
Fig.7. INREDIS project testing at MetalTIC – Digital Home
4.2. DAI Lab
DAI Lab 7 (Fig. 8) is the research laboratory that
the DAI group is building at the University of Alicante.
DAI Lab is aimed to the training and research in home
automation and intelligent environments, paying special
attention to the monitoring of people and analysis of its
behavior in private spaces, and efficient use of energy.
Fig. 8. Different views of both the real and virtual DAI Lab.
5. Conclusions
Fig. 6. Real and virtual views of metalTIC – Digital Home:
kitchen, bedroom and living room.
4.1.1. Use of MetalTIC - Digital Home in the validation
of inclusive designs. This laboratory has been used as
living lab in the tests carried out within the INREDIS
project 6. Its main aim is to develop basic technologies that
will lead to the creation of communication channels and
interaction among people with special needs and the ICT
environment. In particular, we validated different interfaces
for elderly and deaf people (Fig. 7).
5
6
http://web.ua.es/en/dai/metaltic-digital-home.html
http://www.inredis.es/
The motivation for this work is based on the
consideration that the electronic equipment of a home is
composed of many, very diverse and complex devices. The
difficulties of handling systems with such characteristics
can make them unusable or prevent use them properly. The
problem is especially acute in the case of persons with
disabilities.
Given the obvious desirability of moving in the
direction of normalizing operational interfaces in automated
homes, the proposal we have developed in DAI VIRTUAL
LAB considers all actors involved in the technology of these
systems including the design engineer, the installation and
maintenance technicians and users, regardless of their
sensory, physical and intellectual skills. Another
complicating factor is the diversity of industries, facilities
and services (comfort, security, safety, energy management,
7
http://web.ua.es/en/dai/dai-lab.html
167
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
communication, leisure, autonomy, health, administration,
etc).
To conceive DAI VIRTUAL LAB, we started from a
functional definition of the inclusion of people in their
environment in terms of a communication system, which
facilitates the characterization of the interface in order to
obtain its functional specification. The design decisions
were that the interface for home services consists of a
virtual three-dimensional model of the dwelling that
incorporates the control panels of the devices. This has
allowed us to structurally specify the virtual models, i.e.
determine the modules that make them up and which is the
organization of these modules.
Taking into account that the structural specification
of the models is precisely the output that DAI VIRTUAL LAB
should produce, particularized for each dwelling, it has been
possible to design the system for generating virtual models.
The main applications of DAI VIRTUAL LAB are:
• Support to the engineers of automated homes in
making design decisions and simulating the
installations in order to virtually validate the operating
results before making the investment in equipment and
install it;
• Provide a universal, consistent and intuitive user
interface to manage and control the home through web
services; and
• Create new channels of interaction between users and
the various technological devices and services present
at home. The developed system allows automatic
customization of interfaces according to the needs, the
functional preferences of the user and the technological
capabilities of the device he/she wants to interact with.
Use cases discussed in this work demonstrate that
DAI VIRTUAL LAB meets our expectations as a universal
interface for the design and operation of inclusive
automated homes.
6. Acknowledgement
This work has been partially supported by the
Spanish Ministry of Science and Innovation under project
"Vision system for monitoring the activity of daily living at
home" (TIN2010-20510-C04-02). The funders had no role
in study design, data collection and analysis, decision to
publish, or preparation of the manuscript.
7. References
[1] K. Ducatel, M. Bogdanowicz, F. Scapolo, J. Leijten, y JC.
Burgelman, "ISTAG: Scenarios for Ambient Intelligent in 2010,"
IPTS – Seville, 2010.
[2] P. Rashidi, y D. J. Cook, "Keeping the Resident in the Loop:
Adapting the Smart Home to the User", IEEE Transactions on
Systems, Man and Cybernetics, Part A: Systems and Humans, pp.
949-959, September, 2009.
[3] S. Fariba, "Ambient Intelligence: A survey", ACM Computing
Surveys, Vol. 43, Issue 4, October 2011.
[4] H. Sun, V. De Florio, N. Gui, y C. Blondia, "Promises and
Challenges of Ambient Assisted Living Systems", Sixth
International Conference on Information Technology: New
Generations (ITNG '09), pp. 1201-1207, April, 2009.
[5] C. Ricardo, C. Davide, N. Paulo, L. Luis, M. José, M. Alberto,
y N. José, "Ambient Assisted Living", 3rd Symposium of
Ubiquitous Computing and Ambient Intelligence 2008, Vol. 51,
pp. 86-94, 2009.
[6] M. Ziefle, Röcker, W. Wilkowska, K. Kasugai, L. Klack, C.
Möllering, y S. Beul, "A Multi-Disciplinary Approach to Ambient
Assisted Living", E-Health, Assistive Technologies and
Applications for Assisted Living: Challenges and Solutions, IGI
Global, 76-93, 2011, doi:10.4018/978-1-60960-469-1.
[7] A. J. Jara, M. A. Zamora y A. Skarmeta, "An Arquitecture for
Ambient Assisted Living and Health Environments", Distributed
Computing, Artificial Intelligence, Bioinformatics, Soft Computing
and Ambient Assisted Living, Vol. 5518, pp. 882-889, 2009.
[8] J. Winkley, P. Jiang, y W. Jiang, "Verity: an Ambient Assited
Living Platform", IEEE Transactions on Consumer Electronics,
Vol. 58, Issue 2, pp. 364-373, May 2012.
[9] W. Carswell, J. Augusto, M. Mulvenna, J. Wallace, S. Martin,
P.J. McCullagh, H. Zheng, H. Wang, K. McSorley, B. Taylor, y
W.P. Jeffers, "The NOCTURNAL Ambient Assisted Living
System", 5th International Conference on P ervasive Computing
Technologies for Healthcare, pp. 208-209, May 2011.
[10] I.R. Quadri, S. Meftali, y J.-L. Dekeyser, "Designing
dynamically reconfigurable SoCs: From UML MARTE models to
automatic code generation," Design and Architectures for Signal
and Image Processing (DASIP), 2010 Conference on , vol., no.,
pp.68-75, 26-28 Oct. 2010
[11] D. Alonso, J. Suardiaz, P.J. Navarro, P.M. Alcover, y J.A.
Lopez, "Automatic generation of VHDL code from traditional
ladder diagrams applying a model-driven engineering approach,"
Industrial Electronics, 2009. IECON '09. 35th Annual Conference
of IEEE , vol., no., pp.2416-2421, 3-5 Nov. 2009
[12] W. Mueller, D. He, F. Mischkalla, A. Wegele, A. Larkham, P.
Whiston, P. Peñil, E. Villar, N. Mitas, D. Kritharidis, F. Azcarate,
y M. Carballeda, "The SATURN Approach to SysML-Based
HW/SW Codesign", VLSI 2010 Annual Symposium Lecture Notes
in Electrical Engineering, Vol. 105, pp. 151-164, 2010.
[13] T.G. Moreira, M.A. Wehrmeister, C.E. Pereira, J.-F. Petin, y
E. Levrat, "Automatic code generation for embedded systems:
From UML specifications to VHDL code," Industrial Informatics
(INDIN), 2010 8th IEEE International Conference on , vol., no.,
pp.1085-1090, 13-16 July 2011
[14] J. Falb, S. Kavaldjian, R. Popp, D. Raneburger, E.
Arnautovic, y H. Kaindl, "Fully automatic user interface
generation from discourse models", Proceedings of the 14th
international conference on I ntelligent user interfaces, pp. 475476, 2009.
[15] R. Beale, y B. Bordbar, "Pattern Tool Support to Guide
Interface Design", Human-Computer Interaction INTERACT 2011,
Vol. 6947, pp. 359-375, 2011.
[16] C. Fernández-Llatas, J. B. Mocholí, C. Sánchez, P. Sala, y J.
C. Naranjo, "Process choreography for Interaction simulation in
Ambient Assisted Living environments", XII Mediterranean
168
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Conference on M edical and Biological Engineering and
Computing, Vol. 29, pp. 757-760, 2010.
[17] P. Sala, F. Kamieth, J. B. Mocholí, y J. C. Naranjo, "Virtual
Reality for AAL Services Interaction Design and Evaluation",
Universal Access in Human-Computer Interaction, Vol. 6767, pp.
220-229, 2011.
[18] D. Cascado, S.J. Romero, S. Hors, A. Brasero, L. FernandezLuque, y J.L. Sevillano, "Virtual worlds to enhance AmbientAssisted Living," Engineering in Medicine and Biology Society
(EMBC), 2010 Annual International Conference of the IEEE , vol.,
no., pp.212-215, Aug. 31 2010-Sept. 4 2010
[19] D. Martínez, J-Y. Lionel Lawson, J. P. Molina, A. S. García,
P. González, J. Vanderdonckt, y B. Macq, A Framework to
Develop VR Interaction Techniques Based on OpenInterface and
AFreeCA", Human-Computer Interaction INTERACT 2011, Vol
6948, pp 1-18, 2011.
[20] M. Cabo–Díez, F.J. Ferrández–Pastor, F. Flórez-Revuelta, y
V. Romacho–Agud, "DAI Middleware: plataforma de Hogar
Digital para la provisión de servicios orientados a la vida asistida
por el entorno", Congreso Internacional de diseño, redes de
investigación y tecnología para todos, Madrid, Junio 2011.
[21] F. Flórez-Revuelta, F.J. Ferrández-Pastor, M. Cabo-Díez, y V.
Romacho-Agud, "metalTIC - Hogar Digital", Congreso
Internacional de diseño, redes de investigación y tecnología para
todos, Madrid, Junio 2011.
169
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Architecture for Adding Context-Aware Capabilities
to Preferences-Oriented User Interfaces
Andrés Iglesias-Péreza,8 Ignacio Peinadoa, Jonathan Chacóna, Manuel Ortega-Moral
R&D Department, Fundosa Technosite
{aiglesias , ipeinado ,jchacon ,mortega }
@technosite.es
Abstract
A proposal for merging context-awareness and us er
preferences in the same software system is provided. In
order to do s o, several existing frameworks coming from
both disciplines are studied, getting insights from them to
add context-awareness to the on-going CLOUD4All project
(European Commission Seventh Framework Programme)
Resumen
Se proporciona una propuesta para unir sensibilidad al
contexto y preferencias de usuario en el mismo sistema
software, para lo cual se analizan marcos de desarrollo
provenientes de ambas disciplinas, obteniendo ideas de
ellos para añadir sensibilidad al contexto al proyecto
CLOUD4All que ac tualmente está siendo ejecutado
(Séptimo Programa Marco de la Comisión Europea)
1. Introduction
Daily live in urban environments tends to force the user
to interact with a plethora of machines, each one with its
own User Interface (UI). Most probably even getting into
the workplace will involve checking the smartphone in the
morning for email and ToDo lists, getting a ticket to the
metro or bus in a Ticket Vending Machine (TVM), reading
on a tablet while in transit and finally opening the desktop
computer when arrived. These tasks happen under different
noise and light conditions, in different moments in time and
in different places, with or without people surrounding the
user.
8
Alberto Delgado García
Fundación Vodafone España
[email protected]
Several approaches [2][3][4][5][6] have addressed the
task of improving the interaction between a user and a
computer by means of adding knowledge about the
surrounding environment. This discipline is usually referred
to as Context-Awareness. Every approach use its own
definition of context , and though they all agree on using the
previous characteristics, not all of them employ the user
needs and preferences about the HCI as a source of data on
its own. That hinders the possibility of generating
personalised UIs. This personalisation is especially
important for people with disabilities, as it involves
autoactivating Assistive Technologies (AT). A good
universal design [1] on the server side plus the correct AT
on the client side will allow users to complete those tasks
without the intervention of third persons, providing full
accessibility in environments that are not owned by the user.
On the other hand, other approaches [7][8][9][10] have
produced fruitful results when adapting the UI to the user
needs, whether in automatic or semi-automatic fashion,
Nevertheless, in these cases the adaptation of the UI is so
focused on the user needs that is not uncommon to leave the
context reduced to the device that the user is employing, so
in some cases the user gets an lesser correct adaptation of
the UI that if we took into account the environment, e.g.: a
user who is partially sighted in a train station purchasing a
ticket from a TVM with an auditory UI. The high noise
power makes it difficult for the user to hear the menu.
Under these circumstances a visual-magnified GUI with
high contrast would work better. The present research aims
to bridge the gap between these two approaches, employing
the context as part of the sources of data to select the most
appropriate AT with the appropriate settings that guarantee
that the user can interact with the interactive system, taking
into account the user needs and preferences, the device the
user is employing and the surrounding environment.
This paper is organized as follows: section 2 presents the
related work, emphasizing the searching of previous
architectural proposals coming from the discipline of
Context-awareness as well as those coming from the
discipline of Preferences-oriented User Interfaces creation.
Section 3 shows a novel architecture inspired from both
disciplines. Subsections from 3.1 to 3.6 detail design
decisions and Section 4 shows the conclusions and the
envisioned future work
Corresponding Author.
170
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
2. Related Work
The research in context-awareness ranges from definitions
of concepts to frameworks to applications. This search is
focused on the latter, including prototypes. Searching the
corpus of context-aware research we can merge Dey's [2]
and Zimermann's [5] defintions of context to say that
context is “any information that can be used to characterize
the situation of an entity. An entity is a person, place, or
object that is considered relevant to the interaction between
a user and an application, including the user and
applications themselves, categories of context are
individuality, activity, location, time and relations”. Early
Dey's prototypes add context to an office environment [3];
Dey’s prototype was able to detect who was in the building
and accordingly send context-aware mail, thus avoiding
spurious mail in a mailing list and sending automatically the
notes of a meeting and the pictures made in the whiteboard
to the attendees of a meeting. The architecture that supports
these prototypes is based on Sensors, Widgets, Aggregators
and Interpreters: Sensors are the components that measure
an analogic quantity and create a signal that can be read by
another component. A daily live example is a temperature
sensor (I. e.: a thermometer) that can be intended to be read
by a human or by another machine (as in air-conditioner
systems).
advertisements. It shows the special offer for lunch near
noon and the dinner options in the late afternoon, or the
spectacles for this evening. It also detects the presence of
passengers so it changes to a passive mode when nobody is
watching. Its narrowcasting mechanism provides value both
for the audience and the advertisers.
In this case the architecture is more oriented to highlight
the Semantic Layer that encapsulates data about the entities
(location of the Intelligent Advertisement Board and the
train station, time of the day, train schedule...) and the
Entity Relationship model that connects them. Sensor layer
abstracts the data from sensors in the same way that Dey's
architecture did employing widgets.
Figure 1. Dey's widget-based architecture
As stated in [4], Widgets are mediators between the
sensors and the rest of the architecture, and support poll and
subscription mechanisms. Aggregators act as gateways
between applications and elementary widgets, hiding lowlevel details, and Interpreters receive low-level context
information and create higher order context inferences. In
other words, they assert complex facts by inferring from
simple facts, as an example, reading the GPS widget to
know the user is on a train station and reading the
microphone widget with a high level of noise, the
Interpreter asserts that a train is present at this time.
These research applications are intended to demonstrate
how context-awareness can be made easy to build, hence
not addressing user needs.
Zimmermann's Intelligent Advertisement Board [6]
consists on a digital signage system installed in e.g.: a train
station that thanks to the context-awareness features can
display next train departures alongside with time-based
171
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Figure 29. Zimmerman's context management system
Control Layer includes the rules to create the User
Interface – rules are Precondition-Action style, very similar
to the Event Condition Action paradigm, and they are
expressed in a declarative language. Actuation Layer is the
responsible of executing the UI adaptations in the digital
signage board.
Nevertheless, the totem is not able to capture relevant
information about the user watching the ads, as the language
they speak or their personal needs and preferences when
using interactive systems. In that case, hardware capable of
transmitting both visual and auditory messages exists, but
with no mechanism to adapt the content to the current
audience.
On the other hand, there are projects that address the
personalisation of UI based on needs and preferences, such
as [7], but in this case neither theenvironment nor the device
are not employed as a source of data, so the adaptations are
performed under the assumption that the device is under
control of the user, not a feasible assumption for public
terminals. Some other projects do address the problem of
devices, such as [8] where cost functions are used to
enhance the UI. The authors define a feature vector that can
be optimized according to device capabilities (mobile
phone, regular PC...) or personal needs (present all of the
options in the same window, use sliders for numerical
decisors...) in a cost function. But they don't tackle the part
of the context that deals with the environment, namely noise
or bad light conditions, so optimisation can be performed on
wrong variables in many situations. The INREDIS project
[9] aimed to change the approach to the problem of making
all the devices accessible into making one device accessible
(e.g. a mobile device) and connecting it with every other
device in the world. It was firstly based upon the Universal
Remote Console [10], and lastly upon web services, and
made a reasoning system based on ontologies [11] that
adapts the UI taking into consideration the user’s device.
This architecture was intended to support multi-device,
multi-target interaction, hence the first components of the
architecture – UserDevice, InteroperabilityPlatform,
TargetDevice- were built to create abstractions of those
components. After first steps of the flow, the module called
INREDIS Architecture has knowledge enough to trigger a
query to the Adaptive Modelling Server, that is the module
that keeps the knowledge base content updated. From
different sources (application context, heterogeneous
sources, user interaction logs, etc.) it creates new instances,
concepts and terminological axioms in the knowledge base.
The knowledge base stores all the ontologies that collect
formal descriptions of the elements in the INREDIS domain
(e.g. users, Assistive Software, devices, software
requirements, etc.); and its instances. It provides
mechanisms for reasoning with and querying all this
knowledge, what enables the intelligent behaviour of other
modules of the architecture. The Assistive Software (AS)
middleware provides ubiquitous access to a set of AS
instances. It supports different AS deployment approaches
(e.g., downloaded) but it uses a SaaS (Software as a
Service) as the main paradigm approach.This component
thus achieves on the one hand the provision of AS without
prior installation; and on the other it brings the possibility of
using AS that might surpass the computational resources
capability
of
the
user’s
device.
Figure 3. INREDIS sequence diagram
172
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Finally, the Interface Generator transforms interfaces
expressed in a generic and abstract language into concrete,
utilizable and accessible ones. This activity is made in terms
of the user characteristics, the device capabilities and the
context; and is made possible using the reasoning
capabilities that the knowledge base provides.
This approach also lacked of a complete way to adapt
the UI under inconvenient environment conditions.
Context-aware projects are more prone to trigger actions
-such as sending an email or recording audio- automatically,
while projects addressing Adaptation to needs and
preferences usually perform only changes to the UI.
Overviewing projects from both disciplines, we can say that
in terms of the classic Five Ws from journalism, in Contextaware projects the 'when' and the 'where' act as a 'why' to
decide the 'what', while the user needs and preferences
proposals have the 'who' as a 'why' to decide the 'how'.
An on-going project proposes a promising solution to
solve both problems: the SERENOA project [12] tackles
both context-awareness and adaptations to people with
disabilities. Their proposal [13] employs Service Front-ends
as the controllers to access many services in the cloud. A
future extension of this concept to real-world devices could
be extremely useful to enhance device personalisation.
Currently, their CARFO ontology deals with context, and
they take advantage of designing UIs using a modelling
language to have deeper ontological reasoning, with
interface abstractions and reifications [14] but it is not
oriented towards every device in users' daily lives.
SERENOA can be extremely useful for web applications
but the extension to any technology seems also necessary.
At this point the CLOUD4all approach [15], focused on
taking advantage of embedded ATs, complements the
efforts to improve universal personalisation in any device.
The current architecture flow goes as follows:
the system. The Flow Manager then asks to the Preferences
Server for the set of preferences belonging to the user, and
then to the Reporters (both Device and Environment) about
the current conditions the user is operating within (light,
noise, precise data about the size of the screen...) in order to
send all of them to one of the Matchmakers. The
Matchmaker module will then decide what combination of
Solution (namely an Assistive Technology) and
configuration is to be provided to the User Device, and the
Lifecycle Manager actually configures these on the device,
employing a module to start and stop solutions (the lifecycle
handler) and another one to configure the decided solution
(the setting handler). The present research extends this
concepts to provide an alternate flow that lets the
environment to be the trigger of all the previous events.
3. Context-Centred
Architecture
In order to implement Context-Aware capabilities in
CLOUD4All, several modules for context acquisition and
aggregation have been added to the CLOUD4all
architecture. For instance, it was observed that many
changes in the environment do not need an action to be
taken by the Matchmaker, so some other modules were
created to tackle this adaption internally in the same user
device, for the case of smartphones that are able to store
part of the modules inside themselves
Internally our approach is an event-driven architecture,
where the central module, FLOW MANAGER is the
responsible to manage and redirect all events. The following
section presents a short description of the different
components of CLOUD4all architecture for Android
devices. Figure 19 depicts a quick overview of the
adaptation of the Cloud4all architecture for Android
smartphones to Context-Awareness.
3.1 User Listener:
The User Listener is responsible for detecting user
patterns activity to initialize the auto-configuration process.
The methods though it can launch the initialize event could
be NFC, QR or a specific device gesture.
Figure 4. CLOUD4all/GPII architecture
The user takes an action to let the system know than
he/she desires to adapt the device to his/her personal needs
and preferences. Usually this action is approaching an NFC
card to the device, but other mechanisms such as plugging a
USB stick in a USB port are allowed (and abstracted to the
rest of the architecture thanks to the User Listener module)
to communicate to the Flow Manager that the user is now in
173
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
.getMethod("getDefault", new Class[0])
.invoke(null, new
Object[0]); //obtain the Class Activity ManagerNative
and invoke the Method getDefault to obtain an
instance of ActivityManagerProxy
Class localClass = localObject1.getClass(); //cast
from Objet to java Class
Configuration localConfiguration = (Configuration)
localClass.getMethod("getConfiguration", new
Class[0]).invoke(localObject1, new Object[0]);
//invoke the method getConfiguration to obtain the
Configuration
localConfiguration.fontScale = scale; //Change de
fontScale Field
Figure 5. CLOUD4all architecture for Android
smartphones
3.2 Handlers:
3.3 Flow Manager:
The Handlers are responsible for configuring the settings of
applications, input methods and other components in the
Android Mobile environment. There is a special Handler
responsible
for
adapting
OS
feature,
the
SystemSettingHandler.
The SystemSettingHandler is a single module that
comprises different apps. This is because some parameters
need special permissions for modification. Also, different
Android versions require different access methods for
special parameters.
Different methods for configuring system settings have
been implemented in this module:
Android Settings API: It is the common way to modify
the configuration of the system. There are two classes of
Settings: Secure Settings and System settings. The main
difference between the two classes is that the former
requires system application permissions to modify it.
Invoke System Service: Some events in Android are
managed by a System Service, so it is necessary to invoke
them and to execute some specific methods to modify some
features. In CLOUD4all,his techniquehas been used to
modify different system volumes such as music volume or
notification volume.
Overwrite files in partition “system”: Some system
files, such as font files or system sounds require special
access permissions. Root permissions are required to overwrite these protected files, applying the changes instantly.
Modify special fields in Native Android OS class:
This is a special way to apply configuration. This technique
has been implemented in this module in order to modify the
font scale. For this purpose, it the native Java invocation
was used to get an instance of ActivityManagerNative [1],
and then modify the fontScale value in Configuration field.
the following code is implemented in this module to modify
the font scale:
Android module: Flow manager is responsible for
working as orchestrator. It receives events for the others
modules, manages the variables and launches the others
modules.
Core Architecture module: This module is responsible
for working as asynchronous workflow orchestrator.
However, the Flow manager integration with Android
devices needs to include a communication interface.
Object localObject1 =
Class.forName("android.app.ActivityManagerNative")
3.4 Communication between Core Architecture
and Android Architecture:
It is important to communicate both architectures.
Usually, the Android modules send a request to to the Core
modules. For this purpose, it has been decided to implement
a REST interface on remote Flow Manager. REST
emphasizes scalability of component interactions, generality
of interfaces, independent deployment of components, and
intermediary components to reduce interaction latency,
enforce security, and encapsulate legacy systems [20].
If the Architecture Core wants to send information to the
Android modules without a prior request, a possible
solution could be the implementation of a polling system
[21]. This is more efficient than a constant open connection,
although it has one drawback that may be important: the
information should be received immediately by the Android
device, either way the event generated by the Architecture
Core would not be notified to the device until the next
request.
Since Android 2.2 (FROYO), it is possible to implement
push notifications. The Google Cloud Messaging (GCM)
client receives push notifications from a GCM server. The
Android app just needs to register to read these
notifications. Thus, the server can send information without
having to consult the server periodically to check if there
are new features and without having to maintain a
permanently open connection [22].
174
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
3.5 Communication Interface on Android Device:
The Orchestrator performs the functions of the Local
Flow Manager and the Lifecycle manager. It is the
responsible for the flow of events. it is being implemented
following a declarative programming approach so it will be
possible to add future events just by modifying an xml file
where the processes are defined.
The orchestrator has three important parts:
Flow Persistence: Each event has one or more processes.
mechanism mechanism should be provided to store this
information.
Invocation mechanism: Identify the destiny of one event
and prepare the parameters to launch the event.
Variable transformer and Session persistence: This
module has some functions that hold the logic inside the
orchestrator.
The modules and the orchestrator communicate through
Broadcast Intents. Each intent performs a specific action;
the action is defined by the event destiny, so each module
should implement a BroadcastReceiver with an IntentFilter
with the custom Action which define it [23]
MiniMatchmaker
(https://github.com/JChaconTechnosite/Cloud4ALLMiniMatchMaker) (MMM): in order to save network
resources and cloud computing time, it receives the data
from ER and only sends them to a matchmaker (MM), a
component with full memory and computation resources
thanks to cloud scalability that is able to recommend both
the Assistive Software and its configuration in order to
create an UI adjusted to the user’s needs and preferences
if the
(http://wiki.gpii.net/index.php/Matchmaking)
difference between the last sent value and the current is
greater than a certain threshold. It also defines the sampling
periods for the ER with and without noise. If the source of
interference still sends the noise it is treated as stationary
and the period is stretched again.
In addition, to achieve transfer the necessary
information, an intent in this architecture should have three
extras:
“idEvent”: It is and integer, each event should be
associate an unique identifier.
“idAction”: It is an integer generated dynamically and
define the set request-response from the Orchestrator to
another module.
“Params”: it is a string, which have JSON format. This
JSON provide the object transfer between different
processes.
3.6 Reporters
EnvironmentReporter
(https://github.com/JChaconTechnosite/Cloud4ALLEnviromental-reporter) (ER): checks the sensors of the
mobile device and sends these data in a format
understandable by the rest of the components.
DeviceReporter
(https://github.com/JChaconTechnosite/Cloud4All-Devicereporter)(DR): checks the capabilities of the device as well
as the values of configurable parameters of the device. The
static values are checked just once and stored on the
memory card.
The current sensors employed are luminance (dedicated)
and acoustic noise (from the microphone). The current
capabilities employed for the decision are the size of the
screen and the values of brightness and contrast, while the
DR sends them all. Our inspiration and future linkage is the
CLOUD4all project where the aforementioned Matchmaker
concept is explained thoroughly, both the rule based and the
statistical based versions. Our version is a naïve approach
integrated into the MMM that recommends the change in
visual/auditory frontier without applying cloud computing.
The lab tests had the following setup: 1) two separate
devices were held by the user’s assistant, one configured
with a visual-magnified UI and the other one with an
auditory UI. 2) the auditory one was given to the user, and
he starts an interaction to get a trip ticket from the UI. 3) the
observer switches on a music player with loud volume;
when the MMM receives this noise, it produces a speech
“switching to visual UI”. 4) the assistant switches the
mobile with the user, and the user ends the ticket purchase.
The test comprised a generic concept validation
questionnaire and specific questions about the perceived
usefulness of the solution and the level of satisfaction of the
user. One of our main concerns is to make sure that the
adaptation capabilities of the system developed does not
conflict with Nielsen’s first usability heuristic (the user has
to be always in control of the interaction), specific questions
were asked regarding this issue. One out of three expressed
their concern that the system autoadapting without their
permission may be annoying, and that changes in the UI
should be configured by users. Nevertheless, three users
considered the autoadaptation capabilities as useful (mean 4
in a 5-point Likert scale) and considered that, if they can
configure the adaptations they may use it in the long term
(mean 3,67 in a 5-point Likert scale).
4. Conclusions
Work
and
Future
Whilst the motivation of this research is the CLOUD4all
Project, we strongly believe that these components fit on
every software system dealing with improving the selection
of the UI thanks to information coming from sensors. When
we connect the testbed to the real CLOUD4all architecture,
more advanced adaptation can be performed in order to
show the potential impact on the explained techniques in
everyday life tasks, and we will have conditional settings
based on environment, delivered from the MM and stored in
the MMM, and will improve the UI for changes in the
environment that don't cross a frontier, as they express rules
to react to environment e.g.: when noise power raises by
10% increase speakers volume by 5%. The evaluation steps
have been modestly tackled hence future work will include
designing and executing a comprehensive evaluation with
real users, including selecting the best candidates to test the
software, assigning them tasks to be able to measure the
fitness of the system’s first choice on UI, and creating an
scenario where the environment changes its conditions at a
given moment, e.g. creating a source of noise in an auditory
175
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
UI. The system will success if the sudden change of
environmental conditions does not hinder the user’s ability
to finish the assigned tasks. As an ongoing work some of
the authors are involved in the creation of a Context-Aware
Server that allows us to have motes as a source of data,
hence adding context information without modifying the
hardware of the device the user is employing.
A problem still not tackled is to deal with complex
multimodal interfaces. Currently multimodality is assumed
to happen as one channel auxiliary to another, but we don't
have a solution to recommend a hop from a region to
another when the starting region had two channels and the
ending region just one.
Finally, CLOUD4all shares interest in contextawareness with the SERENOA project, so as long as the
CARFO module is delivered some adaptations will be
made. From the studied approaches we can affirm that the
inclusion of context-awareness improves the selection of the
best UI for a given interaction. At least in the coarse grain
the test are promising when switching between access
modes, and the nature of ongoing work permits to evolve
this concept into a more fine-grained to address the
preferences inside the same access mode region.
Acknowledgements
Results presented in this paper have been researched
within the Cloud4all project. Cloud4all is an R&D project
that receives funding from the European Commission under
the Seventh Framework Programme (FP7/2007-2013) under
grant agreement n° 289016.
Thanks to Guillem Serra from Barcelona Digital for his
on-going work on implementing the Context Aware Server
and for all of the feedback he is providing to the current
CAS design.
References
[1] Stephanidis, C., Designing for All in Ambient Intelligence
[2]
[3]
[4]
[5]
Environments: The Interplay of User, Context, and
Technology, INTL. JOURNAL OF HUMAN-COMPUTER
INTERACTION, 25 (2009), 441-454
Dey, A.K., Understanding and Using Context, Personal and
Ubiquitous Computing 5 (2001), 4–7.
Dey, A.K., Abowd, G.D., Salber, D., A Conceptual Framework
and a Toolkit for Supporting the Rapid Prototyping of
Context-Aware Applications, Journal Human Computer
Interaction 16 (2001), 97-166
Dey, A. K., & Abowd, G. D. (2000, June). The context toolkit:
Aiding the development of context-aware applications.
In Workshop on Software Engineering for wearable and
pervasive computing (pp. 431-441).
Zimmermann, A., Lorenz, A., Opperman, R., An operational
definition of context, IN:CONTEXT (2007)
[6] Zimmermann, A., Lorenz, A., Specht, M., Applications of a
Context-Management System, Modeling and Using Context
(2005), 556-569
[7] Karim, S., Tjoa, A.M., Towards the Use of Ontologies for
Improving User Interaction for People with Special Needs,
International Conference Computers Helping People with
Special Needs, LNCS 4061 (2006), 77-84
[8] Gajos, K.Z., Weld, D.S., Wobbrock, J.O., Automatically
Generating Personalized User Interfaces with SUPPLE,
Artificial Intelligence 174 (2010), 910-950
[9] INREDIS. Project website. http://wiki.inredis.es.
[10] ISO/IEC 24752-3:2008. Information technology – User
interfaces – Universal remote console – Part 3: Presentation
template (2008)
[11] Iglesias, A., Linaje, M., Preciado, J.C., Sánchez, F.,Gómez,
E.,González, R., Martínez, J.A., A Context-Aware Semantic
Approach for the Effective Selection of an Assistive
Software. In: Proceedings of IV International Symposium of
Ubiquitous Computing and Ambient Intelligence (2010), 5160.
[12] SERENOA. Project website. http://www.serenoa-fp7.eu
[13] Caminero, J., Rodríguez, M.C., Vanderdonckt, J., Paternò, F.,
Rett, J., Raggett, D., Comeliau, J.-L., Marín, I., The
SERENOA Project: Multidimensional Context-Aware
Adaptation of Service Front-Ends, In: Proceedings of the
Eight International Conference on Language Resources and
Evaluation (2012)
[14] Calvary, G., Coutaz, J., Thevenin, D., Bouillon, L., Florins,
M., Limbourg, Q., Souchon, N., Vanderdonckt, J., Maruccy,
L., Paternò, L., Santoro, C., The CAMELEON Reference
Framework, CAMELEON Project (2002)
[15] CLOUD4all. Project website: http://cloud4all.info
[16] Shannon, C.E., A mathematical theory of communication.
The Bell System Technical Journal, 27 (1948), 379-423, 623656
[17] ISO/IEC
24751-2:2008. Information technology –
Individualized adaptability and accessibility in e-learning,
education and training – Part 2: “Access for all” personal
needs and preferences for digital delivery
[18] Android code Git repository, ActivityManagerNative.java,
[19] https://android.googlesource.com/platform/frameworks/base/
+/742a67127366c376fdf188ff99ba30b27d3bf90c/core/java/a
ndroid/app/ActivityManagerNative.java
[20] Fielding, Roy Thomas. Architectural Styles and the Design
of Network-based Software Architectures. University of
California, Irvine, 2000.
[21] W3C. Web Services Polling (WS-Polling). Overview,
http://www.w3.org/Submission/ws-polling/
[22] Google Cloud Messaging Documentation. Overview.
http://developer.android.com/google/gcm/index.html
[23] Intents
and
Intent
Filterhttp://developer.android.com/guide/components/intentsfilters.html#ifs
176
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Comportamiento de un sistema activo de soporte y
estabilización de marcha en procesos de
rehabilitación
Eloy Urendes, Ramón Ceres, José L. Pons, Magdo Bortole
Grupo de Bioingeniería. Centro de Automática y Robótica-CSIC
[email protected] [email protected] [email protected] [email protected]
Resumen
Este trabajo se enmarca en el proyecto HYBRID, que
contempla el uso de un e xoesqueleto en combinación con
una estructura externa ambulatoria y activa, con tracción
eléctrica, REMOVI, que soporta y e stabiliza al usuario
mediante un arnés. El sistema completo se destina al
desarrollo de ejercicios de rehabilitación de ciertos
lesionados medulares y otras patologías que presentan
problemas graves de movilidad. En este sentido se presenta
en este trabajo la mencionada estructura y los resultados
obtenidos en pruebas reales con sujetos sanos que muestran
los problemas y las soluciones de coordinación de marcha
entre usuario y estructura.
Abstract
This work is part of the HYBRID project, which
considers the use of a r obotic exoskeleton integrated with
an external ambulatory and active structure with electric
traction, REMOVI, which provides support and stabilization
to the user through a harness. This system is employed to
develop rehabilitation exercises for patients with spinal
cord injury--or other pathologies--who present serious
mobility problems. This article presents the definition of the
HYBRID system and t he results obtained in experiments
with healthy subjects, which indicate the problems and
solutions for gait coordination between user motion and
structure.
1. Introducción
La rehabilitación de marcha se plantea en muchas
patologías que afectan ya sea directamente a las
extremidades inferiores por debilidad muscular o problemas
oseoarticulares o bien a la generación de los patrones de
marcha por causas neurológicas diversas del sistema
nervioso central o periférico [1]. En el caso de lesionados
medulares tiene interés especial desde el punto de vista de la
rehabilitación los casos de lesión medular incompleta en los
que se centra el trabajo que se presenta.
El entrenamiento de marcha ha jugado un papel
importante en los procesos de rehabilitación, utilizando para
ello los terapeutas muy diferentes tipos de dispositivos. Así,
se han usado desde los más elementales tales como las
muletas, el doble bastón y las barras paralelas a otros
ambulatorios y estables como los andadores, grúas y arcos
de suspensión. Más recientemente se han desarrollado los
llamados entrenadores de marcha, muchos de ellos con
desplazamiento por motores eléctricos pudiendo incluir
elementos de mantenimiento del cuerpo del sujeto.
Los sistemas más simples de apoyo a la marcha y los
andadores tradicionales han supuesto elementos auxiliares
esencialmente
de
estabilización
basándose
fundamentalmente en el uso complementario del apoyo de
las extremidades superiores. Dentro de este grupo, cabe una
mención especial el desarrollo de andadores instrumentados
(Smart Walkers), Figura 1, que asisten al usuario
dependiendo de sus necesidades con la finalidad de
mantener una marcha natural [2].
Figura 1. a) andador convencional, b) andador
avanzado SIMBIOSIS
Más tarde han surgido otros tipos de estructuras estables
con posibilidad de suspensión parcial del sujeto, sin requerir
en principio el uso de sus brazos y manos. Dentro de estas
existen incluso en el mercado toda una serie de variantes.
Por una parte figuran las de soporte en pórtico que pueden
ser de tipo estático, permitiendo desarrollar los ciclos de
marcha sobre cintas rodantes, por otra parte se disponen de
estructuras rodantes que acompañan al usuario en su
marcha. Tanto unas como otras han sido objeto de
investigaciones habiendo dado lugar a sistemas avanzados
de tipo activo que incluyen una serie de instrumentaciones.
177
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Dentro del primer tipo de estructuras estáticas se puede
destacar el LOKOMAT [3], Figura 2 a), que es un sistema
relativamente extendido y que se compone básicamente de
un pórtico superior de suspensión graduable, de una cinta
rodante y en sincronización con esta una doble ortésis activa
de tres articulaciones de los miembros inferiores.
En el segundo grupo de estructuras, destaca el sistema
WalkTrainer [4], Figura 2 b) que está compuesto por un
exoesqueleto bilateral que controla las articulaciones de
cadera, rodilla y tobillo, y permite el movimiento de pelvis
con seis grados de libertad. El exoesqueleto se combina con
la utilización de FES en los miembros inferiores y con una
estructura rodante motorizada que permite suspender al
usuario vestido con el exoesqueleto a través de un arnés y
deambular en el suelo, sin necesidad de cinta rodante.
Este proyecto trata principalmente de estudiar, definir e
implementar un nuevo sistema de rehabilitación y
compensación de marcha para personas con lesión medular
de diferentes etiologías que combine el uso de
exoesqueletos y neuroprótesis usando al mismo tiempo
sistemas externos de apoyo o de estabilización activa de la
marcha. Así, se pretende recuperar capacidades funcionales
induciendo al usuario a la ejecución de patrones de marcha
promoviendo artificialmente los movimientos de las
articulaciones fundamentalmente en las extremidades
inferiores con las activaciones musculares correspondientes.
Esto se consigue mediante la ortésis bilateral activa en sus
tres dobles articulaciones, lo que constituye el neurorobot o
exoesqueleto. Por otra parte se trata de disponer de un
medio de soporte del sujeto durante la marcha mediante una
estructura externa móvil y estable que proporcione al
usuario confort y especialmente seguridad en el proceso de
marcha autónoma asistida.
2.1. Exoesqueleto CSIC
.
Figura 2. a) Estructura estática activa de
rehabilitación Lokomat b) Estructura rodante de
suspensión WalkTrainer
Otros sistemas de rehabilitación como GaitTrainer o
HapticWalker [5] emplean también marcos de suspensión
pero que en lugar de utilizar cintas rodantes o marcha sobre
el suelo, se emplean plataformas mecánicas que describen
un patrón de marcha, que es impuesto al usuario fijando sus
pies a dichas plataformas. Estas plataformas permiten
describir distintas trayectorias, simular subida de escaleras,
subir pendientes u otras actividades de la vida cotidiana.
Otro sistema de rehabilitación como el KineAssit [6] se
centra específicamente en el control postural y
estabilización de la marcha. Este sistema a través de unos
brazos elevadores permite suspender al usuario desde la
pelvis y tronco. Se caracteriza porque aplica fuerza en
dirección contraria a la marcha para entrenar la musculatura
del usuario.
Como se ha podido observar el desarrollo de sistemas de
entrenamiento de marcha es un campo intenso de
investigación, que está actualmente en auge. A
continuación, se presenta el sistema de entrenamiento que
está siendo desarrollado por el grupo de Bioingeniería del
CSIC.
2. Marco de trabajo
El presente trabajo se desarrolla actualmente en el seno
del proyecto coordinado DPI2011-28160 del Plan Nacional
HYBRID,
Hybrid
Technological
Platform
for
Rehabilitation, Functional Compensation and Training of
Gait in Spinal Cord Injury (SCI) Patients.
El exoesqueleto, Figura 3, ha sido desarrollado
igualmente por el Grupo de Bioingeniería en base a trabajos
anteriores [7, 8, 9] habiendo sido objeto de rediseño tanto de
la estructura como de sus elementos activos siendo así
adaptado a las especificaciones del proyecto. Básicamente
se compone de una ortésis derecha y otra izquierda unidas
en su parte superior por la cadera. Cada una incluye tres
motores DC sin escobillas para cada una de las
articulaciones de cada pierna (tobillo, rodilla y cadera) con
sus correspondientes sensores de posición angular.
La unidad electrónica de medida y control del
exosqueleto podrá almacenar las pautas de marcha para
controlar posteriormente en tiempo real cada uno de los
motores mediante este modelo de marcha.
Figura 3. Exoesqueleto bilateral
2.2. La estructura ambulatoria externa.
Tal como se ha indicado en el primer apartado, en los
ejercicios de entrenamiento de marcha la introducción de
elementos externos de apoyo ha supuesto una serie de
mejoras considerables tanto para el usuario como para el
terapeuta al exigirle a este un menor esfuerzo y dedicación.
178
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Por una parte y en los primeros estadios del proceso se
busca la repetición de los movimientos elementales de los
segmentos propios de la marcha en las extremidades
inferiores realizando así una estimulación neuromotora en
base a la regeneración de los reflejos correspondiente.
Siendo estos ejercicios adecuados, sin embargo es preciso
completarlos con otros ejercicios funcionales orientados a la
tarea, en este caso, la marcha, ya que involucra toda una
serie de interacciones musculares, articulares y sensitivas
que no solo importan a las extremidades inferiores sino
prácticamente a toda la biomecánica humana. Así esta fase
debe comprender ejercicios de marcha lo más reales
posibles, en el sentido no solo de activar los movimientos
de los elementos anatómicos involucrados sino también
realizando las funciones asociadas a la marcha como son el
sostenimiento estático y dinámico corporal y los
movimientos asociados de tronco y extremidades
superiores. Si bien estas tareas se pueden llevar a cabo en
una cinta rodante, como en otros trabajos, en este se ha
tomado la opción de desarrollar la marcha sobre el suelo de
forma que se realice un desplazamiento real del sujeto. Esta
variante permite un mayor grado de libertad del sujeto
pudiendo abordar aspectos biomecánicos de gran interés en
la marcha tales como el control de giros y de aceleración y
deceleración por parte del usuario y el comportamiento ante
suelos irregulares, con mayor o menor fricción o con
presencia de obstáculos y pendientes ascendentes y
descendientes, entre otros.
La estructura REMOVI [10] que se ha desarrollado está
constituida básicamente por una base de sustentación
rodante que incluye dos ruedas tractoras delanteras con
sendos motores DC y dos ruedas traseras libres. Una
columna central soporta el sistema de suspensión formado
por dos brazos giratorios accionados mediante un motor
lineal DC, tal como se puede ver en la figura adjunta.
Figura 4. Estructura REMOVI
Esta plataforma realizará en primer lugar las funciones
de elevación y transferencia del usuario desde la silla de
ruedas a esta estructura y posteriormente realizará, en
principio sin ayuda de brazos ni manos, la función esencial
de soportar y estabilizar al usuario durante la marcha desde
un plano superior y con la ayuda de un arnés de suspensión
en la medida que requiera de acuerdo al estado de progreso
de la rehabilitación. Para graduar el nivel de suspensión,
actuando sobre el motor de elevación, e igualmente para
realizar el análisis de las diferentes componentes de fuerzas
se han instalado sendos sensores 3D de fuerzas en los
puntos de suspensión de los brazos de elevación. El
conjunto de motores está controlado por una arquitectura
electrónica desarrollada alrededor de un PC-104, que
incluye igualmente un módulo de adquisición de las señales
de fuerza. Finalmente, el sistema incorpora una unidad de
ultrasonidos ubicada en la columna central para medir la
distancia de separación entre la estructura REMOVI y el
usuario.
3. Metodología
En este trabajo, se presenta un primer estudio para
evaluar la interacción que se produce entre la estructura y el
usuario en términos de coordinación en diferentes modos de
operación. El objetivo es identificar cambios en las fuerzas
tanto de suspensión, avance y lateralidad; así como en la
distancia de separación entre el usuario y la estructura
REMOVI ante distintas velocidades de marcha con y sin
agarre del usuario a la estructura.
Para la identificación de las fuerzas de interacción del
usuario, se dispone de un sensor de fuerzas 3D ubicado en
las barras de elevación de la estructura desde el que el
usuario se suspende. Es necesario traducir las fuerzas
medidas por el sensor (Fx, Fy, Fz ) en las fuerzas de interés
(avance, lateral, peso). El rango de medida para las
componentes Fx, Fy Fz del sensor es de 100kg. Para ello,
se ha integrado un sensor angular en las barras de elevación
para obtener el ángulo de inclinación de dichas barras (α).
Siendo θ la relación angular entre la fuerza de suspensión
ejercida por el usuario (Fr, módulo de las tres componentes
del sensor) y la componente Fz del sensor, es posible la
descomposición de la fuerza Fr en sus tres componentes:
fuerza de avance, fuerza lateral y fuerza peso, así como el
ángulo de inclinación del usuario respecto a la horizontal
(σ), tal y como se muestra en la Figura 5.
Figura 5. Relación vectorial entre la fuerza ejercida
por el usuario y la fuerza detectada por los
sensores.
179
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Para la suspensión parcial de peso del usuario se emplea
un motor lineal con un controlador PID (proporcionalintegral-derivativo) con parámetros de entrada el peso del
usuario y el nivel de descarga que se quiere realizar. El
sistema se encarga de suspender al usuario según el nivel de
descarga indicado.
El control de velocidad de la estructura REMOVI se
realiza acoplando encoders en los motores tractores y un
controlador PID (proporcional-integral-derivativo).
En este experimento, se ha suspendido a un usuario sano
de 1.85m y de 90kg desde posición de bipedestación con
una descarga del 30% y se le ha solicitado que camine en
línea recta en un pasillo de 6 metros nivelado. En este
contexto, se han realizado dos tipos de ejercicios: i) la
estructura REMOVI establece una velocidad fija y el
usuario debe seguir al sistema, ii) el usuario empuja el
sistema REMOVI libre de los motores tractores.
La suspensión de carga se realiza al comienzo de cada
ejercicio, y una vez alcanzado el 30% no se realiza ningún
ajuste de peso durante la ejecución del mismo. Para el
supuesto caso i) se ha establecido una velocidad de 0.1ms/s,
0.2m/s y 0.3m/s. En los casos ii) y iii) se ha solicitado al
usuario que marche de manera natural con una velocidad
arbitraria que suponga una marcha lenta y una rápida.
4. Resultados
En primer ejercicio, se han cuantificado las fuerzas peso,
avance y lateral durante la marcha a distintas velocidades
fijadas por el sistema REMOVI, con y sin agarre manual a
la estructura. En la Figura 6 a), se puede observar la señal
peso correspondiente a la descarga del usuario en kg. Se
puede observar que presenta picos de máxima descarga de
32kg, y de mínimo de 20kg. Estas fluctuaciones en torno al
peso de descarga 27kg, son normales y son debidas al
propio ciclo de marcha del usuario, que al caminar tira del
sensor produciendo estas oscilaciones.
Figura 6. Marcha con velocidad fija: a) Oscilación
de la señal peso durante la marcha b) Medidas de
las fuerzas de peso a distinta velocidad con/sin
agarre a la estructura
En la Figura 6b, se puede observar que existe una
convergencia en las medias de las fuerzas peso en todas las
pruebas realizadas con independencia de la velocidad
seleccionada o si el usuario se agarra a la estructura. De este
modo, el sistema de descarga de peso funciona
correctamente manteniendo al usuario descargado de media
el 30% de su cuerpo.
En la Figura 7, se presenta las medias de la señal de
fuerza avance (a) y fuerza lateral (b). Se puede observar del
mismo modo que existe una convergencia en torno a un
valor de descarga, que es mayor en el caso de la fuerza
lateral, ya que en la componente lateral se produce el efecto
de tiro de sensor y giro en cada paso.
180
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Figura 8. Marcha con velocidad fija: Media de la
distancia de separación usuario-REMOVI con
velocidad fija
En el segundo ejercicio, se ha querido evaluar el
impacto en la señal fuerza y distancia cuando el usuario
camina de manera natural si condicionarle su marcha en
términos de velocidad. En este caso, el usuario agarra y
empuja el dispositivo con sus manos. Se puede observar en
la Figura 9, cómo sigue existiendo esa convergencia a un
nivel de descarga. Sin embargo, no es el nivel de descarga
impuesto del 30%.
Figura 7. Marcha con velocidad fija: a) Medias de
la fuerza de avance del sensor izquierdo b)
Medidas de las fuerzas de lateral del sensor
izquierdo
Uno de los aspectos fundamentales en el diseño de la
estructura REMOVI fue el cálculo de una distancia de
seguridad entre el usuario y el REMOVI, que permitiera al
usuario caminar de una manera confortable y segura. En la
Figura 8, se puede observar la media de la distancia de
separación registrada con el sensor de ultrasonidos para
cada una de las pruebas.
Se puede observar que la distancia de separación
converge en torno a los 23cm con independencia de tipo de
prueba realizada. En la adquisición de la señal de
ultrasonidos no se han encontrado problemas de reflexiones
con el arnés ni ruidos. La distancia de separación es óptima
permitiendo caminar de manera segura, y teniendo un área
libre suficiente para asegurar el paso.
Figura 9. Con marcha libre: Media de la distancia
de separación usuario-REMOVI
A diferencia del ejercicio anterior, el usuario tiene que
empujar el dispositivo en lugar de simplemente agarrarlo.
Al realizar este fuerzo se aplica una descarga de su peso
sobre las barras en torno al 5.5% de su peso.
En relación a la distancia de separación, Figura 10, se
sigue mantiene la convergencia observada en el primer
ejercicio en torno a un valor; en este caso en 26cm. Sin
embargo, cambia el valor ha cambiado siendo el mismo
usuario y con la misma posición de agarre a la estructura.
La razón se encuentra en para que este ejercicio se decidió
ajustar los tirantes del arnés, para ver el impacto en la
distancia de seguimiento y su posición inicial.
181
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Agradecimientos
Se desea expresar el reconocimiento de los autores al
Plan Nacional por el soporte recibido para el desarrollo del
proyecto coordinado DPI2011-28160, HYBRID. Así
mismo, se agradece a los investigadores y las entidades
colaboradoras del citado proyecto, el INEF de la UPM y la
Unidad de Biomecánica y Asistencia Técnica del Hospital
de Parapléjicos de Toledo.
Referencias
Figura 10. Con marcha libre: Media de la distancia
de separación usuario-REMOVI
Existe una gran variabilidad en términos de talla del
arnés, longitud de tirantes, ubicación del sensor que influye
en la posición relativa entre usuario y REMOVI. Sin
embargo, en el caso no favorable de usuarios altos, se ha
visto que existe una variabilidad que permite alterar la
distancia de separación aumentado así el espacio hábil de
marcha y asegurando siempre una marcha segura.
5. Conclusiones
Se ha comprobado que la media de las señales fuerza
peso convergen al nivel de descarga seleccionado con
independencia de la velocidad y del agarre, por lo que se
puede asegurar que el soporte de descarga que se ofrece al
usuario es correcto. Sin embargo, se producen oscilaciones
cíclicas en la señal peso debido a la propia naturaleza
oscilatoria de la marcha. En un próximo estudio, se
abordará la relación entre estas oscilaciones con un ciclo de
marcha.
En el caso, de plantear terapias donde el usuario empuje
del dispositivo según sus necesidades, habrá que evaluar la
descarga de peso que se libera sobre la estructura para
asegurar siempre los mismos niveles de descarga
independiente de la fuerza con la que se empuje el
dispositivo.
Se ha registrado correctamente la distancia de
separación sin problemas de ruido ni de reflexiones, y esta
distancia ha sido constante durante las pruebas. Por ello, se
plantea utilizar esta distancia de separación para realizar un
subsistema de seguimiento entre REMOVI y exoesqueleto
que permita sincronizarlos. De este modo, cuando se
aceleren los motores del exoesqueleto para acelerar la
marcha del usuario, lo hagan los motores tractores del
REMOVI de manera segura, cómoda y transparente para el
usuario.
En futuros trabajos, una vez validado el sistema
propuesto con sujetos sanos, se procederá a analizar el
comportamiento entre sistema-usuario y la marcha para
sujetos con lesión medular.
[1] Hillman, M. “Rehabilitation robotics from past to present: A
historical perspective”. Advances in Rehabilitation Robotics.
Lecture Notes in Control and Information Science, Volume 306,
2004, pp 25-44
[2] Frizera, R. Ceres, J.L. Pons, A. Abellanas, R. Raya. “The smart
walkers as geriatric assistive device. the simbiosis purpose”.
Proceedings of the 6th International Conference of the
International Society for Gerontechnology, 2008.
[3] M. Frey, G. Colombo, M. Vaglio, R. Bucher, M. Jorg and R.
Riener, “A Novel Mechatronic Body Weight Support System.”
IEE Trans. On Rehabilitation Engineering, 2006, 14 (3), pp 311321
[4] Bouri M, Stauffer Y, Schmitt et al. R “The WalkTrainer: A
Robotic System for Walking Rehabilitation” IEEE International
Conference on Robotics and Biomimetics. ROBIO '06.
[5] M. Schmidt, C. Werner, R. Bernhardt, S. Hesse J. Krüger,
“Gait rehabilitation machines based on programmable footplates.”
Journal of NeuroEngineering and Rehabilitation, 2007, vol. 4:2 pp.
1-7
[6] M. Peshkin, D. A. Brown, J.J. Santos-Munne, A. Makhlin, E.
Lewis, K. E. Colgate, J. Patton D. Schwandt, “KineAssit: A
Robotic Overground Gait and Balance Training Device.” Proc. Of
the 9th International Conference on Rehabilitation Robotics
(ICORR), 2005, vol 28, pp.241-246
[7] J.C. Moreno, F. Brunetti, E. Navarro, A.Forner-Cordero, J.L.
Pons “Analysis of the Human Interaction in the design of a
Wearable Lower-Limb Exoesqueleton” Applied Bionics and
Biomechanics. ISSN: 1754-2103.6.2. 245 2009
[8] A. J. del Ama, J.C. Moreno, A. Gil-Agudo, A. De-los- Reyes,
J.L. Pons. “Online Assessment of Human-Robot Interaction for
Hybrid
Control
of
walking
sensors”.
Doi:10.2290/s120100215.12.1.215-225 2012
[9] Magdo Bortole, José Luis Pons, Eloy Urendes “Integración de
una plataforma híbrida para rehabilitación y compensación
funcional de la marcha”. XXXIII Jornadas de Automática de Vigo.
España. 2012.
[10] - Eloy Urendes, Ramón Ceres, Leopoldo Calderón, Rafael
Raya, Manuel Aleixandre. "Nuevo sistema de entrenamiento de
marcha". XXXII Jornadas de Automática. Sevilla, España,
Septiembre 2011.
182
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
SOFTCARE: Wearable, Unobtrusive and Plug&Play
Device for Automatic Fall Detection and Activity
Assessment
Xavier Contijoch Culleré
Centre de Recerca i Innovació de
Catalunya (CRIC)
[email protected]
Abstract
A significant factor in the impact of falls on the affected
person is the amount of time they remain without help if
they cannot recover by themselves. Fall detectors are the
most appropriate devices to minimize that factor. The
presented work is part of the SOFTCARE project developed
under the Ambient Assisted Living (AAL) joint program
aiming to give an answer to falls while accomplishing the
requirements of all the actors involved in the deployment,
maintenance and use of telecare platforms. Artificial
intelligence techniques to automatically detect falls are
integrated in a P lug&Play, non–intrusive and e asy-to-use
system consisting in a s mall bracelet, several static nodes
and a gateway. Additionally, the system is able to recognize
certain activities of daily living (ADL), distinguish levels of
activity intensity and l ocate the user at home. When any
hazardous situation is detected, an e mergency protocol is
activated to take proper contingency actions.
Resumen
El tiempo que las personas afectadas por una caída
permanecen sin ayuda tiene un gr an impacto en las
consecuencias que conlleva dicha caída. Los detectores de
caídas pueden minimizar este impacto. El trabajo aquí
presentado forma parte del proyecto SOFTCARE
desarrollado bajo el programa Ambient Assisted Living
(AAL) joint program y pretende dar una respuesta a l as
caídas al mismo tiempo que satisfacer los requerimientos de
todos los actores involucrados en el despliegue,
mantenimiento y uso de las plataformas para el
telecuidado. Técnicas de inteligencia artificial para
detectar automáticamente las caídas se integran en un
sistema Plug&Play, no intrusivo y fácil de usar que consiste
en un brazalete, varios nodos estáticos y un Gateway. Como
característica adicional, el sistema es capaz de reconocer
ciertas actividades del día a día (ADL), discernir entre
distintos niveles de actividad y localizar el usuario en casa.
Si alguna situación potencialmente peligrosa es detectada,
se activa el protocolo de emergencia para tomar las
acciones de contención pertinentes.
1. Introduction
Albert Rodriguez Pastor
Centre de Recerca i Innovació de
Catalunya (CRIC)
[email protected]
The proportion of Europeans aged 65 years and older
will grow from about 18% in 2010 to 24% in 2030 [1]. At
the same time, life expectancy is increasing every year with
a projected growth of 3 years for males and 2.6 years for
females by 2020 [2]. One debating point are falls as
affecting one out of two people over the age of 80 each year
and one out of three people of over 65, being the foremost
cause of injury related deaths [3].
The most dangerous consequence of suffering a fall is
the ‘long lie’, defined as the involuntarily remaining on the
ground for an hour or more following a fall, due to
disorientation or temporarily lack of consciousness. It has
been found that most of the people experiencing this
situation (even non-injurious falls) have to be hospitalized
and half of them die within 6 months [4], making falls the
main cause of morbidity-mortality (injury related) in the
elderly. Furthermore, a relationship has been established
between the delay before intervention and the rate of
harmful repercussions [5]. Consequently, the need for
reliable and automatic fall detectors clearly arises from the
fact that the ‘early’ detection and quick response towards
falls can reduce the hospitalization by 26% and death by
over 80% [6]. Additionally, even after experiencing a fall
without any direct physical injuries, many psychological
difficulties appear on subjects, such as fear of falling, loss
of self-efficacy, activity avoidance and loss of self
confidence, leading to poor health and life quality [7].
Although the extensive academic efforts made during
the past years have led to some commercial products, it
must be stressed that there is no wide spread solution on the
market [6] mainly due to poor reliability, privacy concerns
and lack of comfort. The existing techniques can be divided
mainly into three big categories with their respective
subgroups: wearable devices, vision-based approaches and
environmental based approaches. As the last two
approaches fall out of the scope of this work, only the
wearable devices are going to be reviewed.
2. Wearable devices for fall
detection
Wearable sensor approaches can be understood as any
device attached at user garments or worn as a clothing
accessory. In terms of data gathering and subsequent
analysis, two different approaches have been adopted by
183
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
researchers. We are going to refer the techniques as onboard decisions and off-board decisions. In the first group,
the corresponding parameters are sensed to further process
the data within the wearable device and decide whether the
detected event must be considered as a fall or not.
Regarding the off-board decisions techniques, one or more
devices within a Wireless Sensor Network (WSN) gather
the corresponding parameters and send the information to a
central processing unit (PC, tablet, Smartphone, etc.), which
is responsible to make the fall – no fall decision.
Basically, two different MEMS (Micro-ElectroMechanical Systems) technologies are used to detect
hazardous events concerning the wearer: accelerometers and
gyroscopes. They detect acceleration and angular velocity
changes respectively and can be integrated in small single
devices as their size is extremely reduced. Making use of
MEMS different techniques for wearable sensors appeared:
accelerometry-based
approaches,
postural-based
approaches, motion-based approaches and Smartphonebased approaches.
Basically, accelerometry-based approaches aim to
partially track user motion using accelerometers to detect
impacts, e.g. sudden acceleration changes. Some academic
solutions attach multiple sensors to user body [8] achieving
high performance, but the complexity of such platforms
impedes market reach. For single sensor solutions, the most
common parts of the body where accelerometers are placed
are: waist (as a belt clip), neck (as a pendant), wrist (as a
bracelet) and head (as a hearing aid). Experiments testing
different algorithms for waist mounted accelerometers (clip
belt) have been performed by the research community [9]. It
found that the best results were achieved by an algorithm
defining thresholds in user velocity impact (acceleration
peak). Authors reported 100% sensitivity (see Eq. 6) and
specificity (see Eq. 7) with a 0.6 false alarms per day. What
has to be highlighted is that the experiment was carried out
by healthy young volunteers falling on a crash mat, which
may be a reason for such impressive results. Regardless the
performance issues, the main drawback of clip belt based
approach is that it cannot be worn without clothes or is
annoying while performing some activities of daily living
(ADL’s), so ubiquity is not accomplished.
Devices mounted at wrist have been subject of study in
the past years as they seem to be the most accepted body
sensor approach in terms of comfort. As reported by a
recent study [10] of Health Design & Technology Institute
at Coventry University, watch-like fall detectors show, in
general, the highest level of acceptance by both end-users
and care providers. The reason is that they do not stigmatize
elderly peoples’ fragility and provide permanent coverage
since they can be worn while performing all Activities of
Daily Leaving (ADLs). Despite the theoretical acceptance
raised by watch like devices, in practice, current
commercial bracelet based fall detectors are not designed to
remain unnoticed and be unobtrusive. Therefore, the
challenge of future devices (in terms of design) is to
manufacture an ergonomic, small and light bracelet similar
to a commercial watch.
The Swiss Federal Institute of Technology from Zurich
(ETHZ) has designed a bracelet for on-board automatic fall
detection (Speedy [11]) reporting a fall detection rate of
65% during a two-day trial. CSEM presented also a
wristwatch for on-board fall detection achieving a
sensitivity of 90% and specificity of 97%, but on both cases
the trials were carried out by healthy volunteers on a
controlled environment.
Despite the huge efforts made, the results of current
bracelet based solutions (both academic and commercial)
are quite poor when brought to real settings. The bracelet
approach is the most challenging one, since the acceleration
changes on the device are extremely affected by almost all
ADLs, causing high variance at sensed measurements. This
leads to inaccuracy, obtaining an unacceptable number of
false alarms or high non detected fall rates (depending on
the algorithm parameters selection).
Finally, the hearing aid based approach using
accelerometers has been studied from an academic point of
view [12], but due to the obvious limitations of autonomy,
ubiquity and targeted users the market acceptance was low.
Instead of sensing acceleration variations, posturalbased approaches use gyroscopes to detect changes in the
angular velocity. The discrete integral of this magnitude is
directly the orientation or the relative position of the object
where the gyroscope is embedded. When a sudden angular
velocity is detected the final user posture is inferred. Using
the velocity peak and the postural information the algorithm
can then made the fall/no fall decision. The most common
presentation of postural-based approaches can be found as
devices attached on the trunk. In [13] Bourke uses a bi axial
gyroscope attached on a ‘trunk belt’ to monitor angular
velocity and postural information of the user achieving
100% accuracy on a laboratory environment. But, what
definitively impedes the commercialization of this approach
is the high power consumption of the gyroscope (10 times
higher than the accelerometer) and the lack of comfort
which represents wearing a device attached at trunk. These
two characteristics inevitably lead to high deployment (due
to battery replacements) and poor user acceptance. As one
of the main objectives of the SOFTCARE system was the
low deployment and maintenance, the use of gyroscopes
was discarded.
Motion-based approaches use both accelerometers and
gyroscopes to enhance the performance of these sensors
used separately. This combination was studied by Qiang Li
et al [14]. being able o detect all the falls (60) within a test
on young volunteers. The device was placed on the fourth
thoracic vertebrae, thus the above-mentioned problems arise
again: high consume and lack of comfort.
Smartphone-based approaches appeared as the
acceptance, computational capabilities and usage of the
Smartphone has drastically increased in recent years. A fall
detection algorithm making use of the accelerometer
embedded in the phone was proposed by Jiangpeng Dai et
al. [15]. The device continuously gathers acceleration data,
when a fixed threshold is overtaken, a set of samples within
a window time are checked using pattern recognition
(Artificial Intelligence) techniques. If the algorithm
outcome is ‘true’, the mobile phone automatically contacts
the carers. The authors reported a false negative and false
positive ratio of 2.67% and 8.7% respectively when the
phone is attached on the waist. The main limitation of this
solution is clear: most of the time users do not keep the
184
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
mobile phone with them while staying at home. Moreover,
the phone can be worn in many different spots as the jacket,
pants or handbag introducing variability to the algorithm
and leading to underperformance. Another approach was
proposed by Eklund JM et al. [16] using the mobile phone
just as the gateway of a complex WNS formed by different
kind of wearable (belt device), motion, environmental and
biometric sensors. The motes in the network have
embedded processing capability, so when an accident is
detected an alarm to the Smartphone is sent enabling the
communication to carers. Apart from the drawbacks
associated to belt worn accelerometers, the complexity of
this system decreases the battery lifetime down to 10 hours.
The mentioned academic research has led to several
commercial waist worn devices performing on-board
decisions such as the belt-clip from Tunstall [17].
Regarding the pendant-based approaches, Philips launched
the LifeLine with autoalert [18] which seems to achieve an
accuracy level similar to waist worn devices but has the
same handicap regarding the non-ubiquity and usability
since it can be annoying while performing some activities
like taking a shower or sleeping.
3. System Architecture and
Features 1.Figure 1. SOFTCARE
3.1. Systemplatform
modules
architecture.
3.1. System modules
Regarding the wrist worn fall detectors, several
attempts have been made in recent years such as the fall
detector by Bosch [19], or the coming solution of Lifecomm
[20] which is developing a Mobile Personal Emergency
Response System (MPERS) that enables both cellular
communication and GPS-tracking. Most of the current
approaches perform on-board decisions using thresholdbased algorithms, e.g. different thresholds are fixed and an
event is labeled as a fall if these values are overtaken. This
fact constrains the system performance as the computational
resources of the bracelet device are limited. The
SOFTCARE project aims to solve these performance
limitations by externalizing the fall/no fall decision
procedure to a gateway with more computational resources.
According to Fig.1, the system is composed of three
different modules: the bracelet device, the static nodes and
the gateway. The key components of the wrist worn
prototype device are the LIS331HH triaxial accelerometer
(ST Microelectronics), the PIC18F24k20 microprocessor
(Microchip) and the ETRX2 Zigbee module (Ember). The
accelerometer gathers data at a sampling rate of 50Hz which
is further pre-processed and sent through the Zigbee
network at certain time intervals.
Despite the efforts above-mentioned, a valuable review
of existing techniques for waist-mounted fall detectors
(which are considered to be the most reliable) has been
presented to the scientific community reporting very poor
performance [21]. They benchmark the performance of
thirteen published fall-detection algorithms when they are
applied to the database of 29 real-world falls. They found a
specificity of (mean ± standard deviation) 83.0% ± 30.3%
and sensitivity of 57.0% ± 27.3% with the number of false
alarms ranging from 3 to 85 during one-day trials. These
figures imply that more research is still needed in the field.
3.2. Communication protocol and procedures
The provisional static nodes are commercial devices
adapted to the SOFTCARE platform to act as Zigbee
repeaters and used to locate the user at home. A notebook
equipped with the ETRX2USB Zigbee USB dongle acts as
the network sink, processing unit and gateway.
The different network actors mentioned above, form a
WSN using the Zigbee communication protocol, which is
based on the 802.15.4 IEEE standard for Wireless Personal
Area Networks (WPAN). The Zigbee protocol is intended
for applications requiring low data rates and power
consumption suiting perfectly the project specifications.
In the normal mode, the processor on the device infers
the bracelet angle computed following Eq. (1). Additionally,
the angle deviation value corresponding with the difference
between the maximum and the minimum angle α is also
computed.
 −1 aZ
) if aZ > a X
 tan (
aY

α
= 
(1)
 tan −1 ( a X ) otherwise

aY

185
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
These two measurements together with the raw
acceleration data are averaged and broadcasted to the static
nodes within regular time intervals of 4 seconds. Each static
node, adds the Received Signal Strength (RSSI) between
the link formed by itself and the bracelet device to the data
packed. The information is the relayed to the gateway where
the processing algorithms are implemented.
The accelerometer is configured to launch an
interruption when a certain acceleration threshold is
exceeded. In that case, the bracelet cancels the normal
execution mode and a stream containing the last second of
acceleration samples is sent to the gateway. The fall/no fall
decision is performed on the gateway by means of machine
learning techniques.
3.3. System features
The SOFTCARE system’s main purpose is to detect
situations that may represent a risk for elderly citizens. For
this purpose a panic button has been incorporated in the
bracelet in order to allow the user launch alarms manually
when needed.
Regarding the automatic features, fall detection acquires
special relevance. Hundreds of simulated falls have been
performed to gather information of falls motion and used to
train an intelligent system in order to discriminate new falls
from normal activity data.
As an additional feature, the SOFTCARE system is able
to detect certain activities of daily living. For this purpose,
the system must be adapted to each user during the system
deployment, i.e. the elderly person must wear the bracelet
device and perform the activities to be detected in order to
gather motion information of his/her specific behavior. An
intelligent system is trained with the gathered data for each
individual increasing recognition effectiveness. The
activities currently supported by the system are: walk, cook,
eat and rest. The platform provides an excellent workbench
to test and design recognition methods for other activities
using bracelet devices. On the other hand, the system is able
to distinguish between certain levels of activity associated
with the user, e.g. very low, low, medium and high. No
training is needed for this purpose and the reliability on real
scenarios is sufficiently high.
Finally, the last extended feature is the location
capabilities through RSSI measurements from the link
formed by the bracelet and each static node. An RSSI
mapping of the rooms to be detected is needed. Therefore,
the user must walk through the different rooms wearing the
bracelet during the system deployment.
The information related to the features listed below is
uploaded to a server and displayed through an online
platform. The data is organized to be understood at a glance
by carers (events table, graphical representation of trends,
etc.) and ease the care provision and management. When a
hazardous situation is detected or the user presses the panic
button, an automatic call is established to the preferred
carers and proper emergency protocols are launched.
4.1. The fall detection algorithm
The above-mentioned stream containing one second of
acceleration data corresponds to 50 samples taken at a
frequency rate of 50Hz. This information is processed to
extract the last 0.8 seconds acceleration samples, being the
last one the acceleration peak. Therefore, we chose 40
samples out of 50. This procedure is implemented because
fall events are generally completed between 0.4-0.8 seconds
[22]. This samples can be understood as an N-dimensional
vector V where N = 40. Relevant features from this vector
are extracted and classified using a Support Vector Machine
(SVM) in order to recognize acceleration patterns and
distinguish real falls from fall-like events.
One of the key aspects of the proposed algorithm is the
feature reduction algorithm. Feature reduction techniques
are necessary when the dimension N of the vector V in the
initial feature space is high, as some elements of V may be
redundant or provide irrelevant information for the
classification algorithm. Apart from increasing the
computational cost, having a high number of features can
also lead to over-fitting on the training data. If this occurs,
the generalization is poor, meaning that the classification
performance on new samples is low. To reduce the number
of features, two techniques can be applied: feature selection
and the feature transformation. The aim of the first one is to
select the most relevant subset of features while the second
one applies a transformation function to convert the vector
V on the initial feature space to the vector W in a lower
order dimensional space.
The here proposed approach fuses feature selection and
feature transformation techniques to increase the
classification performance. As shown in Fig. 2 the
dimensional reduction algorithm can be divided into three
blocks corresponding to 2 supervised and 1 unsupervised
techniques:
1. Unsupervised: Global Features Transformation.
2. Supervised: Motion Features Transformation.
3. Supervised: Motion Features Selection.
Figure 10. Fall detection algorithm schema
4. The algorithms
186
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
The first block consists of apply the Principal
Components Analysis (PCA) algorithm to reduce the
dimensions of signal V from N to K (K<N). Blocks 2 and 3
are supervised techniques for feature transformation and
selection respectively. They should be referred as
supervised techniques as a detailed study of fall and fall like
events has been conducted to exploit the differences
between these events from a physical point of view. Block 2
aims to create L (L<N) new features from the initial feature
vector V that provide physical or motion information in
relation with the acceleration stream under study. For
instance, during the free fall, the acceleration sensed tends
to 0 causing a local minimum with certain degree of
convexity-overture. This local minimum and the convexity
degree are transformed features that bring useful
information to distinguish falls from ADLs. Finally, Block 3
selects a subset of M (M<N) samples of the V vector with
added value for the classification process. One example
could be the sample corresponding to the acceleration peak,
which is usually much higher in fall events than in fall like
actions.
The features coming from the three different blocks are
fused to create the W vector on the low order space P (P =
K+L+M < N). The resulting signal is evaluated by the SVM
to discern if the acceleration stream belongs to a fall event
or not.
4.2. Activity recognition algorithms
The activity recognition algorithm is divided in 3
different modules:
1. Movement classifier.
2. Activity classifier.
3. Outliers filter.
Targeted activities usually have a duration of several
minutes, however, all of them can be decomposed into
simpler movements and gestures. While the gestures or
movements that the system can detect for the different
activities are very similar, or even the same, the statistics of
each of these gestures change in the targeted activities when
a relatively long period of time is analyzed. These
observations led to the definition of the module 1 in Fig. 3,
which defines a set of simple movements that are used to
classify each data received from the bracelet (every 4
seconds). Analyzing the outputs of this first classifier in
module 2 during a certain period indicates which one of the
targeted activities is being executed. A detailed description
of the modules is provided below:
Movement classifier: the samples received on the
gateway each 4 seconds containing the averaged
measurements of acceleration, angle and angle deviation
serve as inputs of a multiclass SVM implementing a nonsupervised training process. Consequently, no training is
required on the user’s side regarding this unit. The aim of
the unsupervised classifier is to decompose the general
activities into basic movements that are analyzed with the
next sub-module. The output of this unit is an entire number
within the range = [1, N] where N is the number of clusters
of the classifier, i.e. the number of basic movements to be
distinguished.
Activity classifier: implements a multi class SVM using
a supervised training process. This module has to be trained
individually by each elder in order to customize the activity
recognition. Its input is configured as the percentage of
samples that fell within each single movement during a 60
seconds window time. In other words, the input of the
second module is the output of the first classifier averaged
along one minute or what I the same, 15 samples
( 60s 4s = 15 samples ). With this information the unit infers
the activity for the minute under study.
Outliers filter: this module is the responsible for
corroborating or discarding the activity inferred by the
previous module. If the proposed activity is discarded it will
be labeled as ‘others’. Imagine the movement classifier
output after the 60 seconds average as an L dimensional
vector
=
T (t1 ;...; t L ) ∈ R L (where L is the number of clusters
or movements) and the content of each dimension ti is the
percentage of samples classified within the i th cluster.
During the training process, M samples are gathered and
classified being T k the k th vector sample gathered at
the k th minute. The mean
=
A (a1 ;...; aL ) ∈ R L and the
standard deviation
=
D (d1 ;...; d L ) ∈ R L for the M vectors is
calculated and stored for each different activity following
the Eq. (2) and (3).
A=
D=
1
M
∑T
1
M
∑( a
M
k
(2)
k =1
M
k =1
1
− t1
k ;...; aL − t Lk )
(3)
A and D computed during the training process are used
by the outlier filter to accept or reject an activity
classification. From this point we will notate the mean and
variance as A j and D j respectively, where j is introduced
to distinguish the parameters corresponding to the j th
activity to be detected. Note that the mean and variance
must be computed and stored for each activity
independently.
Figure 3. Activity recognition
l
ith
h
187
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
=
P ( p1 ;...; pN ) ∈ R N is formed every 4 seconds where each
dimension pi is the RSSI of the link between the i th static
node and the bracelet while N is the number of static nodes.
In the normal mode, new samples of the vector P are
classified on regular time intervals of 4 seconds. For
stability issues, an average of the room location is
performed for 1 minute. Room changes with durations
lower than 30 seconds are discarded since do not provide
relevant-useful user information from the carers point of
view.
5. Experimental
result discussion
Figure 4. Acceptance zone for 2
diff
t ti iti
d2
t
During the training process and using the vectors A j
and D j , the reliability zone for each activity j is defined
following Eq. (4).
B j =A j ± α D j =
(b1 j ;...; bL j )
(4)
Where α represents the tolerance of deviation allowed
in new samples. When a new activity j is proposed by the
activity classifier, the outliers filter determines if the vector
T under study lies within the ‘acceptance zone’ B j . If the
outcome of the module is positive, the new activity will be
accepted and stored, otherwise the system will conclude that
the user is doing ‘other’ or unknown activities. Note that
equation 4 can be seen as a segment in R1 for each
dimension bi . The intersection of the mentioned segments
defines an L-dimensional volume in RL which represents the
‘acceptance zone B j . In Fig. 4 an illustration of the
acceptance zones B1 and B 2 for L=2 computed during the
training process for 2 different activities is provided.
4.2.1 Activity level assessment. The activity level
classification is performed by means of simple rules based
on thresholds. Empirical studies observing the acceleration
variation a , and angle variation ∆α were conducted to
select the optimal thresholds for each activity level.
Currently the system is able to distinguish between lack (0),
low (1), medium (2) and high level of activity (3) following
the equation 5:
0

1
AL (a, ∆α ) =

2
3
if=
a 0 and ∆=
α 0
if a ≤ γ 1 and ∆α ≤ ϕ1
if γ 1 < a ≤ γ 2 and ϕ1 < ∆α ≤ ϕ 2
(5)
if a > γ 2 and ∆α > ϕ 2
4.3. Indoor location algorithm
The indoor location algorithm implements a multiclass
SVM with supervised training. The RSSI values of the pair
wise link between the bracelet and each static node is used
to infer the user position at home. Basically, a vector
setup
and
In this section, specific experiments conducted to test
the fall detection reliability will be detailed. Note that we
will provide only specific accuracy figures in case of fall
detection since the performance of the rest of features is
difficult to quantify. For this reason, the location, activity
recognition and activity level assessment features will be
evaluated in a qualitative way, analyzing the results
obtained from the tests performed with final end users on a
real scenario.
5.1. Fall detection algorithm evaluation
As proposed in [23] only 4 situations can be considered
when analyzing the results:
- True Positive (TP): a fall occurs and is detected.
- False Positive (FP): the device detects a fall but no fall
occurred.
- True Negative (TN): a fall-like situation occurs and the
device does not detect a fall.
- False Negative (FN): a fall occurs and the device does
not detect it.
Sensitivity and specificity defined in Eq. (6) and Eq. (7)
are used to carry out the statistical analysis.
TP
sensitivity =
(6)
TP + FN
TN
specificity =
(7)
FP + TN
Sensitivity is related with the probability of a fall being
detected (fall detection effectiveness). Specificity measures
the probability of detecting fall-like situations (false alarm
avoidance).
Obviously, it is necessary to establish a
tradeoff between these two measurements. To evaluate this
tradeoff and thus the fall detection accuracy, the
measurement selected is the Balanced Accuracy (BA)
defined in Eq. (8).
=
BA (sensitivity + specificity ) / 2
(8)
Within the fall detection scenario, sensitivity is
important in terms of the wellness of elderly people, but
specificity is also relevant regarding the requirements of the
care service providers. Each time a false alarm is raised, a
lot of resources have to be mobilized, implying
unaffordable waste if lots of false alarms have to be
handled. In this situation, where the prediction of positive
and negative labels have similar relevance, a comprehensive
188
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
evaluation of classifier performance must be considered
[24]. With this objective, the BA is calculated, since it is a
tool to correlate both the fall detection capabilities and the
false alarms avoidance.
Table 1. Breakdown of the events used in the
study
FALLS
Backward
Forward
Left
Right
38
38
38
38
FALL – LIKES
Sit down
suddenly
Clap
hands
Shake
hands
Hit
furniture
Arm
free
fall
26
26
26
26
26
Several trials were conducted to gather acceleration
samples of fall related events. Falls were simulated by
healthy volunteers aged between 25-50 falling on a crash
mat. In parallel, acceleration samples of fall like events
were gathered in order to train and test the algorithm. The
collected streams constitute a database of 282 samples
divided into fall and fall likes events as detailed in table 1.
For each type of fall, 38 simulations were performed,
while for fall like events 26 samples were gathered for each
situation ([38 x 4] + [26 x 5] = 282). These 282 events
formed the database which was divided into training set, test
set and cross validation (CV) set (60%, 20% and 20% of the
total events respectively). The number of fall event samples
included in the study is reduced to simulate a real scenario
where acquire real fall events is complex. This limitation
regarding the amount of available data, make the algorithm
performance be really dependent on the subset of samples
used to train the algorithm. In other words, the selection of
the proper training set can increase the detection accuracy
drastically. A first experiment (referred as experiment 1)
was designed using the training set and the test set (60% +
20% = 80% of data) in order to assess the impact of the
training set on algorithms where relatively small amounts of
data can be considered. The method used for this purpose
was the Repeated random sub-sampling validation,
consisting on perform iterations on data changing at each
experiment both the training set and the test set. The
selection of the samples falling within the two subsets is
randomly made for each iteration. To include all scenarios,
some restrictions were imposed on the random procedure to
select the training and test set. Both subsets contain the
same number of samples for each kind of event. For
instance, the fall related training set contains the same
number of Background, Forward, Left and Right falls.
Following the same criteria the different situations for fall
like events were included on each experiment uniformly.
These boundary conditions were considered to avoid
training sets with data representing only few fall or fall like
events. This situation will not be applicable to real
applications (training sets can be selected) and will bias the
results decreasing the algorithm performance drastically. In
a second experiment, (referred as experiment 2) the best
training sets obtained in experiment 1 are used to train the
system and are confronted with new samples (CV data) to
assess the algorithm robustness and capabilities of
generalization in front of new data.
Analogously, to compare the proposed algorithm
performance, three different algorithms were also included
in the experimental set up. The first algorithm will be
referred as Raw Data and consists on training a SVM with
all the features of the fall and fall like acceleration streams.
Consequently, no dimensional reduction techniques are
applied on the vector V in Fig. 2, thus W=V being P=N=40
features for each sample. Additionally, the second algorithm
(Only PCA features) implements only the PCA technique to
extract the relevant features and train a SVM. Therefore,
W=A where P=K in Fig 2. Finally, the SOFTCARE
algorithm is the proposed fall detection technique described
in section 3.
Figure 5. Comparison of the proposed
algorithm vs. different approaches along
3000 random experiments.
Note that to better illustrate the results, in Fig. 5 the
iterations in experiment 1 were sorted in increasing order of
accuracy aiming to observe the trend of the different
methods under study.
Looking at the results, it can be observed that the
proposed method achieves the highest performance.
Comparing the SOFTCARE algorithm versus Raw Data can
be concluded that performing the proposed dimensional
reduction techniques instead of classifying the events
through raw data (acceleration streams) increases
substantially the reliability. Raw Data clearly suffers from
overfitting during the training process that causes poor
generalization performance and leads to low accuracy.
Table 2. Results obtained on random trials
performed on the test set
SOFTCARE
Algorithm
Only PCA
features
Raw Data
Averaged BA on
the test set
92.24%
Max. BA on the
test set
96.67%
87.68%
94.87%
77.92%
84.58%
Additionally, as our main contribution is the integration
of supervised methods together with the PCA algorithm, we
want to assess the impact of these supervised modules on
the overall performance. For this reason, Only PCA features
189
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
were included on the test bench. The SOFTCARE algorithm
seems to bring some assets compared with Only PCA
features (improvement of more than 4% on average). As
can be observed, the here proposed approach upper bounds
the performance of remaining methods in almost all the
random trials performed. Table 2 illustrates the maximum
BA obtained on the random trials and the averaged BA along
the best 100 iterations, (i.e. the last 100 values on Fig. 5).
As can be observed, we can find 100 training sets (and the
associated test sets) for which the accuracy is more than
92% on average.
Analogously, Experiment 2 was performed training the
system with the best 100 training sets used to generate
Table 2 in order to assess the generalization capabilities on
new samples. The average BA obtained was the 86.54%,
which is not the same performance as the obtained with the
test set, although it is acceptable. The decrease on the
performance may be caused due to the limited amount of
data intended to the CV set (20%).
5.2. Evaluation of the system on real scenarios
All the features described in this paper were evaluated
with 5 end users involved with the Austrian SOFTCARE
partners Red Cross and CEIT RALTEC during month 1.
Although provide figures on location and activity
recognition reliability are complex when the validation is
performed by elderly people, some conclusions can be
extracted from the trials. Both location and activity
recognition algorithms do not provide enough accuracy in
non-laboratory environments. The algorithms were instable
for certain room distributions and user behaviors. By the
other side, the activity level assessment show great
robustness for different users, delivering useful information
for the care management and delivery. The fall detection
algorithm features could not be tested entirely as no fall
occurred during the validation. The algorithm showed
promising results in terms of false alarms avoidance since
only 3 false alarms were launched during the trials.
Furthermore, the false alarms were raised by the same user
within 24 hours. During the same period the user reported
that some mechanical problems appeared on the bracelet
prototype. Therefore, the false alarms might be not caused
by an algorithm failure but by a mechanical defect on the
device housing.
6. Conclusions and future work
Considering the fall detection algorithm, the first
observation that must be highlighted is the impact of
selecting the training set when limited data is available. In
Fig. 5 the accuracy difference from the best and the worse
training sets is the 35% (96.67% vs. 61.67%). This fact
suggests that more work has to be done regarding the
procedure to detect the common patterns of the most
suitable training sets. It must also be highlighted that the
influence of the training set on the overall performance
provided by the mentioned figures has to be done carefully.
It must be considered as qualitative measure since the
impact of the test set associated with each training set is not
taken into account. This issue can be solved by gathering
more fall/fall like events to assess the goodness of the best
training sets using a higher amount of Cross Validation
data. Finally, the supervised feature transformation and
feature selection can still be refined. The increase of 4% can
still be boosted if more relevant information of the fall
events is extracted by the supervised techniques.
Regarding the activity recognition technique for wrist
worn devices, it must be stressed that fine tuning actions are
currently being performed since the accuracy on real
scenarios is still low. Our approach is the most challenging
one as the acceleration changes on the device are extremely
affected by almost all ADLs, causing high variance at
sensed measurements. A study to discriminate the optimal
number of single actions (i.e., clusters on the movement
classifier) to decompose general activities may improve the
robustness of the algorithm. The activity level algorithm
may be also improved if an adaptive algorithm is designed
to automatically infer the optimal thresholds in equation 5
for each particular user.
Indoor localization through RSSI measurements also
provides low accuracy when the rooms are set within a
reduced space or no power outlets are available in certain
rooms. The room RSSI mapping process (i.e. the location
training) must be carefully studied in order to increase
algorithm efficiency. Variables such as the training time or
the user location within the room while training (walking on
central positions, close to the walls etc.) should be assessed.
7. References
[1] The Economist Intelligence Unit. (2011). The future of
healthcare in Europe. From Eurostat Statistics Database.
[2] Commission of the European Communities (2008). Regions
2020 Demographic Challenges for European regions. Directorate
General For Regional Policy, November 2008.
[3] C.Griffiths, C.Rooney,A.Brock. Leading causes of death in
England and Wales—how should we group causes?. Health
Statistics Quarterly 28 (2008). Office for National Statistics.
[4] Wild D, Nayak US, Isaacs B. How dangerous are falls in old
people at home? Br Med J (Clin Res Ed) 1981;282(6260):266–8.
[5] Gurley RJ, Lum N, Sande M, Lo B, Katz MH. Persons found
in their homes helpless or dead. N Engl J Med 1996;334:1710–6.
[6] Noury N, Rumeau P, Bourke AK, Olaighin G, Lundy JE
(2008). A proposal for the classification and evaluation of fall
detectors. IRBM 29(6): 340–349.
[7] T. Hadjistavropoulos et al. Reconceptualizing the Role of Fear
of Falling and Balance. Journal of Ageing and Health 23(1) 3–23.
[8] A.K. Bourke, J.V. O’Brien, and G.M. Lyons. Evaluation of a
thresholdbased tri-axial accelerometer fall detection algorithm.
Gait & Posture, 26(2):194 – 199, 2007.
[9] Bourke AK, Van de Ven P, Gamble M, O'Connor R, Murphy
K, et al. (2010). "Evaluation of waist-mounted tri-axial
accelerometer based fall-detection algorithms during scripted and
continuous unscripted activities", J. Biomech., vol. 43, pp.3051 3057 2010.
190
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[10] G. Ward, N. Holliday and S. Fielden (2012). “Fall Detectors:
What do users want?” Unpublished Article, Health Design &
technology institute at Coventry University, Coventry, UK.
twenty-seventh annual international conference of the IEEE
engineering in medicine and biology society, Shanghai.
[11] Thomas Degen, Heinz Jaeckel, Michael Rufer, Stefen Wyss,
SPEEDY: A Fall Detector in a Wrist Watch, Proceedings of the
7th IEEE International Symposium on Wearable Computers,
p.184, October 21-23, 2003.
[17] http://apac.tunstall.com/solutions/fall-detectors
[12] U. Lindemann, A. Hock, M. Stuber, W. Keck, and C. Becker.
Evaluation of a fall detector based on accelerometers: A pi-lot
study. Medical and Biological Engineering and Computing,
43(5):548–551, Oct 2005.
[19]http://resource.boschsecurity.com/documents/Data_sheet_enU
S_9007200776487307.pdf
[13] A. K. Bourke and G. M. Lyons, "A threshold-based falldetection algorithm using a bi-axial gyroscope sensor," Medical
Engineering and Physics, vol. 30, pp. 84-90, Jan 2008.
[21] Bagalà F, Becker C, Cappello A, Chiari L, Aminian K, et al.
(2012) Evaluation of Accelerometer-Based Fall Detection
Algorithms on Real-World Falls. PLoS ONE 7(5): e37062.
[14] Qiang Li, Stankovic, J.A., Hanson, M.A.; Barth, A.T.; Lach,
J. Gang Zhou. "Accurate, Fast Fall Detection Using Gyroscopes
and Accelerometer-Derived Posture Information," Wearable and
Implantable Body Sensor Networks, 2009. BSN 2009. Sixth
International Workshop on , vol., no., pp.138-143, 3-5 June 2009.
[22] Zhang, T. et al. "Fall detection by embedding an
accelerometer in cellphone and using KFD algorithm",
International Journal of Computer Science and Network Security.
6(10) pp: 277-84, 2006.
[15] Jiangpeng Dai, Xiaole Bai, Zhimin Yang, Zhaohui Shen, and
Dong Xuan, PerFallD: A Pervasive Fall Detection System Using
Mobile Phones, in Proceedings of IEEE PerCom Workshop on
Pervasive Healthcare (PerHealth), 2010.
[16] Eklund JM, Hansen TR, Sprinkle J, Sastry S (2005)
Information technology for assisted living at home: building a
wireless infrastructure for assisted living. In: Proceedings of the
[18] http://www.lifelinesys.com/content/lifeline-products/autoalert
[20] http://www.lifecomm.com/
[23] N. Noury , P. Rumeau , A. K. Bourke , G. Laighin and J. E.
Lundy "A proposal for the classification and evaluation of fall
detectors", Ingénierie et recherche biomédicale (IRBM), vol. 29,
pp.340 -349 2008
[24] Sokolova M, Japkowicz N, Szpakowicz S (2006) Beyond
accuracy, F-score and ROC: a family of discriminant measures for
performance evaluation. In: Australian conference on artificial
intelligence, vol 4304. LNCS, Germany, pp 1015–1021
191
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
ASSAM: Enhancing Autonomy Through Mobility
Cristian Barrué, Ulises Cortés, A.B. Martínez
Universitat Politècnica de Catalunya
{cbarrue,ia,antonio.b.martinez}@lsi.upc.edu
Sandra Millet, Lluisa Pla
Centre de Vida Independent
{sandra,lluisa}@cvi-bcn.org
Resumen
chronic diseases is a direct consequence of the ageing of the
population. In both developed and developing countries,
chronic diseases are significant and costly causes of
disability and reduced quality of life. An older person’s
independence is threatened when physical or mental
disabilities make it difficult to carry out the basic activities
of daily life. As defined by World Health Organization
(WHO), in the International Classification of Functioning,
Disability and Health, known as ICF: disability serves as an
umbrella term for impairments, activity limitations or
participation restrictions [12].
A decline in quality of life in the elderly is usually
reflected by the presence of negative feelings, lack of
meaning in life and specially a loss of their autonomy [13].
One important aspect of autonomy from a pragmatic point
of view is the ability to move around the preferred
environment and perform activities of daily living (ADL).
Social relationships and activities are fundamental elements
in the quality of life of older people. With advancing age,
they are made more difficult through the possible loss of
physical functions, through societal processes of
differentiation, and through unfavourable environmental
and technological conditions. The prevalence of age-related
disabilities can burden the possibility to move around and
participate in the social environment. Therefore, mobility
becomes an important prerequisite for the participation in
social relations and activities [14].
Some experts recommend that environmental settings
for the cognitively impaired must ease mobility -- often in
response to the prevalence of wandering' behavior --and yet
remain safe and secure [15]. This safety can be achieved
nowadays with the help of emerging Assistive
Technologies. Assistive Technology devices can be very
useful to provide supportive services to individuals who
require assistance with the tasks of daily life. Their use
spans not only people with cognitive impairment caused by
ageing factors but also any disabled person, in order to
ensure an acceptable level of autonomy.
El objetivo principal del proyecto ASSAM es contribuir
al desarrollo de la próxima generación de herramientas de
soporte a l a movilidad inteligentes y semiautónomas para
gente mayor y gente con discapacidades (física y/o
cognitivas) de forma que puedan ser suficientemente
independientes para vivir de forma autónoma en la
comunidad. El enfoque de ASSAM consiste en desarrollar 3
plataformas de movilidad distintas orientadas a diferentes
perfiles funcionales que estará equipado con un modulo de
soporte cognitivo a l a navegación para potenciar la
autonomía y bienestar de los usuarios y sus habilidades
para mantener un estilo de vida independiente. En este
artículo presentamos el proyecto y su contexto.
Abstract
The main goal of the ASSAM project is to contribute to
the development of the next generation of intelligent and
semi-autonomous mobility support tools for older persons
and people with disabilities (both cognitive and/or motor)
so that they can be self-dependent enough to autonomously
live in the community. The approach of ASSAM is to
develop three different mobility platforms for different
functional profiles that will be equipped with a navigation
cognitive support that will enhance the autonomy and wellbeing of the users and their abilities to maintain
independent life styles. In this paper we introduce the
project and its context.
1. Introduction
The senior citizens represent a fast growing sector of the
population in Europe and other developed areas according
to Eurostat’s base scenario [10]. This demographic shift is
leading us into an epidemiologic shift. Increasing longevity
and increasing survival to acute accidents and diseases -- in
addition to the increase in the numbers of elderly people -imply an increased prevalence of chronic morbidity and
disability [11]. The increasing number of people affected by
192
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Figure 1 Rolland, i-Walker and the robotic Tricycle concept, the ASSAM platforms
In this paper we present the EU funded project ASSAM:
Assistants for Safe Mobility 9. The main goals of ASSAM
are to cope with elder’s population mobility needs in their
different stages of disability, giving special attention to
cognitive support in order to be able to engage in
community activity.
1.1. Plan of the work
The plan of this paper includes an overview of the main
goals of this project see §2. In particular, we provide details
about the technology involved in §3, a use case scenario in
§4 and an overview of the pilot sites and target population
in §5. In §6 we provide some conclusions and future
expectations for this project.
2. ASSAM: a general view
The ASSAM project [16] aims to compensate for
declining physical and cognitive capabilities of elderly
persons by user-centred development of modular navigation
assistants for various mobility platforms, such as walker,
wheelchair, and tricycle, providing sustained everyday
mobility and autonomy with seamless transition from
indoors to outdoors in environments such as residential
complexes or the neighbourhood quarter.
The goal of the project is to develop modular assistance
systems for all platforms that provide:
• Physical mobility assistance for declining walking
capabilities, but encouraging physical exercise;
• Cognitive assistance for declining visual and mental
capabilities by obstacle recognition and avoidance
• as well as orientation and navigational aid;
• Human support by asking a call centre for route
directions to be presented on the device;
• Security concerning health risks by care centre
connection in case of emergency situations.
All assistants are based on the NaviKit [17] core module
comprising basic navigation hardware (CPU, GPS and
odometry) that shall be the same for cross-platform sharing.
For interaction with the user, a touch screen or tablet PC,
microphones, speakers, or a Bluetooth® headset are added
as required.
The target users will be able to use the mobility assistant
that better suits their functional needs (see § 4). Each one of
them will support their mobility activities and where
possible, encourage their physical exercise. This physical
exercise will be accompanied by cognitive support, in the
form of navigational aid that will let the users know where
they are all the time, what is interesting close to them and
how to reach places in case they get lost. In addition, if
users get overwhelmed by the situation, they can request the
help of a human operator that will have the positional
localization of the user thanks to the ASSAM system, and
will be able to guide the user in his needs.
As the target users are elderly persons, their
vulnerability demands highest standards of respectful
interaction, protection of their privacy, and guarantees for
their security, dignity and wellbeing. For the ASSAM
consortium dignity, autonomy, integrity and privacy of
users are a matter of ethical concern.
The ASSAM consortium includes 10 partners in Spain,
Netherlands and Germany from the industry, research and
end-user’s organizations assuring the multi-disciplinary
approach needed to develop high-quality assistive
technologies.
3. Technology involved
Figure 1 illustrates the ASSAM variants for mobility
assistants, the smart wheelchair Rolland [20] the robotic
rollator i-Walker [19] and the concept tricycle that is under
development. All these robotic mobility supports will have
integrated the Basic Aid, a standard mobility platform with
basic outdoor navigation abilities based on NaviKit [17].
Using additional laser-range sensors, the Navigation Aid
service will enhance the safety of the user by recognising
and warning for steps and obstacles. The sensors also enable
indoor positioning and navigation. This service was already
tested in SHARE-it project [18].
9
Funded under AAL programme Call 5: ICT-BASED SOLUTIONS FOR
(SELF-) MANAGEMENT OF DAILY LIFE ACTIVITIES OF OLDER
ADULTS AT HOME
193
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Whereas these assistants only signal directions and give
warnings, the Driving Assistant proactively corrects the
driving direction to avoid obstacles by controlling the drive,
steering and braking accordingly.
As the most challenging assistant, the Navigation
Assistant allows automated driving (without manual
steering) to a specified target location in a charted indoor
environment. From the bed or sofa, the user can remotely
direct the robotic mobility support to its parking position
out of the way, and call it to return on demand.
So at the end we have a bundle of navigation aids that
can be layered and combined with the different robotic
mobility assistants in order to cope with end users needs.
One of the technical goals of the ASSAM project is to
perform this integration and materialize a seamless
transition between indoors and outdoors environments using
cognitive support and robotic assistants.
3.1. The i-Walker
The i-Walker is a robotic enhanced rollator that supports
user mobility in a novel and safe way, providing an amount
of help in the motion prescribed by clinical counselling
[19]. It is based on a standard walker’s frame enhanced with
the following sensors: front laser scanner, 8 force sensors to
detect the 3 force components in both handlebars and the
normal forces of the floor, odometry and tilt sensors (see
Figure 2). The i-Walker has also been equipped with two
brushless DC motors as the only actuators that serve to
maintain an almost constant pushing force, independently of
the path, as prescribed by medical considerations.
i-Walker detects the forces the user exert on it and how
does it exert them, allowing the embedded intelligence to
decide what support strategies are most suited in each
situation.
The i-Walker is able to detect the forces that the user
exerts on the handlebars thanks to the embedded sensors
and also determines if the user is moving
upwards/downwards on a slope. Depending on the user
situation, the i-Walker provides support, through it’s motor
empowered wheels, to help the user movement during
exercise and training. The user is helped going upwards or
downwards on a slope, transmitting a soft feeling of
constant speed independent from the inclination of the
surface. When the user releases the handlebars the i-Walker
automatically stops. It does not matter if the user is on a
slope or a flat surface; the i-Walker remains braked until
walking continues.
It is a passive rollator, it never pulls the user but thanks
to it sensing capability it is able to know when the user is
pushing (i.e. wants to move) and supports the movement
with a predefined amount of help. It improves the stability
as the normal forces detected by sensors in the frame
indicate the contact of the wheels with the ground,
generating the responding behaviour of the motors all the
time. All the information retrieved by the sensors is logged
and stored for potential analysis by clinical specialists.
Clinicians are able to see trend information about exercise,
the help provided and activity, etc.
So in all, the main features of the i-Walker can be
summarized as:
Figure 2 i-Walker’s electronic distribution
•
•
•
•
Active motor assistance to compensate lack of
muscle force on climbs.
Active brake assistance to compensate lack
muscle force on descents.
Active differential assistance to compensate
unbalanced muscle force.
Recording of sensor measurements and actuators
activities for later evaluation.
4. The ASSAM Pilots
In order to demonstrate and validate the ASSAM
technology and aims, three pilot sites will be implemented.
The envisaged pilot applications will be field trials with the
mobility assistants on the various platforms at the three test
sites, covering a variety of indoor and outdoor
environments. Application scenarios combining clearly
delineated, mutually complementary and indicative topics in
the project context will be defined, and subjects will be
distributed according to the profiles of the three test sites:
• Bremen, DE: elderly users;
• Barcelona, ES: elderly users, users with declining
cognitive faculties;
• Utrecht, NL: users with declining visual faculties.
Note that the different national sites will allow
comparative testing across European countries, languages
and cultures. Field trials at the pilot sites will iterate over 3
phases, with emphasis on
A. Indoor
environments:
user
residences,
environment interaction in BAALL [20];
B. Outdoor environments: courtyard, park, pedestrian
area;
C. Indoor + outdoor environments:
enclosed
residence complexes, local city quarter and shops.
194
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5. Conclusions
One of the most important factors in quality of life for
the elderly is their ability to move around independently and
participate in society. Mobility support is one of the main
factors that the ASSAM project addresses. In this work we
have introduced the ASSAM project that plans to support
elder mobility with different innovative robotic platforms
with different mobility assistants installed on them, adapting
to the user needs. In particular, i-Walker promotes physical
mobility assistance for declining walking capabilities, but
encouraging exercise among users. It has already been
successfully tested on pilot studies with real patients in
clinical environments within a rehabilitation process [22].
6. Acknowledgements
Authors would like to acknowledge support from the EC
funded project ASSAM: Assistants for Safe (Ambient
Assisted Living Joint Programme Call 4). The views
expressed in this paper are not necessarily those of the
ASSAM consortium.
7. References
[1]
Eurostat,
http://epp.eurostat.ec.europa.eu/statistics_explained/index.php/Pop
ulation_structure_and_ageing
[2]
WHO. Who - global burden of disease project
www.who.int/evidence/bod, 2003.
[3]
WHO. World health organization international
classification
of
functioning,
disability
and
health.
http://www3.who.int/icf/icftemplate.cfm?myurl=homepage.html&
mytitle= home%20page, 2004.
[4]
A. Hudakova, A. Hornakova, “Mobility and quality of
life in elderly and geriatric patients”, Int. J. Nurs. Midwifery 3(7),
2011, pp.81-85.
[5]
H. Mollenkopf, F. Marcellini, I. Ruoppila, P.
Flaschenträger, C. Gagliardi, L. "Outdoor mobility and social
relationships of elderly people". Archives of gerontology and
geriatrics 1 May 1997. Volume 24(3) pp.295-310
[6]
U. Cohen, G.D. Weisman, “Environmental Design to
Maximize Autonomy for Older Adults with Cognitive
Impairments”, Generations 1990, 14(suppl 1990) pp.75-8.
[7]
ASSAM project partners. Assistants for Safe Mobility:
the ASSAM Project, 2013. http://www.assam-project.eu/.
[8]
B.Krieg-Brückner, B. Gersdorf, C. Mandel, C.
Budelmann, M. Schröder. “Navigation Aid for Mobility
Assistants.” In Proceedings of the Joint CEWIT-TZI-acatech
Workshop “ICT meets Medicine and Health” ICTMH 2013 .
[9]
U. Cortés, C. Barrué, F. Campana, A.B. MartínezVelasco, C. Urdiales, R. Annicchiarico, C. Caltagirone. “Assistive
technologies for the new generation of senior citizens. The
SHARE-it approach”. International Journal of Computers in
Healthcare Vol I(1) 2010 pp:35-65.
[10]
C. Barrué, R. Annicchiarico, U. Cortés, A. MartínezVelasco, E.X. Martín, F. Campana, C. Caltagirone “The i-Walker:
an intelligent pedestrian mobility aid.” Computational Intelligence
in Medicine 4. Springer-Verlag. L.C. Jain (Ed). 2010.
[11]
B. Krieg-Brückner, T. Röfer, H. Shi, B. Gersdorf:
“Mobility Assistance in the Bremen Ambient Assisted Living
Lab”. GeroPsych 23(2), 2010 121-130
[12]
Centre de Vida Independent http://www.cvi-bcn.org
[13]
B. Giuliani, U. Cortés, A. B. Martínez, C. Barrué, R.
Annicchiarico. “The role of i-Walker in post-stroke
training”. Artificial intelligence research and development:
proceedings of the 15th International Conference of the Catalan
Association for Artificial Intelligence 2012
195
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Guía rápida de evaluación automatizada de
contenidos web según WCAG 2.0 usando
herramientas de software libre
José R. Hilera1, Teresa Díez1, Mª José Domínguez1, Lourdes Moreno2, David Sangilbert1
1
Universidad de Alcalá, España 2
Universidad Carlos III de Madrid, España [email protected]; [email protected]; [email protected];
[email protected]; [email protected]
Resumen
Existe mucha literatura acerca de la evaluación de la
accesibilidad web en general, y, en particular, sobre la
evaluación de contenidos según la versión 2.0 de las pautas
“Web Content Accessibility Guidelines” (WCAG) del World
Wide Web Consortium (W3C), recientemente adoptadas
como estándar internacional ISO/IEC 40500:2012, y como
norma española UNE 139803:2012. Los potenciales
evaluadores de páginas web pueden verse abrumados por
la gran cantidad de información sobre ello, y tener la
errónea sensación de que es algo muy difícil de realizar.
Por esta razón, en este artículo se presenta una breve guía
práctica de evaluación, que en unos pocos pasos, ofrece
una referencia rápida de cómo llevar a c abo una
evaluación de la accesibilidad y con qué herramientas,
orientada especialmente a aquellos interesados en
comenzar a e valuar por primera vez la accesibilidad de
páginas web.
Abstract
There is much literature about the evaluation of web
accessibility in general, and in particular, about on t he
evaluation of content based on version 2.0 of the guidelines
"Web Content Accessibility Guidelines" (WCAG) of the
World Wide Web Consortium (W3C), recently adopted as
international standard ISO / IEC 40500:2012, and Spanish
standard UNE 139803:2012. Potential web pages
evaluators can be overwhelmed by the vast amount of
information about it, and h ave the erroneous impression
that it is very difficult. For this reason, this article presents
a brief practical guide for web pages evaluation that, in a
few steps, provides a quick reference of how to carry out the
evaluation of accessibility and w ith what tools, geared
especially those interested in beginning to evaluate web
accessibility.
1. Introducción
La e valuación de la accesibilidad de contenidos
incluidos en las páginas web ha estado protagonizada desde
los años 90 del pasado siglo XX, por la existencia de las
pautas WCAG (Web Content Accessibility Guidelines),
publicadas por primera vez en 1999 como versión 1.0, y
modificadas en 2008 como versión 2.0, la actualmente
vigente [1]. La importancia de estas pautas se pone de
manifiesto por el hecho de haber sido adoptadas como
estándar internacional ISO en 2012, con el código ISO/IEC
40500 [2]. También en España han sido convertidas en
norma nacional por la Asociación Española de
Normalización y Certificación (AENOR), en este caso
como norma UNE 139803 [3]. Ya existía una versión
anterior de 2004 de esta norma basada en WCAG 1.0, pero
que no era completamente compatible con ella. La nueva
versión de 2012 equivalente al cien por cien con la versión
WCAG 2.0, como ocurre también con la el estándar ISO.
En relación con las pautas WCAG, se han publicado
gran cantidad de trabajos en revistas, en congresos, en la
Web sobre las mismas, con multitud de propuestas sobre su
aplicación. También se han creado herramientas software
que facilitan automatizar en lo posible el trabajo de
evaluación de los contenidos de las páginas web según los
requisitos establecidos en la norma. A mucha de la literatura
y herramientas existentes puede accederse desde el propio
sitio web del W3C, que mantiene una sección denominada
Web Accessibility Initiative (WAI), dedicada en exclusiva a
este campo [4].
La existencia de gran cantidad de información sobre
WCAG 2.0 por una parte permite poner a disposición de los
creadores de contenidos de páginas web y de los
evaluadores de su accesibilidad mucho conocimiento sobre
cómo conseguir páginas web accesibles; per por otra parte
los implicados que comienzan a trabajar en este campo se
pueden ver abrumados precisamente por tanto conocimiento
y no saber realmente cómo empezar a aplicar las pautas de
forma práctica.
A partir de la experiencia de los autores en la evaluación
de páginas web, y en la impartición de cursos, talleres, o
seminarios sobre el tema, se ha creado una breve guía de
evaluación de la accesibilidad web, para principiantes, que
se presenta en este trabajo. Esta guía se resume en
establecer que la evaluación debe realizarse en dos pasos:
• Paso 1: Hacer un examen rápido de los posibles
problemas de accesibilidad de la página web.
196
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
•
Paso 2: Evaluar la accesibilidad de la página web
según la norma WCAG 2.0.
En la literatura se han descrito varias debilidades de las
WCAG 2.0, desde el punto de vista, por ejemplo, de la
facilidad con la que un evaluador novel interpreta los
criterios de conformidad. Se han encontrado varios trabajos
de tipo experimental en esta línea [5] [6]. En [6] los
resultados obtenidos ponen de relieve la dificultad de
evaluadores principiantes por saber cómo testear algunos
criterios de conformidad, y se indica la necesidad de dotar
de más recursos a los evaluadores como material de apoyo y
herramientas para ayudarles y asistirles en sus procesos de
evaluación, y así obtener resultados consistentes. Otros dan
un paso más, proporcionando una herramienta de gestión
del conocimiento de la accesibilidad para ayudar a
evaluadores noveles en el proceso de evaluación de la
accesibilidad [7].
En las siguientes secciones del artículo se presentan las
acciones a realizar en cada uno de los pasos indicados. Y el
artículo finaliza con una sección de conclusiones y posible
trabajo futuro en relación con la guía práctica presentada.
2. Paso 1: Hacer un examen
rápido
de
los
posibles
problemas de accesibilidad
de la página web
Antes de llevar a cabo la evaluación del cumplimiento
de los requisitos de accesibilidad establecidos en la norma
WCAG 2.0, es conveniente llevar a cabo una evaluación
preliminar que permita al evaluador hacerse una idea
general sobre los posibles problemas de accesibilidad que
pueden presentar los contenidos de una página web,
poniéndose incluso en el lugar de un usuario con
discapacidad que acceda a dicha página.
Este primer paso sería útil en el caso de los
desarrolladores de un sitio web, para adelantar posibles
fallos estructurales que sería conveniente atajar lo antes
posible antes de seguir con el desarrollo del mismo.
En la tabla 1 se muestra un resumen de las acciones que
se recomiendan realizar como parte de este examen rápido.
Las primeras consisten en desactivar diferentes elementos
de la página, como JavaScript, imágenes y hojas de estilo
CSS; y comprobar si se pierde o no información importante,
ya que puede ocurrir que un usuario tenga estos elementos
desactivados en su navegador, por ejemplo porque utilice un
navegador de texto.
A continuación se recomienda una comprobación rápida
de posibles problemas de contraste, ya que existen
herramientas que facilitan esta labor y permiten incluso
comprobar las dificultades que presenta la combinación de
colores a usuarios con determinados problemas de visión.
La siguiente acción trata de comprobar si existe una
estructura lógica de encabezados, algo muy importante para
los usuarios que utilizan ayudas técnicas como lectores de
pantalla, ya que les permitiría navegar a través de secciones
de contenido marcadas por los encabezados, en lugar que
tener que realizar una lectura secuencial por todo el
contenido.
También es importante validar que la estructura de
etiquetas HTML de la página es correcta, por ejemplo que
no haya etiquetas sin cerrar, para evitar posibles problemas
con las ayudas técnicas. Y lo mismo con las hojas de estilo
CSS.
Por último, se recomienda que el evaluador compruebe
que se puede seguir accediendo al contenido web simulando
algunas de las características del contexto en el que un
usuario utiliza un producto de apoyo (o una estrategia)
específico, por ejemplo, activando un lector de pantalla o
utilizando un navegador de sólo texto.
197
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
ACCIÓN
Desactivar
JavaScript
Desactivar
imágenes
Desactivar
hojas de
estilo CSS
Examinar el
contraste de
color
Examinar
encabezados
Comprobar
parpadeo de
imágenes
OBJETIVO
Comprobar que no se
pierde información de la
página y que sigue siendo
navegable.
Comprobar que no se
pierde información de la
página y que sigue siendo
navegable.
Activar que se vea el
texto alternativo a cada
imagen en lugar de la
imagen (comprobar que
es
significativo
de
semántica equivalente a
la imagen, y que no es
demasiado largo).
En imágenes decorativas
se puede poner el texto
alternativo nulo “”..
Comprobar que no se
pierde información de la
página y se sigue un
orden lógico de lectura.
Comprobar valores de
contraste de color de las
combinaciones de colores
para
(fondo/fuente)
detectar donde haya
problemas.
Comprobar si existe una
estructura lógica y de su
etiquetado a través de
etiquetas de encabezado
en la página.
Si la página incluye un
vídeo o imágenes en
movimiento, comprobar
posibles problemas de
epilepsia por un parpadeo
demasiado rápido.
HERRAMIENTAS GRATUITAS A UTILIZAR
Opción desactivar JavaScript del navegador, o usando extensiones para desarrollo,
como la siguiente:
Ejemplo: En Firefox, la extensión “Web Developer Extension”, disponible en
http://chrispederick.com/work/web-developer/download/firefox/.
Opción desactivar imágenes del navegador, o usando extensiones como las
siguientes:
Ejemplo 1: Para Firefox, usar la extensión “Accessibility Evaluation Toolbar”,
disponible en: https://addons.mozilla.org/es/firefox/addon/accessibility-evaluationtoolb/.
En esta barra, se debe activar la opción de ver texto alternativo, disponible en: Text
equivalents -> Show Text equivalents.
Ejemplo 2: Para Firefox, usar la extensión “Web Developer Extension”, disponible
en: https://addons.mozilla.org/en-US/firefox/addon/web-developer/ .
En esta barra, se pueden activar estas opciones:
− Ver texto alternativo junto con la imagen, opción disponible en: Images ->
Display Alt attributes.
− Ver sólo texto alternativo, opción disponible en: Images -> Replace Images with
Alt attributes.
Opción desactivar las hojas de estilo CSS usando extensiones como las siguientes:
Ejemplo 1: Para Firefox, usar la extensión “Accessibility Evaluation Toolbar”,
disponible en: https://addons.mozilla.org/es/firefox/addon/accessibility-evaluationtoolb/.
En esta barra, se debe desactivar la opción de hojas de estilo, disponible en: Style ->
Author CSS.
Ejemplo 2: Para Firefox, usar la extensión “Web Developer Extension”, disponible
en: https://addons.mozilla.org/en-US/firefox/addon/web-developer/ .
En esta barra, se pueden desactivar mediante mediante la opción disponible en: CSS
-> Disable Styles.
Usar un analizador de contraste o una extensión para el navegador:
Ejemplo 1: Para Firefox, usar la extensión “WCAG Contrast Checker”, disponible
en: https://addons.mozilla.org/es/firefox/addon/wcag-contrast-checker/.
Ejemplo 2: Usar el analizador online WAVE, que permite probar colores para
conseguir contraste adecuado, disponible en: http://wave.webaim.org/.
En Firefox, se accede también a este analizador desde la extensión “Accessibility
Evaluation Toolbar”.
Ejemplo 3: Instalar en local y usar el analizador “Colour Contrast Analyser”,
programa que permite comprobar puntos concretos de la página, disponible en:
http://www.visionaustralia.org/docs/businesses-and-professional/cca-2-2zip.zip?sfvrsn=2. Usar una extensión para el navegador.
Ejemplo 1: Para Firefox, usar la extensión “HeadingsMap”, disponible en:
https://addons.mozilla.org/es/firefox/addon/headingsmap/.
Ejemplo 2: Para Firefox, utilizar la extensión “Firefox: Accessibility Evaluation
Toolbar”, disponible en: https://addons.mozilla.org/es/firefox/addon/accessibilityevaluation-toolb/.
En esta barra, se debe activar la opción de ver cabeceras, disponible en: Navigation
-> Headings.
Usar un detector de problemas de epilepsia.
Ejemplo: Programa PEAT (Photosensitive Epilepsy Analysis Tool), disponible en:
http://trace.wisc.edu/peat/
198
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
ACCIÓN
Validar el
formato
HTML
Validar las
hojas de
estilo CSS
Activar un
lector de
pantalla o
navegador
de texto
Probar
varios
navegadores
web
OBJETIVO
Comprobar si el formato
de etiquetas HTML es
correcto.
Comprobar si es correcto
el formato de hojas de
estilo CSS usadas por la
página.
Comprobar si un lector de
pantalla puede leer todos
los
elementos,
y
comprobar los problemas
para leer una página con
muchos enlaces, y si hay
un orden de lectura.
Comprobar que la página
se
visualiza
correctamente en varios
navegadores
web
y
versiones
de
estos
diferentes.
HERRAMIENTAS GRATUITAS A UTILIZAR
Usar el validador oficial de W3C.
Disponible en línea en: http://validator.w3.org.
En Firefox, este validador de W3C también está incluido en la extensión
“Accessibility Evaluation Toolbar”, disponible en:
https://addons.mozilla.org/es/firefox/addon/accessibility-evaluation-toolb/.
En esta barra, se debe activar la opción de validación HTML, disponible en:
Validators -> W3C HTML Validator.
Usar el validador oficial de W3C.
Disponible en línea en: http://jigsaw.w3.org/css-validator.
En Firefox, este validador de W3C también está incluido en la extensión
“Accessibility Evaluation Toolbar”, disponible en:
https://addons.mozilla.org/es/firefox/addon/accessibility-evaluation-toolb/.
En esta barra, se debe activar la opción de validación CSS, disponible en:
Validators -> W3C CSS Validator.
Usar un lector de pantalla o un navegador de texto.
Ejemplo 1: Instalar en local y usar el lector de pantalla NVDA, disponible en:
http://www.nvda-project.org/wiki/Download.
Ejemplo 2: Instalar en local y usar el navegador de texto WebbIE, disponible en:
http://www.webbie.org.uk/es/index.htm.
Navegador web.
Ejemplos: Internet Explorer, Firefox, Chrome, etc.
Tabla 1. Acciones a realizar para hacer un examen rápido de accesibilidad de una página web
3.
Paso
2:
Evaluar
la
accesibilidad de la página
web según la norma WCAG
2.0
evaluación de accesibilidad de sitios web según WCAG 2.0,
como la los recogidos recientemente en el artículo [9].
En la tabla 2 se muestra un resumen de las seis acciones
que se recomienda realizar como parte de la evaluación del
nivel de cumplimiento de las WCAG 2.0 en una página
web.
Una vez realizado el examen rápido anterior, el
evaluador tiene una idea general de los principales
problemas de accesibilidad que puede presentar la página.
Es por tanto el momento de abordar la evaluación formal
del nivel de conformidad con la WCAG 2.0, es decir de
comprobar cuáles se cumplen de los 61 criterios de
conformidad, que la norma organiza en 12 pautas y éstas, a
su vez en 4 principios generales [1]. Cada criterio de
conformidad tiene un nivel de conformidad A, AA o AAA.
Para que una página web sea conforme con las WCAG 2.0,
debe satisfacer todos y cada uno de los criterios de
conformidad según el nivel de conformidad que se quiera
alcanzar en la página: A, AA o AAA.
Existen procedimientos sistemáticos para llevar a cabo
la evaluación, como la metodología WCAG-EM que está
elaborando el W3C, y que cuando esté finalizada será la
referencia obligada para ello [8]. Mientras tanto, una buena
opción es imitar el procedimiento seguido en casos reales de
199
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
ACCIÓN
Hacer una
validación
global de
accesibilidad de
la página según
las WCAG 2.0
OBJETIVO
Obtener de forma
automática una
puntuación global
de referencia
sobre la
conformidad con
las WCAG 2.0.
Hacer una
evaluación
detallada de
accesibilidad
web de la
página según
WCAG 2.0
Obtener de forma
automática una
evaluación de los
61 criterios de
conformidad
establecidos por
WCAG 2.0.
HERRAMIENTAS GRATUITAS A UTILIZAR
Usar una herramienta que devuelva una puntuación global de accesibilidad según WCAG 2.0.
Ejemplo 1: Usar la herramienta en línea eXaminator, disponible en: http://examinator.ws.
Esta herramienta obtiene una puntuación global entre 0 y 10.
Ejemplo 2: Usa la herramienta en línea eGOVMON, disponible en
http://accessibility.egovmon.no/en/pdfcheck/.
Esta herramienta obtiene una puntuación global entre 0 y 100.
Se recomienda utilizar al menos 4 herramientas diferentes, ya que unas herramientas pueden
subsanar las limitaciones que otras tienen.
Las 4 herramientas en línea de evaluación WCAG 2.0 recomendadas, a las que se debe
proporcionar la dirección URL de la página a evaluar, son las siguientes:
− TAW, disponible en http://www.tawdis.net.
− Cynthia Says, disponible en http://www.cynthiasays.com
− AChecker, disponible en http://achecker.ca.
− eXaminator, disponible en http://examinator.ws.
− eGOVMON, disponible en: http://accessibility.egovmon.no.
En Firefox, a las herramientas TAW y AChecker también se puede acceder directamente
desde la extensión “Accessibility Evaluation Toolbar”, disponible en:
https://addons.mozilla.org/es/firefox/addon/accessibility-evaluation-toolb/.
En esta barra, se debe activar la opción Tools.
Si la página
contiene
documentos
PDF, hacer una
evaluación
detallada de su
accesibilidad
WCAG 2.0
Realizar una
comprobación
manual de
todos los
criterios de
conformidad
Obtener de forma
automática una
evaluación de los
criterios de
conformidad de
WCAG 2.0 que
afectan a
documentos PDF.
Revisar los
resultados de las
herramientas
automáticas y
evaluar los
criterios que no
pueden
determinarse
automáticamente.
Para evaluar páginas web que tengan clave de acceso, existen estas alternativas:
− Hacer una copia de la página a evaluar en un servidor web sin clave de acceso, y utilizar las
4 herramientas de evaluación en línea recomendadas.
− Utilizar una herramienta que permita enviar directamente un archivo html en lugar de una
dirección URL de la página. Como es el caso de AChecker.
− Utilizar una herramienta que permita pegar código html. Como es el caso de AChecker.
− Utilizar una extensión del navegador que permita evaluar la página web que se está
visualizando en cada momento. En el caso de Firefox, existe la extensión FireEyes,
disponible en: http://www.deque.com/products/worldspace-fireeyes/download-worldspacefireeyes.
Usar una herramienta de evaluación de documentos PDF según WCAG 2.0.
Ejemplo: Herramienta en línea eGOVMON, disponible en
http://accessibility.egovmon.no/en/pdfcheck/.
Complementar con herramientas de evaluación general de accesibilidad de documentos PDF:
Ejemplo 1: Programa PAC, disponible en http://www.access-for-all.ch/en/pdf-lab/pdfaccessibility-checker-pac/download-pac.html.
Ejemplo 2: Programa Adobe Acrobat Pro, disponible la versión 7 de forma gratuita en
http://www.adobe.com/downloads/cs2_downloads/. Permite corregir errores de accesibilidad
directamente en el documento PDF.
Complementar con un lector accesible o lector en modo texto de archivos:
Ejemplo: Programa “Accesible PDF reader”, disponible en:
http://www.webbie.org.uk/accessiblepdf/.
Utilizar todas las herramientas anteriores.
Utilizar como informe una lista de chequeo de criterios de conformidad o un informe
completo.
Ejemplos de listas de chequeo:
− Lista en formato .rtf, disponible en:
http://www.cc.uah.es/hilera/accesibilidad/CuestionarioAccesibilidadWebWCAG2.rtf.
− Lista en formato de hoja de cálculo, disponible en:
http://www.usableyaccesible.com/archivos/herramienta_consultoria_accesibilidad_WCAG2
.xlsx.
− Caso real de una lista de chequeo del W3C, disponible en:
http://www.w3.org/WAI/demos/bad/before/reports/home.html.
200
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
ACCIÓN
Redactar un
informe de
evaluación
(Opcional)
Calcular una
puntuación
sobre la
accesibilidad de
la página web.
OBJETIVO
Registrar en un
documento datos
del evaluador y el
resultado de la
evaluación de
accesibilidad.
Si el evaluador lo
estima oportuno,
puede
complementar el
nivel WCAG 2.0
obtenido (A, AA
o AAA) con una
medida numérica
global de
accesibilidad.
HERRAMIENTAS GRATUITAS A UTILIZAR
Ejemplo de plantilla para informe completo:
− Estructura de informe recomendada por el W3C, disponible en:
http://www.w3.org/WAI/eval/template.html.
Existen herramientas ya citadas, que ofrecen una puntuación de la accesibilidad de una página
web, en función del cumplimento de ciertos criterios de conformidad WCAG 2.0
seleccionados:
− Ejemplo 1: eXaminator, disponible en http://examinator.ws.
− Ejemplo 2: eGOVMON, disponible en: http://accessibility.egovmon.no.
Aunque no existen herramientas que las calculen, otros autores han definido otros índices para
obtener una puntuación numérica de accesibilidad, que pueden calcularse fácilmente mediante
el uso de cualquier hoja de cálculo.
Algunas fórmulas de referencia pueden ser las utilizadas en estudios de accesibilidad, como
las utilizadas en los estudios de accesibilidad de sitios web. Algunos son los siguientes:
− Ejemplo 1: Índice de accesibilidad que utiliza un conjunto de 12 indicadores, en la página:
http://www.discapnet.es/Castellano/areastematicas/Accesibilidad/Observatorio_infoaccesibil
idad/informesInfoaccesibilidad/Paginas/default.aspx.
− Ejemplo 2: Índice de accesibilidad que utiliza un conjunto de 14 indicadores, con una
puntuación entre 0 y 100, y disponible en:
http://redc.revistas.csic.es/index.php/redc/article/view/774/909.
Tabla 2. Acciones a realizar para hacer la evaluación de accesibilidad de una página web según WCAG 2.0
En la tabla 2 se han recogido las herramientas para
evaluar la accesibilidad del contenido de una página web y
de posibles documentos PDF que incluya la página. Además
de documentos PDF, una página puede contener otros
elementos de información, como pueden documentos de
texto (en formato .doc, .docx, .odt, o .rdf), presentaciones
(en formato .ppt, .pptx o .odp), o hojas de cálculo (en
formato .xls, .xlsx o .ods), software embebido en la página
(en formato Flash, Silverlight, Java, entre otros).
En general no existen herramientas de libre uso para la
evaluación directa de la accesibilidad de los contenidos de
tales archivos. En el caso de los documentos ofimáticos,
existen utilidades de evaluación integradas en la suite MS
Office 2010 [10], pero este paquete no es gratuito. Aunque
siempre existe el recurso de transformarlos a PDF y utilizar
alguna de las herramientas citadas en la tabla [10].
En el caso del software embebido en las páginas web,
que queda fuera del control del navegador, tampoco existen
herramientas de evaluación automática de libre uso. El
W3C ha identificado los requisitos de accesibilidad que
debiera cumplir este tipo de software, en su guía de
referencia rápida de WCAG 2.0 [11]. Pero en este caso,
puede no ser suficiente lo indicado en dicha guía, y es
necesario evaluar si dicho software cumple también el
estándar ISO 9241-171:2008 sobre accesibilidad general del
software [12]. Este estándar es equivalente a la norma
española UNE 139802:2009 [13].
4. Conclusiones
La evaluación de la accesibilidad de una página web
aplicando los 61 criterios de conformidad establecidos por
la norma WCAG 2.0 no es una tarea sencilla. Existe mucha
información al respecto en la literatura, orientada a explicar
los principios, pautas y criterios de la recomendación del
W3C, o a presentar herramientas de utilidad.
Toda esta información es muy útil para evaluadores
expertos. Sin embargo, en muchas ocasiones personas que
desear introducirse en el campo de la evaluación de la
accesibilidad, se ven abrumados por tanta información y
precisan de guías de referencia que les faciliten su
incorporación en este campo.
En este trabajo se ha presentado una guía rápida que
establece una serie de pasos básicos que deberían seguirse
en el uso de herramientas de software libre de ayuda en la
evaluación de la accesibilidad web. Aunque el objetivo del
trabajo es el uso de herramientas gratuitas, es importante
reconocer que existen herramientas comerciales también
ampliamente utilizadas por personas con discapacidad
(como es el caso del lector de pantalla Jaws). Sin embargo,
las herramientas seleccionadas en la guía no presentan
limitaciones importantes respecto a similares herramientas
comerciales.
El propio carácter de ser una guía rápida, exige que una
vez el interesado empiece a realizar evaluaciones de páginas
web, debería documentarse más en profundidad sobre todos
los aspectos relacionados no sólo con la evaluación de la
accesibilidad de páginas web ya creadas, sino el todo lo que
concierne a la integración de la accesibilidad en el proceso
de diseño de páginas web [14], con las modificaciones de
páginas web ya existentes para hacerlas accesibles [15], o
con la incorporación de la accesibilidad en los nuevos
estándares de representación de páginas web [16].
El alcance y efectividad de la guía ha sido probada en la
evaluación de sitios web reales, y sus limitaciones están
siendo corregidas de forma continua a través de la
experiencia de su aplicación.
Se ha previsto ampliar la guía con consejos e
instrucciones que faciliten su aplicación, especialmente a
personas que se inician en el ámbito de la accesibilidad
web.
201
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5. Referencias
[1] Web Content Accessibility Guidelines (WCAG) 2.0, World
Wide Web Consortium (W3C), 2008. Disponible en
http://www.w3.org/TR/WCAG20/.
[2] ISO/IEC 40500:2012, Information technology -- W3C Web
Content Accessibility Guidelines (WCAG) 2.0, International
Organization for Standardization (ISO), Ginebra, Suiza, 2012.
[3] UNE 139803:2012, Requisitos de accesibilidad para
contenidos en la Web, Asociación Española de Normalización y
Certificación,
Madrid,
España,
2012.
Disponible
en
http://administracionelectronica.gob.es/PAe/accesibilidad/UNE139
803=2012.pdf.
[4] Web Accessibility Initiative (WAI), World Wide Web
Consortium
(W3C),
2013.
Disponible
en
http://www.w3.org/WAI/.
[5] G. Brajnik, G., Yesilada, Y. and Harper, S. 2010. Testability
and validity of WCAG 2.0: the expertise effect. In Proceedings of
the 12th international ACM SIGACCESS conference on
Computers and accessibility (ASSETS '10). ACM, New York, NY,
USA, 43-50.
[6] F. Alonso, J.L., Fuertes, L.A. Gonzalez and L. Martinez.2010.
On the testability of WCAG 2.0 for beginners. In Proceedings of
the 2010 International Cross Disciplinary Conference on Web
Accessibility (W4A) (W4A '10). ACM, New York, NY, USA.
DOI=10.1145/1805986.1806000
[7] Christopher Bailey and Elaine Pearson. 2011. Development
and trial of an educational tool to support the accessibility
evaluation process. In Proceedings of the International CrossDisciplinary Conference on Web Accessibility (W4A '11). ACM,
New York, NY, USA, , Article 2 , 10 pages.
DOI=10.1145/1969289.1969293
[8] Website Accessibility Conformance Evaluation Methodology
(WCAG-EM) 1.0, World Wide Web Consortium (W3C), 2013.
Disponible en http://www.w3.org/TR/WCAG-EM/.
[9] J.R. Hilera, L. Fernández-Sanz, E. Suárez, E.T. Vilar,
“Evaluación de la accesibilidad de páginas web de universidades
españolas y extranjeras incluidas en rankings universitarios
internacionales”, Revista Española de Documentación Científica,
Madrid, España, 2013, vol. 36, no. 1. Disponible en
http://redc.revistas.csic.es/index.php/redc/article/view/774/909.
http://labda.inf.uc3m.es/doku.php?id=es:labda_personal:personal_l
moreno#ReDocuAcc.
[11] How to Meet WCAG 2.0, World Wide Web Consortium
(W3C),
2012.
Disponible
en
http://www.w3.org/WAI/WCAG20/quickref/.
[12] ISO 9241-171:2008, Ergonomics of human-system interaction
-- Part 171: Guidance on software accessibility, International
Organization for Standardization (ISO), Ginebra, Suiza, 2008.
[13] UNE 139802:2009, Requisitos de accesibilidad del software,
Asociación Española de Normalización y Certificación, Madrid,
España, 2012.
[14] L. Moreno, AWA, Marco metodológico específico en el
dominio de la accesibilidad para el desarrollo de aplicaciones
web, Tesis doctoral, Universidad Carlos III, Madrid, España, 2010.
Disponible
en
http://labda.inf.uc3m.es/lib/exe/fetch.php?media=tesis:tesis_doctor
al_lourdes_moreno.pdf.
[15] D. Sangilbert, “Reingeniería de una aplicación web para que
sea accesible”, Actas del IV Congreso Internacional sobre
Aplicación de Tecnologías de la Información y Comunicaciones
Avanzadas (ATICA’2012), Universidad Técnica Particular de Loja,
Loja, Ecuador, 2012, pp. 129-136.
[16] T. Díez, M.J. Domínguez, J.J. Martínez, J.J. Sáenz, “Creación
de páginas Web accesibles con HTML5”, Actas del IV Congreso
Internacional sobre Aplicación de Tecnologías de la Información
y Comunicaciones Avanzadas (ATICA’2012), Universidad Técnica
Particular de Loja, Loja, Ecuador, 2012, pp. 119-128.
6. Derechos de autor
El autor o los autores de los artículos presentados como
soporte documental para sus intervenciones en el Congreso,
en el mismo acto de enviarlos para su aprobación, aceptan
la cesión de los derechos de autor sobre los mismos para su
publicación en el libro de actas del Congreso.
7. Agradecimientos
Este trabajo ha sido financiado en parte por la Comisión
Europea, a través del proyecto ESVI-AL del programa
ALFA.
[10] L. Moreno, Recursos para elaborar documentación accesible,
Universidad Carlos III, Madrid, España, 2012. Disponible en
202
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Servicios de Integración Laboral para Personas con Discapacidad Mediante la TV Conectada
Carlos Alberto Martín Edo
José Manuel Menéndez García
Guillermo Cisneros Pérez
Grupo de Aplicación de Telecomunicaciones Visuales (G@TV)
E. T. S. de Ingenieros de Telecomunicación - Universidad Politécnica de Madrid {cam, jmm, gcp}@gatv.ssr.upm.es
Resumen
Este artículo resume el proyecto INLADIS, que ha
consistido en la implementación de un conjunto de
herramientas accesibles para la integración laboral de las
personas con discapacidad a través de la pantalla de TV y
de la pantalla del ordenador mediante HbbTV, una
tecnología estándar para la provisión de contenidos y
servicios de TV Conectada.
Abstract
This paper summarizes the INLADIS project, which has
carried out the implementation of a set of accessible tools
for the work integration of people with disabilities through
the TV screen and the computer screen by means of HbbTV,
a standard technology for providing Connected TV services
and content.
1. Introducción
En los últimos años se ha hecho cada vez más patente el
proceso de convergencia tecnológica entre dos mundos
tradicionalmente separados, por una parte, la transmisión de
contenidos audiovisuales y la TV, y, por otra, Internet y los
ordenadores. Este proceso de convergencia afecta tantos a
las redes, como a los terminales y servicios. Se pueden citar
un gran número de ejemplos, tales como el auge de portales
como youtube.com o la disponibilidad de servicios del tipo
“TV a la carta” en las webs de los operadores de TV. Este
proceso ha sido paralelo al aumento de tráfico audiovisual
en Internet así como al proceso de despliegue de la TV
digital, que se enmarca en un fenómeno más amplio de
digitalización de la información en cualquier soporte y, por
tanto, de una homogeneización en la representación de los
datos que facilita el procesamiento, la transmisión y la
integración de nuevos contenidos y servicios.
Imagen 1. Diagrama de la TV conectada
Dentro de este entorno de convergencia ha aparecido un
nuevo paradigma, que recibe distintos nombres, como TV
conectada, Smart TV, TV híbrida o HBB (Hybrid Broadcast
Broadband) y que se caracteriza por la existencia de
pantallas que son capaces de recibir y de reproducir
contenidos (particularmente contenidos multimedia)
llegados tanto de una de red de radiodifusión (como la TDT
o el satélite) como de Internet. Para ello, la pantalla de TV
cuenta con un conector Ethernet o una interfaz wifi, de
modo que se convierte en un equipo más de la red
doméstica del usuario, capaz así de recibir bajo demanda
contenidos directamente a través de Internet gracias a la red
de acceso contratada por el usuario, supuesta de banda
ancha, como ADSL o fibra.
En la imagen 1 (extraída del estándar HbbTV [1]) se
muestra esquemáticamente este nuevo paradigma. La
pantalla de televisión recibe los contenidos tanto de la red
de difusión de la izquierda (satélite en este caso) como de
Internet, a la derecha. Las flechas entre los elementos
indican los flujos de información. Así, la red de difusión
permite la entrega de contenido audiovisual lineal, mientras
que Internet posibilita la recepción de contenidos no
lineales. Además, en la imagen 1 se representa cómo la
disponibilidad de conexión a Internet se emplea como canal
de retorno.
La disponibilidad de la conexión de banda ancha supone
una serie de ventajas (tales como la posibilidad de enviar
vídeo codificado en una buena calidad, la existencia de un
canal de retorno del tipo “siempre conectado” y las
203
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
posibilidades de personalización), que abren un amplio
abanico de nuevos servicios y contenidos multimedia para
el usuario a través de la pantalla de TV, entre los cuales han
predominado hasta la fecha los portales de contenidos
audiovisuales bajo demanda, bien recopilando a modo de
biblioteca multimedia los últimos programas emitidos (lo
que en ocasiones se denomina catch-up), bien con
contenidos de características novedosas y que no se están
difundiendo en la actualidad, como es el caso de los
contenidos 3D disponibles en el portal de TV conectada del
fabricante Samsung.
En la Cátedra Indra – Fundación Adecco en la
Universidad Politécnica de Madrid para las Tecnologías
Accesibles, que gestiona el grupo de investigación al que
pertenecen los autores, se vio la oportunidad de aprovechar
este nuevo paradigma tecnológico y sus potencialidades
para la prestación de servicios de accesibilidad e integración
laboral para las personas con discapacidad, de acuerdo con
los objetivos de la propia cátedra y de las entidades que la
patrocinan, que consisten en favorecer la integración laboral
de las personas con discapacidad y en promover la
accesibilidad audiovisual. La utilización de la pantalla de
TV para la prestación de estos servicios permite llegar a un
mayor número de usuarios que otros dispositivos gracias a
su penetración y a la familiaridad con que es vista. Además,
se trata de una interfaz intrínsecamente concebida para la
presentación de contenidos multimedia. Este trabajo se ha
llevado a cabo en el marco del Proyecto INLADIS –
Plataforma Multipantalla para la Integración Laboral de
las Personas con Discapacidad. La presencia de la
Fundación Adecco en la cátedra ha permitido traer al
proyecto los requisitos y criterios del mundo de la
discapacidad.
2. HbbTV
HbbTV (Hybrid Broadcast Broadband TV), publicado
por el ETSI (European Telecommunications Standards
Institute) con el código TS 102 796 [1] es un estándar de
interoperabilidad, que permite que tanto los fabricantes
como los operadores de TV puedan explotar sus portales de
contenidos de TV conectada. Es habitual encontrar en la
cadena de distribución de electrónica de consumo pantallas
que declaran conformidad con HbbTV, lo que permite
augurar una implantación exitosa de este estándar.
En el caso de los portales de los fabricantes
(aplicaciones “broadcast-independent”), el acceso se realiza
mediante un botón específico del mando (del tipo
Internet@TV), mientras que las aplicaciones del operador
de TV (o “broadcast-related”) quedan disponibles gracias a
que junto con la señal difundida se multiplexa una tabla de
señalización con la URL que el navegador de la pantalla ha
de visitar.
Además, frente a modelos anteriores de TV interactiva,
HbbTV no requiere unas capacidades avanzadas (o por lo
menos, no más avanzadas que las pantallas que soportan
una especificación propietaria de TV conectada, como las
que han desarrollado la mayoría de los principales
fabricantes), por lo que el soporte de esta tecnología no
penaliza el precio del dispositivo.
En el marco del proyecto INLADIS se vio que HbbTV
era la especificación de TV conectada más adecuada para
poner en marcha los servicios que se explicarán en seguida,
al tratarse de un estándar abierto y público, de modo que un
desarrollador puede conocer toda la información sobre el
comportamiento y las capacidades de la pantalla.
La especificación de HbbTV referencia otras tecnologías
previas con la intención de facilitar el despliegue de
servicios al utilizar otros componentes ya implementados.
Así, las principales dependencias normativas de HbbTV son
CE-HTML (HTML para dispositivos de electrónica de
consumo, de acuerdo con la especificación CEA-2014) [2],
el DAE (Declarative Application Environment, especificado
por el OIPF, Open IPTV Forum) y la norma DVB para
sincronización y señalización en entornos de TV conectada,
publicada por ETSI como TS 102 809 [3]. HbbTV también
soporta CSS y JavaScript (Ajax incluido). Para la
reproducción de contenido audiovisual no lineal y la
especificación de protocolos, HbbTV referencia otras
normas del OIPF.
3. INLADIS
El objetivo primordial de INLADIS ha sido ver cómo
HbbTV podía ser empleado para la provisión de nuevos
servicios a través de la TV pensando en las personas con
discapacidad y, en particular, su integración laboral, sin
restringirse a perfiles concretos. Puesto que un requisito
para estos nuevos servicios en el marco del proyecto era la
accesibilidad, además INLADIS ha servido para estudiar
cómo las capacidades de HbbTV pueden servir para
proporcionar servicios de accesibilidad a los nuevos
contenidos, como ya hizo en el pasado el grupo de
investigación de los autores con otras novedades
tecnológicas [4]. Existen también propuestas para utilizar
HbbTV para la prestación de servicios de accesibilidad
audiovisual [5], mientras que INLADIS se ha orientado a
hacer accesibles las herramientas de integración laboral
desarrolladas.
Dado que la TV conectada se encuentra todavía en fase
de despliegue y se siguen produciendo nuevas versiones del
estándar, todavía se está a tiempo de diseñar los nuevos
servicios para que estén disponibles para el mayor número
de usuarios, cumpliendo así el principio del diseño para
todos.
Puesto que las aplicaciones HbbTV se conciben para ser
presentadas en los navegadores embebidos en las pantallas
de TV, que son dispositivos de electrónica de consumo con
unas capacidades limitadas, con más motivo podrán
presentarse también en los navegadores de un hardware de
propósito general. Con esta premisa se optó en el proyecto
INLADIS desde su comienzo por prever la explotación de
los servicios de integración laboral a través de ambas
pantallas, lo que constituye una característica novedosa,
dado que habitualmente las aplicaciones HbbTV se plantean
para presentarse únicamente en la pantalla de televisión.
La plataforma INLADIS consta de cuatro servicios, los
cuales están accesibles desde la pantalla principal, como se
muestra en la imagen 2.
204
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Imagen 2. Página inicial del portal INLADIS
En primer lugar, se encuentran los cursos de formación,
que utilizan las capacidades del estándar para proporcionar
contenido multimedia, como ficheros de audio y vídeo. Los
cursos se editan a partir de una interfaz web también creada
en el proyecto, de modo que un operario proporciona los
contenidos (texto, imágenes y vídeo) y se generan
automáticamente los ficheros que permiten la explotación a
través de HbbTV. Para esta funcionalidad se utilizan las
capacidades de HbbTV para el manejo de ficheros XML.
Con el fin de facilitar el seguimiento de los cursos por parte
de los usuarios, los cursos de estructuran en capítulos y en
páginas y se limita el número de caracteres que pueden
aparecer simultáneamente en una pantalla. De este modo se
conforma el árbol de navegación a través de los cursos.
La segunda herramienta consiste en un buscador de
ofertas de empleo dirigidas a personas con discapacidad. Se
trata de ofertas reales, que se integran en la plataforma de
manera automática cuando los consultores de la Fundación
Adecco las editan, a la vez que se envían a otros portales de
empleo. Para ello, dirige una petición al servidor de la
plataforma, la cual incluye toda la información necesaria en
un fichero XML, que se parsea en el servidor. Es posible
realizar búsquedas a partir de dos criterios: la provincia y el
sector de actividad, seleccionables en sendas pantallas
consecutivas. A continuación, se muestra una pantalla con
un índice de las ofertas que cumplan los criterios de
búsqueda (imagen 3) y el usuario puede ampliar la
información sobre cada una de ellas.
Imagen 3. Lista de ofertas reales de empleo
El tercer servicio consiste en un foro de discusión
abierto a la participación de los usuarios. Se creó por
sugerencia de la Fundación Adecco, de modo que sirviese
como punto de discusión de cuestiones laborales para
personas con discapacidad y con formación en tecnologías
de la información y la comunicación. Si bien las pantallas
de TV con HbbTV incorporan mecanismos para introducir
texto (nótese que toda la interacción de usuario se realiza
mediante el mando a distancia), es un proceso laborioso, por
lo que la inserción de nuevos mensajes parece una tarea más
propia de la utilización de la interfaz PC. En cambio, la
interfaz TV sí puede emplearse para leer los mensajes.
La cuarta herramienta consiste en información estática
sobre la integración laboral de las personas con
discapacidad y está destinada tanto a empleadores como a
solicitantes de empleo. Incluye información como la
tramitación de certificados o un resumen de las
disposiciones legislativas que buscan la integración laboral
de las personas con discapacidad bien con contratos
temporales o fijos.
4. Accesibilidad en INLADIS
Desde el inicio del proyecto se vio la necesidad de que
todos los desarrollos y herramientas fuesen accesibles para
personas con discapacidad ya que el colectivo formado por
estas personas era el principal destinatario del portal. Por
ello, en el marco del proyecto se ha dotado a las
herramientas de distintas mejoras de accesibilidad, lo que
constituye también una contribución a la implementación de
servicios de accesibilidad en HbbTV.
Se accede al servicio mediante una interfaz de
autenticación, de modo que se activen automáticamente las
ayudas a la accesibilidad correspondientes, aunque sin
manejar información explícita sobre la discapacidad. Así,
un usuario con discapacidad visual tendría activada por
defecto la audionavegación de las páginas. Se encuentran
locutadas todas las herramientas y pantallas salvo el foro.
También se incluye la locución de los menús y de las
instrucciones de navegación. Los elementos locutados
incluyen tanto los estáticos (como es el caso de la cuarta
herramienta), como los dinámicos (los cursos y las ofertas
de empleo). Desde el punto de vista de la implementación,
la plataforma utiliza las funcionalidades de HbbTV para la
reproducción de ficheros de audio, los cuales llegan a la
pantalla de TV a través de la conexión a Internet. Se ha
optado por codificar estos ficheros como audio de MPEG-1L2.
Además, un usuario con discapacidad visual se
beneficiaría de una interfaz mejorada en los cursos de
formación, en la que se ha maximizado el contraste de las
pantallas (caracteres negros sobre fondo blanco) y se ha
aumentado el tamaño de las letras. Para aumentar el espacio
disponible en la pantalla, en este modo de funcionamiento
no aparece la imagen ilustrativa de cada pantalla del curso.
En cuanto a las personas sordas, la inserción de vídeos
en las pantallas de los cursos multimedia puede emplearse
para la provisión de lengua de signos. La implementación se
ha realizado para que sea posible indicar que un vídeo es de
lengua de signos en el instante de subirse. En ese caso, se
empieza a reproducir escalado una vez que el usuario entra
en la correspondiente página, si es que tiene activada esta
ayuda técnica en su configuración personalizada. Además,
las páginas con vídeo de lengua de signos se marcan con el
icono especificado en la norma UNE 139 804 para
utilización de la lengua de signos en Internet.
Para lograr una interfaz lo más accesible posible, tanto
en la pantalla de TV como en la pantalla del ordenador, se
205
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
han seguido las directrices de accesibilidad para contenido
web elaboradas por el W3C, denominadas WCAG (Web
Content Accessibility Guidelines) 2.0 [6].
Finalmente, para facilitar la accesibilidad se ha prestado
atención a la navegación e interacción con el portal, como
se observa en la imagen 2.
5. Conclusiones
futuro
y
trabajo
Desde comienzos de este año 2013 ya se cuenta con un
prototipo completamente funcional y disponible en
laboratorio. Los medios con los que cuenta el grupo de
investigación permiten la emisión de un flujo de TV digital
con la señalización adecuada para que una pantalla o
receptor con soporte para HbbTV muestre las aplicaciones.
De cara a la explotación real, es necesario que un operador
de TV incluya la señalización en sus emisiones de TV
digital y una fase de validación con usuarios más allá de las
pruebas informales que se han realizado a lo largo de la
última fase del proyecto en las instalaciones de la cátedra.
En el futuro se podrá analizar la incorporación y
verificación de estándares como SCORM para los cursos de
formación o especificaciones internacionales para
audiodescripción en televisión (IEC 62731:2013).
6. Agradecimientos
Los autores desean agradecer a Indra y a la Fundación
Adecco la financiación concedida a este proyecto a través
de la cátedra que ambas entidades mantienen en la
Universidad Politécnica de Madrid para promover la
integración laboral de las personas con discapacidad y la
accesibilidad audiovisual. También desean agradecer la
labor en el proyecto del resto de integrantes del equipo de
trabajo: Juan Pedro Fernández Fraile y Paola Cano García.
7. Referencias
[1] ETSI. TS 102 796 “Hybrid Broadcast Broadband TV”. V1.1.1.
Junio de 2010.
[2] CEA. CEA2014 "Web-based Protocol and Framework for
Remote User Interface on UPnP™ Networks and t he Internet
(Web4CE)". Jul-2007.
[3] ETSI. TS 102 809 “Digital Video Broadcasting (DVB);
Signalling and carriage of interactive applications and services in
Hybrid broadcast/broadband environments”. V1.1.1. 2010.
[4] C. A. Martín, L. García, J. M. Menéndez, and G. Cisneros.
“Access Services based on MHP Interactive Applications”
Consumer Electronics, IEEE Trans on, vol. 56, N 1, pp. 198-202.
Feb 2010.
[5] Peter Olaf Looms – Danish Broadcasting Corporation (DR)
“The future of DTV Access services”. EBU Technical Review.
2010 Q4.
[6] W3 Consortium. “Web Content Accessibility Guidelines
(WCAG) 2.0”. W3C Recommendation. Diciembre de 2008.
http://www.w3.org/TR/WCA
206
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Guremintza: Una red social para la diversidad
cognitiva
Abascal, Julio; Arbelaitz Olatz;
Muguerza, Javier
U. del País Vasco/EHU
[email protected]
Heredia Sáenz, Antoni
Grupo Gureak
[email protected]
Resumen
GUREMINTZA: Red social del Grupo Gureak para la
comunicación y aprendizaje en el uso de redes digitales. Se
ha diseñado y desarrollado teniendo en cuenta pautas
específicas para el colectivo de personas con discapacidad
intelectual y ha incluido la participación de los usuarios/as
finales. Esta red permite la tutorización y acompañamiento
del usuario/a en el manejo de la red.
GUREMINTZA the Gureak Group's Social network is
intended for communication and t raining in the use of
digital networks. Its design and development was focused to
the specific guidelines for people with intellectual
disabilities and included the participation of the final users.
This social network allows tutoring and supporting the
users in the utilization of the network.
1. Introducción
La competencia digital se considera básica actualmente,
por lo que resulta fundamental familiarizar y capacitar a las
personas con discapacidad intelectual en el uso de
dispositivos y aplicaciones digitales. Por otra parte, las
redes sociales se están convirtiendo en una herramienta
importante en los procesos de comunicación y participación
en la sociedad. No obstante, aplicaciones tales como
Facebook o Twitter, utilizadas por miles de personas, no
resultan fáciles para las personas con discapacidad. Así lo
constata un estudio publicado por la Fundación ONCE
(2011), que revela que las redes sociales suspenden en
accesibilidad [1]. Por otro lado, el acceso a las redes
sociales convencionales puede implicar algunos riesgos para
las personas con discapacidad cognitiva que no hayan sido
adecuadamente entrenadas, tales como la posibilidad de
divulgación accidental o involuntaria de datos personales
privados o de información privada sobre otras personas; el
uso inadecuado de la red social (por ejemplo, envío a toda la
comunidad de mensajes dirigidos a una sola persona, envío
de mensajes repetidos, etc.) o la posibilidad de ser víctimas
de fraude o de acoso. Es cierto que cualquier persona que
utilice las redes sociales está expuesta a los mismos
peligros, pero las personas con discapacidades cognitivas
pueden carecer de la capacidad para identificar y hacer
frente a estos problemas
Hernández, Daniel
Lotura
[email protected]
Por todo ello, dentro de las actuaciones llevadas a cabo
por el Grupo Gureak 10, donde la tecnología se utiliza en los
procesos de capacitación y desarrollo de competencias
socio-laborales, surge la idea de este proyecto:
GUREMINTZA.
2. Objetivos
Como objetivos específicos, GUREMINTZA trata de
incentivar la socialización; facilitar las relaciones a través
de la Web; fomentar la conexión con el entorno; concienciar
sobre la exposición de intimidad en las redes sociales
digitales y sus repercusiones; y preparar para el uso de redes
sociales abiertas.
GUREMINTZA es una red social accesible orientada
inicialmente a un uso interno, con el objetivo de trabajar las
competencias socio-laborales y, al mismo tiempo,
desarrollar y entrenar las competencias digitales. Se trata de
posibilitar un espacio que facilite una experiencia real de
aprendizaje, que aporte a las personas con discapacidad
intelectual la oportunidad de aprender a utilizar este tipo de
herramientas digitales.
Se ha intentado que el aspecto y las funcionalidades sean
similares a las comúnmente utilizadas por las redes sociales,
de manera que, en el caso de que el usuario o la usuaria lo
desee, pueda dar el paso a las redes comúnmente utilizadas.
Así pues, GUREMINTZA pretende mejorar la calidad de
vida de las personas con discapacidad intelectual, mediante
el soporte de las dimensiones de autodeterminación,
relaciones interpersonales, desarrollo personal y defensa de
sus derechos. Una vez adquiridos los conocimientos
básicos, posibilitar el acceso a una mayor inclusión social.
En la concepción y desarrollo de GUREMINTZA han
participado Egokituz [2]: Laboratorio de Interacción
Persona-Computador
para
Necesidades
Especiales,
(Universidad del País Vasco/Euskal Herriko Unibertistatea),
la empresa cooperativa de desarrollo de aplicaciones web
Lotura [3], y Gitek [4], el área I+D+i sociotecnológico del
Grupo Gureak.
10
El Grupo Gureak es un grupo empresarial que tiene la misión de generar
y gestionar oportunidades laborales lo más adaptadas posibles a las
capacidades de las personas, dando prioridad a las personas con
discapacidad intelectual de Gipuzkoa.
207
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
3. Diseño
En el diseño y desarrollo de GUREMINTZA, se aplicó
una metodología basada en la participación del usuario/a.
Para ello, se formó un equipo que incluía cuatro personas
con discapacidad intelectual (dos de ellas con
conocimientos medios en el manejo de Internet y dos con un
perfil bajo en el manejo de nuevas tecnologías). Este grupo
participó en todas las fases del diseño y el desarrollo, desde
la definición de las funcionalidades hasta el diseño de la
interfaz y el aspecto exterior de la herramienta. Además,
este grupo fue validando cada uno de los diversos prototipos
realizados. Dentro del equipo de trabajo participó en
igualdad de condiciones en la toma de decisiones.
El diseño participativo [5] con usuarios con
discapacidad cognitiva requiere procedimientos especiales
que permiten la recogida de requisitos evitando preguntas
directas que podrían ser difíciles o imposibles de responder
para algunas personas con limitaciones cognitivas [6]. Por
lo tanto, cada consulta se diseñó de tal manera que fuera
posible obtener una respuesta no ambigua. Por ejemplo, las
preguntas directas como "¿Prefieres A o B", a menudo no
producen una respuesta significativa, y "¿Te gusta A" es
muy probable que reciba una respuesta positiva, mientras
que la cuestión opuesta "¿Te gusta el B (alternativa a la
A)?" también recibe una respuesta positiva. Por lo tanto, el
estudio incluyó el uso directo de modelos y prototipos, al
principio en papel, para identificar las preferencias de los
usuarios y las dificultades que tienen los usuarios en su uso
de algunos procedimientos.
En este proceso el personal técnico trató de evitar
cualquier tipo de manipulación de las preguntas o de las
decisiones adoptadas. Los miembros del grupo fueron
informados de que se tendrían en cuenta todas sus
decisiones a menos de que su aplicación fuera imposible
4. La red social GUREMINTZA
Imagen 2. Mis aficiones
Imagen 3. Mis fotos
b) Novedades: Es el lugar donde cada usuario/a ve los
mensajes de su muro y envía mensajes a sus
amigos/as. Los mensajes del muro son los mensajes
privados, los mensajes públicos de las amistades, y
los mensajes que se publican en los grupos a los que
pertenece.
GUREMINTZA [7] se compone de cuatro espacios bien
diferenciados:
a) Perfil: Los/as usuarios/as crean y modifican su
perfil. Gestionan la información personal, las
aficiones y el material multimedia propio. Este
espacio es una oportunidad para capacitar en las
funcionalidades del “perfil digital”.
Imagen 4. Novedades o Muro
Imagen 1. Mis datos
208
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Imagen 5. Escribir mensaje
Imagen 8. Chat
c) Amigos: Es la zona donde se gestionan las
amistades, lo que permite compartir información a
través de distintas herramientas de comunicación,
como mensajes, chat o videoconferencia. Un icono
en forma de enchufe avisa si la persona se encuentra
online.
Igualmente,
las
herramientas
de
comunicación síncronas, se desactivan en el caso de
que la persona con la que se desea chatear o realizar
una videoconferencia, se encuentre desconectada de
GUREMINTZA.
Imagen 9. Vídeo chat
Imagen 6. Mis amigos
Imagen 10. Buscar amigos
Imagen 7. Perfil amigo
Imagen 11. Hacer amigos
209
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
d) Grupos: Los/as usuarios/as pueden participar en
grupos cerrados o abiertos. Para pertenecer a un
grupo abierto, el/la usuario/a podrá acceder al
mismo sin validación del administrador/a. En
cambio, en los grupos cerrados, el/la usuario/a
deberá solicitar la pertenencia y el administrador/a
confirmará el acceso.
•
•
•
•
•
•
•
•
•
•
Imagen 14. Mis grupos
El mayor esfuerzo durante el desarrollo de
GUREMINTZA, se ha centrado a abordar aspectos de la
atención, memoria y percepción [9]:
•
•
•
•
•
•
Imagen 16. Buscar grupos
Imagen 17. Crear nuevo grupo
5. Accesibilidad
Para tratar la accesibilidad y usabilidad en la fase de
diseño y desarrollo, se han tenido en cuenta tres fuentes
principales: pautas de accesibilidad web (W3C-WAI),
protocolo NI4 de navegación fácil, y lectura fácil [8]. Para
ello se ha implementado un diseño simple, claro e intuitivo:
Cada espacio tiene un color significativo.
Se permite el control de la privacidad de toda la
información que comparte el/la usuario/a.
Se envían alertas de cualquier cambio o actualización
en la sesión y de los usuarios/as que se encuentran
online.
Se puede denunciar cualquier contenido que el
usuario/a considere no adecuado.
Se evita todo tipo de scroll.
Se acompañan los menús y botones con elementos
gráficos para aumentar su comprensibilidad.
Se ofrecen ayudas por pantalla y campo de formulario.
Se pide confirmación antes de una acción y se muestra
el resultado.
Se utiliza texto fácil.
Se permite la locución en voz alta de cualquier
contenido textual que se publique en la red.
Evitar la desorientación.
Prescindir de la sobreinformación.
Identificar los elementos interactivos.
Limitar los tiempos de espera.
Eliminar elementos distractores.
Ofrecer elementos de ayuda claros.
Para ello, se han tenido en cuenta las siguientes pautas
específicas para la diversidad cognitiva [8]:
• Contenidos y Navegación.
o Agrupación de contenidos: para evitar la
sobreinformación y ofrecer un diseño claro, limpio y
donde se encuentran las opciones rápidamente.
o Navegación lineal: la interface informa de en qué
lugar se encuentra, cómo ha llegado y cómo volver al
inicio.
o Menús de navegación coherentes: siempre visibles y
en la misma posición.
o Navegación rápida: evitando tiempos de descarga
demasiados largos.
• Apoyos y ayudas
o Lenguaje adaptado: lenguaje comprensible, basado
en las pautas de lectura fácil.
o Prevención de errores: Instrucción y avisos previos,
para evitar el error. En el caso de haya ocurrido un
error se posibilita su solución
o Uso de buscadores flexibles y eficaces con opción de
ayuda en cada campo y que eviten el típico mensaje
“no encontrado”.
o Identificación de elementos interactivos: A cada
enlace, botón, o cualquier otro elemento de
interacción, además de texto, le acompaña una
imagen significativa y una locución.
o Apoyos alternativos de comprensión: Apoyos
auditivos a textos. En este caso, todo texto de la red
está leído en voz alta.
• Estilo y diseño
o Utilización de una tipografía clara, incluyendo
el tipo de fuente y los colores.
210
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
o
o
o
o
o
Evitación del scrolling horizontal y vertical: Toda la
información debe de aparecer en la pantalla.
Evitación de textos dinámicos que se desplacen por
la pantalla, parpadeen o que sufran transformaciones.
Evitación del exceso de movimiento y animación de
las páginas.
Inclusión de textos alternativos para las imágenes.
Aportación de control total sobre los elementos
multimedia de la web.
6. Administración y
tutorización
Para poder ofrecer un aprendizaje individualizado y
posibilitar los apoyos necesarios en el manejo de
GUREMINTZA, se ha desarrollado una herramienta de
administración, compuesta por un sistema de alertas, que
permite acompañar al usuario/a en su proceso de
aprendizaje y utilización de la red social.
Imagen 12. Administración
Cuando se recibe una alerta, la persona responsable pone
en funcionamiento un protocolo de actuación que derivará
en acciones concretas. Estas acciones están especificadas
como estrategias que pretenden apoyar al usuario/a en la
capacitación de las competencias necesarias para el manejo
de las redes sociales. Por ejemplo, estas estrategias pueden
ser acciones formativas específicas, acompañamiento en la
navegación, adaptaciones tecnológicas, etc.
En el diseño actual, las alertas se producen por causas
muy diversas que incluyen el seguimiento de denuncias, la
solicitud de inclusión en grupos cerrados, la solicitud de alta
ala red, la aceptación masiva de amistades, el envío masivo
de mensajes abiertos, etc. No obstante se espera que la
experiencia de uso continuado aporte conocimiento sobre
cuáles de las actuales alarmas son relevantes y descubra
otras situaciones que sean potencialmente alarmantes.
7. Actualidad y líneas de futuro Actualmente GUREMINTZA se ha implantado en el
grupo de 700 personas que integran el servicio ocupacional,
pero el objetivo es extenderla a todo Gureak. Por otro lado,
se están contemplando diferentes fórmulas de ofrecer
GUREMINTZA a la comunidad, una vez validada durante
un periodo adecuado.
Además, GUREMINTZA se ha desarrollado dentro de
los proyectos DATACC y DATACC2 que, en colaboración
con el proyecto ModelAccess, utilizan la extracción
automática de datos para el modelado aplicado a la
personalización de la accesibilidad a la web. Estos
proyectos aplican técnicas de minería de datos con el objeto
de diseñar interfaces adaptadas a los perfiles individuales de
las personas usuarias. Para ello se analizan de manera
completamente anónima aspectos relacionados con la
actividad de la red y los procesos de socialización. Los
resultados de estos proyectos permitirán adaptar la
presentación y navegación de la web a las características de
cada persona, para seguir mejorando GUREMINTZA.
8. Conclusiones
De esta experiencia se pueden extraer varias
conclusiones:
• El diseño participativo con personas con discapacidad
cognitiva es posible a condición de que los
procedimientos adecuados estén diseñados para recoger
sus opiniones.
• La participación de los usuarios en el diseño permite un
desarrollo progresivo basado en las necesidades y
capacidades de los usuarios, garantizando en todo
momento su comprensión de la aplicación.
• Este método minimiza la posibilidad de incluir barreras
enraizadas en la idea inicial que, por tanto, no pueden
ser eliminadas.
• El proceso de diseño participativo aumenta la afinidad
de los usuarios de la aplicación resultante y mejora su
uso.
9. Agradecimientos
Guremintza se ha realizado con el apoyo del Gobierno
Vasco/Eusko Jaurlaritza a través de los proyectos DATACC
(S-PE11UN097) y DATACC2 (S-PE12UN064) y del
Ministerio de Ciencia e Innovación del Gobierno Español a
través del proyecto ModelAccess (TIN2010-15549).
10. Referencias
[1] Observatorio Accesibilidad TIC DISCAPNET, Accesibilidad
de Plataformas de Redes Sociales, 2010. Disponible en:
http://www.discapnet.es/Observatorio/Observatorio_Accesibilidad
%20redes%20socialesVersion_detallada.pdf (Consultado:
10/01/2013)
[2] EGOKITUZ: Laboratory of HCI for Special Meeds
http://www.kat.ehu.es/s0139-lipcneh/es (Consultado: 10/01/2013)
[3] LOTURA. http://www.lotura.com/en/ (Consultado:
10/01/2013)
[4]
GITEK.
http://www.grupogureak.com/
investigaciondesarrollo-innovacion/sociolaboral/gitek-investigacion-desarrolloinnovacion.aspx (Consultado: 10/01/2013)
211
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[5] Schuler, D. and Namioka, A. (eds.). Participatory Design:
Principles and Practices. Lawrence Erlbaum Associates, Hillsdale,
NJ, 1993.
[6] Dawe, M. Design Methods to Engage Individuals with
Cognitive
Disabilities
and
their
Families.
http://swiki.cs.colorado.edu:3232/chi07design/uploads/5/dawe.pdf
(Consultado: 10/01/2013)
[7] Guremintza http://www.guremintza.net (Consultado:
10/01/2013)
[8] Arrastia M.P. Tecnologías de la Información y las
Comunicaciones para personas con discapacidad intelectual,
Universidad Pública de Navarra, Pamplona, 2009.
[9] Cabero J., Córdoba M., Fernández J.M. Las TIC para la
igualdad. Nuevas tecnologías y atención a la diversidad, Editorial
MAD, S.L., Madrid, 2008.
GUREAK. http://www.grupogureak.com (Consultado:
10/01/2013)
212
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Diseño Preliminar de Interfaces de Realidad Aumentada para el Robot Asistencial ASIBOT
F.R. Cañadillas, A. Jardón; J.G. Victores; C. Balaguer
RoboticsLab, Universidad Carlos III de Madrid
{ferodrig, ajardon jcgvicto, balaguer}@ing.uc3m.es
Resumen
En este artículo se presenta el diseño preliminar de una
interfaz de interacción entre personas con discapacidad
física y un robot asistencial. Esta interfaz proporcionará un
lienzo en blanco al usuario, de tal forma que mediante
futuras iteraciones se proporcionarán las funcionalidades
que el usuario determine necesarias para el sistema. Por
tanto, este proyecto se basa en el desarrollo de una interfaz
humano-robot que proporcione el mayor número de
posibilidades a la hora de realizar dicha interacción. Para
ello, se ha determinado utilizar un s istema combinando
realidad aumentada, reconocimiento y síntesis de voz.
Posteriormente, se muestra la arquitectura propuesta para
tal interacción, explicando las herramientas utilizadas para
el desarrollo. Por último, se describirá un caso de uso del
sistema, en el cual se detalla un posible procedimiento para
realizar una tarea concreta.
Abstract
This paper presents the preliminary design of an
interface for interaction between people with physical
disabilities and an as sistive robot. This interface will
provide a w hite canvas to the user, such through future
iterations the functionalities that the user determines
necessary for the system would be added. So, this project is
based in the development of a human-robot interface that
provides the highest number of choices for this interaction.
For this, it has been determined to use a system based in
augmented reality. Subsequently, it is showed the
architecture propose for such interaction, explaining the
tools used for development. Finally, it will be described a
use case of the proposed system, in which it will detailed a
possible procedure to perform a specific task.
Palabras clave: interacción humano-robot (HRI), robot
asistencial, realidad aumentada, HMD, comando de voz.
1. Introducción
En la actualidad, campos como la robótica social, la
robótica de rehabilitación y la robótica asistencial presentan
un continuo avance al incorporar progresivamente las
distintas tecnologías necesarias para el desarrollo de estos
sistemas. Estos avances se producen tanto por el incremento
y mejora de las tecnologías necesarias para estas tareas,
como por su racionalización gracias a la realización de
ensayos clínicos (con pacientes) que hacen que estos
desarrollos sean adecuados y validados.
Esta proliferación de tecnologías asistenciales como la
robótica asistencial, de rehabilitación y social, también
responde al aumento de los usuarios de dichas tecnologías.
Según el estudio realizado en 2010 de personas mayores y
dependientes creado por el IMSERSO (Instituto de Mayores
y Servicios Sociales) [1], el porcentaje de personas con más
de 65 años en Europa es del 16,6% con una previsión para
el año 2049 del 31,9%, lo cual dobla en número de personas
mayores respecto de la actualidad. Además, la Encuesta de
Discapacidad, Autonomía personal y situaciones de
Dependencia (EDAD) [2] realizada en 2008, nos dice que el
30,2% de las personas mayores de 65 años sufren algún tipo
de discapacidad.
En esta última encuesta, destaca el porcentaje de
personas con discapacidad en España, llegando al 8,9% de
la población total. La principal causa de discapacidad en
España son los problemas de movilidad, con un porcentaje
del 6% de la población española. Del total de personas con
algún tipo de discapacidad, el 74% tiene dificultades para
realizar las Actividades Básicas de la Vida Diaria (ABVD).
Por tanto, existe una incipiente necesidad de crear y
mejorar la aplicación de estas tecnologías, así como
sistemas innovadores que ayuden a las personas con
discapacidad a realizar sus ABVD. Además, con el paso de
los años, el número de personas con discapacidad va
aumentando y se prevé
que no haya suficientes
profesionales para el cuidado y ayuda de estas personas. Por
tanto, la utilización de la robótica asistencial para ayudar a
personas con discapacidad se plantea actualmente como una
alternativa real, aunque todavía queda mucho por hacer para
que estos sistemas puedan ayudar autónomamente a dichas
personas en sus ABVD.
Este artículo se centra en presentar el diseño preliminar
de una interfaz para la interacción entre una persona con
discapacidad en la movilidad y un robot asistencial, en
concreto, con un robot manipulador anclado a una silla de
ruedas, que servirá de base para su posterior desarrollo.
2. Estudio de interfaces para
robótica asistencial
213
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
El desarrollo de interfaces accesibles, sencillas e
intuitivas para el control de robots asistenciales es uno de
los campos más difíciles e interesantes dentro de la robótica
asistencial.
A lo largo de los años, se han utilizado diversos tipos de
interfaces para la comunicación robot-usuario en función
de las discapacidades del usuario. Desde los dispositivos
más básicos, como la utilización de un joystick para
controlar la silla de ruedas, la evolución de dichas interfaces
se ha incrementado enormemente.
La utilización de un robot manipulador sobre una silla de
ruedas complica el manejo del sistema con joystick clásicos.
Para este tipo de control, se han realizado varios estudios
que proponen el uso de nuevos joystick, como el planteado
en [3], en el cual a través de un joystick SpaceNavigator 3D
el usuario puede controlar el robot y la silla de forma
completa. Existen otro tipo de interface-joystick que pueden
utilizarse en esta tarea, como se observa en [4], donde se
comparan varias interfaces de control para este tipo de
sistemas.
El estudio propuesto en [5], plantea el control de una
silla de ruedas mediante la observación del usuario y el
entorno, de tal forma que a través de los movimientos del
usuario y la posición de los elementos del entorno que lo
rodea, el sistema de control de la silla de ruedas determina
el camino o tarea a realizar.
Un estudio muy interesante, es el que se plantea en [6],
en el cual se propone el control de una silla de ruedas a
través de diferentes interfaces, dependiendo de la
discapacidad de cada usuario. Se plantean sistemas de
reconocimiento de voz, rastreo de los movimientos de la
cabeza, electro-oculografía [7] (detección de las señales
bioeléctricas de los ojos), control por soplado y joystick
para el control de la silla de ruedas.
Las interfaces que más comúnmente se están utilizando
en robótica asistencial o social son las basadas en
reconocimiento de voz, mediante las cuales, a través de
comando de voz una persona puede interactuar con algún
robot, permitiendo al humano enviar órdenes y solicitar la
información que necesite. El estudio mostrado en [8], nos
plantea la interacción mediante comandos de voz entre un
robot social y un humano.
Una de las tecnologías más punteras dentro del campo de
interacción entre robot asistencial y usuario, es la basada en
interfaces de control mediante señales bioeléctricas, que se
centran en la detección e identificación de las señales
eléctricas del cuerpo. Dentro de este campo, se pueden
diferenciar dos tipos de interfaces; las interfaces
bioeléctricas invasivas y las no invasivas. Uno de los
estudios basado en interfaces bioeléctricas neuronales
invasivas, es el propuesto en [9], en el cual a través de unos
pequeños sensores colocados en el córtex cerebral de un
paciente con tetraplejía, le permite controlar un robot
manipulador. Por otro lado, existen estudios de cómo
controlar una silla de ruedas a través de las señales
bioléctricas, por ejemplo, el que nos muestran en [10] donde
proponen este control a través de las señales producidas por
los músculos de la cara, o el mostrado en [7] donde se
realiza a través de las señales producidas por los músculos
que rodean el ojo. Estos estudios utilizan sensores
superficiales, los cuales son no invasivos y permiten su uso
sin cirugía de implantación.
Con el paso de los años, muchas interfaces han recurrido
a presentar información gráfica mediante pantallas en
diversas configuraciones. Es destacable el estudio que se
propone en el diseño descrito en [11], en el cual se plantea
la arquitectura de un sistema compuesto por una silla de
ruedas con un robot manipulador incorporado, un joystick
para el control de éste y una interfaz gráfica en la cual
muestra la información de los distintos dispositivos a
controlar.
El “cómo” y “qué” información mostrar al usuario a
través de interfaces gráficas ha ido evolucionando con el
paso de los años y en este momento una de las tecnologías
más prometedoras en este campo son los sistemas de
realidad aumentada. Estos sistemas se basan en superponer
información relevante sobre el mundo real normalmente por
pantalla.
Acerca de este tipo de dispositivos, existe un artículo que
marca las pautas de cómo deben ser este tipo de sistemas, es
el propuesto en [12] que posteriormente se actualizó en
[13]. En el primero, se pueden observar los diferentes tipos
de sistemas de realidad aumentada en función de su
configuración y componentes. En este estudio, se definen
los sistemas llamados “Head-Mounted Displays” (HMD),
concepto que hace referencia a las pantallas cercanas a los
ojos situadas en la cabeza.
A raíz de estas pautas o principios descritos en los
artículos anteriormente comentados, han sido muchos los
sistemas de interacción basados en dispositivos de realidad
aumentada. Por ejemplo, el estudio propuesto en [14],
donde se revisa el campo de la interacción humano-robot
mediante el uso de realidad aumentada, investigando las
posibles vías para la creación de una colaboración humanorobot más natural.
Uno de los campos donde más se está utilizando los
sistemas de realidad aumentada, es en el campo de la
robótica orientada a aplicaciones médicas. En el artículo
[15], plantean el uso de un sistema de realidad aumentada
para el control de un robot de apoyo en tareas de cirugía.
Otra aplicación interesante dentro de este campo, es la
propuesta en [16] donde utilizan realidad aumentada como
apoyo para la realización de laparoscopias.
En robótica de rehabilitación también se están realizando
estudios basados en realidad aumentada con el fin de ayudar
a pacientes con discapacidades en la movilidad. En el
artículo [17], utilizan un sistema de realidad aumentada para
apoyar las tareas de rehabilitación de la mano posteriores a
una afección cerebrovascular.
En lo referido al campo que vamos a tratar en este
artículo, el campo de la robótica asistencial, se han
214
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
realizados algunos estudios basados en realidad aumentada.
Como el propuesto en [18], donde utilizan una
configuración de realidad aumentada para el control e
interacción entre una silla de ruedas y el usuario de la
misma.
Como se ha visto en este estudio de las interfaces para la
interacción entre un usuario y un robot asistencial, existe
una gran variedad de sistemas válidos para la realización de
este paradigma, en función de la discapacidad del usuario o
tarea a realizar. En nuestro caso, donde nos centramos en el
control de un robot asistencial, se ha determinado que los
dispositivos joystick no ofrecen todas las necesidades que
puede tener un usuario, ya que no muestran información
relevante al usuario. Respecto de las interfaces basadas en
señales bioeléctricas, es un tipo de tecnología que todavía se
encuentra en estado prematuro y la creación de un sistema
basado en esta tecnología puede no reportar resultados a
corto plazo. Las interfaces basadas en el soplado del
paciente pueden ser interesantes, aunque restringen el
número de usuarios que pueden utilizar este sistema para el
control de un robot asistencial.
Por tanto, se ha decidido utilizar un sistema basado en
realidad aumentada con una configuración HMD, el cual
permite mostrar información relevante al usuario y controlar
el robot de una forma sencilla e intuitiva. Además, se
añadirá un sistema de detección de voz mediante el cual se
permitirá al usuario mandar sus órdenes al robot por
comandos de voz. A continuación, se describirán los
dispositivos implicados en la construcción de dicho sistema.
3. Descripción de la interfaz
de realidad aumentada
utilizada
Estudiando la variedad de sistemas comerciales basados
en realidad aumentada, se decidió optar por la utilización
del sistema Wrap 920AR [19] del fabricante Vuzix.
Figura 1: Imagen del sistema Vuzix Wrap 920AR.
60Hz. Además, este sistema permite ajustar de 2 a 5
dioptrías del usuario.
Las cámaras estereoscópicas tienen una resolución VGA
(640x480) con una tasa de captura de 30 cuadros por
segundo. Cada una de estas cámaras se conecta a un PC
mediante USB como dispositivos de la cámara de vídeo
USB estándar.
El sistema de rastreo de movimiento de la cabeza tiene la
capacidad de detectar movimientos en 6 ejes, es decir,
permite el seguimiento de los movimientos de guiñada,
cabeceo, balanceo, X, Y y Z. Este dispositivo se conecta a
un puerto de expansión situado en las gafas, gracias a su
pequeño tamaño (30x10x15 mm).
El dispositivo de audio del sistema está compuesto por
un par de auriculares extraíbles, los cuales proporcionan un
audio estéreo de alta fidelidad y aíslan del ruido ambiental.
Los auriculares son reconocidos por el sistema de control
como altavoces USB estándar, lo que permite una fácil
integración dentro de nuestro sistema.
Por último, el sistema de gafas de realidad aumentada se
proporciona con un paquete software para desarrolladores
denominado Vuzix SDK, el cual contiene todos los drivers,
librerías y ejemplos necesarios para realizar la puesta en
marcha del sistema.
Por tanto, el Wrap 920AR es un sistema muy completo y
ofrece muchas posibilidades de implementación gracias al
gran número de dispositivos con los que cuenta.
4. Descripción del robot asistencial ASIBOT
El robot asistencial sobre el que se basa este proyecto es
el robot asistencial ASIBOT [20] desarrollado por el grupo
de investigación RoboticsLab de la Universidad Carlos III
de Madrid.
El robot ASIBOT, el cual podemos observar en la figura
2, es un robot manipulador anclado a una silla de ruedas que
tiene como objetivo ayudar a personas con algún tipo de
discapacidad física a realizar las tareas cotidianas, que
debido a la reducción de las capacidades físicas, les serian
difíciles o imposibles de realizar.
El sistema está basado en las gafas de realidad virtual
Wrap 920 de Vuzix, a las cuales se han añadido dos
cámaras para una captura estereoscópica. Además el sistema
cuenta con un inclinómetro de 6 ejes y con salida de audio
de alta calidad. A continuación veremos cada uno de los
dispositivos que componen el sistema de una forma más
detallada.
Las pantallas internas, también llamadas HMD,
proporcionan una visión equivalente a una pantalla de 67
pulgadas a 3 metros de distancia. La resolución de estas
pantallas es de 640x480 pixels y su tasa de refresco es de
Figura 2: Imagen del robot asistencial ASIBOT.
215
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Una de las principales características de ASIBOT es que
se trata de un robot escalador, es decir, que puede separarse
de la silla de ruedas y “escalar” por medio de anclajes con el
fin de realizar una tarea específica del modo más eficiente
posible.
Para poder realizar estas tareas de escalado y
manipulación, el robot asistencial ASIBOT tiene una
configuración simétrica de cinco grados de libertad. Como
podemos comprobar en este estudio [21], cinco grados de
libertad son suficientes para desarrollar estas tareas, si bien
el manejo del robot requiere una elevada carga mental y
requiere de sistemas de control compartido para asegurar la
efectividad en su manejo y que eviten colisiones no
deseadas con el entorno o el usuario. Los últimos avances
en esta línea se han presentado en [22].
5. Implementación del sistema
de interacción multimodal
En esta sección se describe la arquitectura del sistema
multimodal de interacción basado en realidad aumentada
entre el robot asistencial ASIBOT y el usuario del mismo.
Antes de determinar la arquitectura del sistema, se ha de
precisar cómo va a ser la interacción entre el robot y el
usuario. En este caso, se está considerando que la
interacción se realice mediante una entrada de audio como
información aportada por el usuario al robot y a través de
una salida gráfica por pantalla como salida del robot hacia
el usuario. Por tanto, el usuario mandará sus órdenes al
robot mediante comandos de voz, y la información del
entorno, tareas posibles a realizar o cualquier otro tipo de
información, el robot lo mostrará por pantalla al usuario.
Si observamos los dispositivos que contiene el sistema
de realidad aumentada Vuzix Wrap 920AR, comprobamos
que no tiene entrada de audio o micrófono, de tal forma que,
para poder completar el sistema de interacción elegido, se
va a utilizar un micrófono externo. En este caso se ha
decidido utilizar un micrófono de solapa o corbata el cual se
conecta mediante un conector mono Jack.
En la figura 3 podemos observar la arquitectura del
sistema de interacción entre el usuario y el robot ASIBOT,
donde podemos diferenciar los diferentes dispositivos o
sistemas utilizados para esta tarea.
Figura 3: Arquitectura funcional del sistema de interacción
basado en realidad aumentada.
Observando la figura 3, se observa que la captura de las
cámaras estereoscópicas se envía a la interfaz gráfica para
su utilización dentro de la interfaz de realidad aumentada.
La interfaz gráfica intercambia información con el
controlador principal del robot en función de los cambios
que se producen debido a la información de las entradas a
dicho controlador, mostrando al usuario la información
relevante para la ejecución de la tarea. Estas entradas son
principalmente dos; la entrada de audio mediante la cual el
usuario manda sus comandos de voz para poder realizar
algún tipo de tarea o solicitar información y la entrada del
inclinómetro de 6 ejes que envía la información de la
posición y la orientación de la cabeza del usuario, que como
se verá posteriormente, es necesario a la hora de determinar
la posición de un objeto en el campo de visual del usuario.
Esta arquitectura utiliza YARP (Yet Another Robot
Platform) [23], en concreto la librería YARP_OS, para
realizar las comunicaciones entre los diferentes dispositivos
utilizados en el sistema de interacción. Además, la gestión
de los dispositivos de entrada y la captura de las cámaras
estereoscópicas se realiza mediante el uso de las librerías;
YARP_DEV la cual nos permite gestionar estos
dispositivos de forma sencilla y YARP_SIG que nos
permite procesar las señales tomadas de los dispositivos de
entrada.
Para implementar el sistema de detección de comandos
de voz, se ha decidido utilizar las librerías de código abierto
CMUSphinx [24]. Con el uso de esta librería, el sistema es
capaz de detectar e identificar los comandos de voz con los
cuales el usuario envía la tarea que quiere realizar. Para ello,
se ha creado un diccionario de comandos de voz relevantes
para la realización de tareas dentro de este sistema.
Para crear la interfaz gráfica de nuestro sistema que se
mostrará a través del HMD, se han utilizado el paquete de
librerías OpenGL [25]. Gracias a estas librerías se puede;
modelar figuras a partir de las primitivas básicas creando
descripciones geométricas de los objetos, situar los objetos
en el espacio tridimensional de la escena y seleccionar el
punto de vista desde el cual queremos observar, crear
texturas a partir de descripciones geométricas. Estas
texturas permiten mostrar por pantalla la captura de las
cámaras estereoscópicas y mediante la creación de otros
objetos geométricos superponer la información relevante a
mostrar al usuario.
Por último, como se verá posteriormente, para
determinar la tarea que se puede realizar o para determinar
la posición e identificación de un objeto en nuestro entorno
de trabajo, es necesario un sistema visual de detección de
objetos. El sistema que se utilizará en este proyecto es el
desarrollado en [26], creado anteriormente por miembros
del grupo de investigación. Este sistema utiliza una
segmentación por color para el reconocimiento e
identificación del objeto a detectar y lo localiza en el
espacio mediante una triangulación respecto de la cámara de
captura. En este caso, se ha utilizado la captura de las
cámaras estereoscópicas para la detección del objeto y por
216
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
tanto, para determinar la posición de dicho objeto, de tal
forma que se necesitará determinar la posición y orientación
de las cámaras de captura, de ahí que se utilice el
inclinómetro de 6 ejes en este proyecto.
Una vez descrita la estructura del sistema de interacción
basado en realidad aumentada, se explicará un caso de uso
en el cual se mostrará como funciona este sistema a la hora
de realizar una tarea específica.
6. Sistema de interacción
multimodal, descripción de un
caso de uso
El sistema de interacción multimodal está basado en una
interfaz de tipo asistente o “Wizard”, es decir, en una
interfaz guidada paso-a-paso. Estas interfaces también se
definen como interfaces “pregunta-respuesta” o “acciónreacción”, en las cuales por cada orden enviada por el
usuario, se produce una tarea o ejecución por parte del
robot.
A continuación, se verá el funcionamiento de esta
interfaz multimodal centrando la explicación en un caso de
uso específico, en concreto, en la realización de la tarea de
coger una lata de refresco, siendo esta tarea representativa
del tipo de interacción precisa en la asistencia de AVDBs.
En este caso el sistema nos muestra tres posibles
acciones a realizar; la primera ofrece la posibilidad de coger
algún objeto que se encuentre en la cocina, la segunda
posibilita mover un objeto de la cocina y la tercera facilita
la posibilidad de encender algo de la cocina, como pueden
ser las luces o el horno (esto se podría realizar mediante la
comunicación con el sistema domótico KNX-EIB (en
proceso de implementación), ya instalado en la cocina
demostrador de ASIBOT, situada en el Laboratorio de
Robótica Asistencial del Parque Científico –Tecnológico de
la UC3m en Leganés.
En este punto, el usuario deberá mandar mediante
comando de voz la orden de la tarea que quiere que el robot
realice. En este caso el usuario pronunciará el comando de
voz “coger”, que como se observa en la figura 4, se
corresponde con la etiqueta utilizada en las tareas mostradas
por pantalla.
Tras la orden del usuario de coger algún tipo de objeto
que se encuentra en la cocina, el sistema detectará,
identificará y localizará los objetos que pueden ser
agarrados. Estos procesos utilizan las cámaras IP fijas en el
entorno y no son objeto de esta publicación. Una vez
detectados e identificados los objetos, el sistema nos
muestra por pantalla estos objetos encuadrados y
numerados, como se muestra en la figura 5.
El sistema comienza con la localización del conjunto
silla-robot en la casa (está por determinar cómo se realizará
esta localización), ya que las posibles tareas a realizar
dependen de donde se esté situado. Es decir, sí el usuario se
encuentra situado en el salón, podrá realizar otro tipo de
tareas (encender TV, poner música) que si te encuentras en
la cocina (coger refrescos, cocinar).
Una vez que el sistema ha identificado las posibles tareas
a realizar, se mostrarán estas tareas por pantalla a la vez que
muestra la captura de vídeo del mundo real (realidad
aumentada). En la figura 4, se puede observar cómo
visualiza la escena el usuario que porta las gafas de realidad
aumentada.
Figura 5: Vista de la interfaz gráfica con la identificación de
objetos.
En este punto, el usuario ve por pantalla todos los
objetos que el sistema cocina-robot reconoce y por tanto
puede coger, en este ejemplo, la lata de refresco. Sí hubiese
más objetos el sistema los identificaría con una
nomenclatura de lista ascendente, es decir, objeto-1, objeto2, ..., objeto-N.
Posteriormente, el usuario ordenará por comando de voz
el objeto que quiere que el robot coja. Tras lo cual, el robot
comenzará su movimiento para alcanzar este objeto de
forma automática como se observa en la figura 6.
Figura 4: Vista de las posibles tareas a realizar mostradas
sobre el sistema de realidad aumentada.
217
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
sistema un lienzo en blanco donde a través de sus ideas y
necesidades, puedan iterar con los desarrolladores hasta
conseguir un sistema completo, sencillo y accesible para la
interacción usuario-robot.
Como ya se ha comentado anteriormente, el sistema
aquí presentado se trata de un diseño preliminar el cual
tiene como objetivo dar al usuario un sistema con el mayor
número de capacidades para que a través de la iteración
usuario-desarrollador, se implemente una interfaz que cubra
las necesidades que el usuario estime oportunas.
Figura 6: Vista de la interfaz gráfica mientras se produce el
movimiento del robot manipulador.
Una vez que el robot agarra el objeto elegido, el sistema
mostrará por pantalla las nuevas tareas que se pueden
realizar con el objeto agarrado, tales como mover a una
posición, acercar para beber, vaciar refresco, etc. Estas
nuevas tareas se mostrarán de forma similar a lo mostrado
en la figura 4.
Con este caso de uso, se ha descrito paso a paso la
interacción necesaria entre el usuario y el interfaz robótico
en la ejecución de una tarea específica. Este tipo de sistema
de interacción ofrece la posibilidad de implementar
mecanismos de interacción intuitivos y amigables, al poder
representar información relevante sobre los objetos y
acciones que el sistema robótico puede realizar en la
asistencia al usuario. Este mecanismo básico de interacción
puede ser personalizado para una gran variedad de tareas y
niveles de asistencia y complementa otras líneas de
investigación paralelas que se están desarrollando como
esquemas de control compartido, interpretación de la
situación, pro-actividad en la asistencia, adaptación mutua,
etc., que junto con este tipo de interfaces están orientadas a
la mejora de la usabilidad del sistema robótico para la
realización autónoma de las ABVD por usuarios con
severos problemas de movilidad.
7. Perfil de usuario e involucración Una vez visto el funcionamiento del sistema es
conveniente hacer hincapié en el tipo de usuario para el que
está pensado este sistema, así como la involucración que
tiene dentro del mismo.
Este sistema está diseñado para el apoyo a personas con
discapacidades físicas, en concreto para personas con
discapacidad motriz en sus extremidades superiores e
inferiores. En [27], se muestra un estudio de las diferentes
discapacidades motrices en función del nivel de daño en la
medula espinal. Siguiendo con la clasificación que se
muestra en este artículo, se comprueba que el sistema
implementado en este proyecto está diseñado para usuarios
con lesiones del tipo C4 hasta C7.
El desarrollo que en este artículo se presenta está
orientado a proporcionar a los posibles usuarios de este
Dicha iteración usuario-desarrollador, comenzará
cuando el máximo de capacidades del sistema que aquí se
propone estén implementadas.
8. Conclusiones
El comienzo de este artículo se ha centrado en plantear la
necesidad de crear sistemas robóticos para facilitar las
ABVD a personas con algún tipo de discapacidad. La
revisión de los sistemas existentes y la experiencia previa ha
permitido detectar las principales carencias y problemas
especialmente en la en la implementación de los
mecanismos de interacción usuario-robot de estos sistemas.
Mediante el estudio de las interfaces para el control de
un robot asistencial, se ha observado los diferentes tipos de
interfaces que comúnmente se están utilizando en robótica
lo cual ha sido relevante la hora de determinar qué tipo de
sistema se desea crear. Gracias a esa comparativa se ha
podido desarrollar un diseño preliminar de interfaz que
previsiblemente cubrirá las características más importantes
para la creación de un sistema de interacción robot-usuario
complejo. Estos sistemas, basados en realidad aumentada en
dispositivos HMD con entrada de audio y captura
estereoscópica, permiten una interacción natural y muestran
al usuario información relevante sobre las capacidades del
robot de interactuar con el entorno y con el propio usuario.
Posteriormente, se ha propuesto una arquitectura
funcional básica, para la implementación del sistema de
interacción y se han descrito someramente las herramientas
y dispositivos necesarios para la creación de este sistema.
Además se ha descrito la herramienta software utilizada
para la comunicación de los distintos dispositivos que
componen el sistema.
Por último, se han descrito mediante un caso de uso, los
pasos que debe realizar un usuario para que el robot
asistencial realice una tarea concreta a través de la interfaz
propuesta en este artículo. Mediante esta descripción se han
comprobado la sencillez y el potencial del sistema de
interacción para realizar una tarea, además de la facilidad
para mostrar información relevante al usuario del sistema.
9. Agradecimientos
Los autores de este artículo quieren agradecer el apoyo
al proyecto ARCADIA DPI2010-21047-C02-01, proyecto
financiado por el ministerio MINECO del Gobierno de
218
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
España y a Robocity2030 S2009/DPI-1559 financiado por
la Comunidad de Madrid y los fondos estructurales de la
Unión Europea.
10. Referencias
[1] IMSERSO. Observatorio de Personas Mayores. “Informe 2010.
Las personas mayores en España”. ISBN: 978-84-8446-136-4, vol.
2, 2010.
[14] Green, S.A., Billinghurst, M., Chen, X., Chase, G.J. “HumanRobot Collaboration: A Literature Review and Augmented Reality
Approach in Design”. International Journal of Advanced Robotic
Systems, 5(1), pp. 1-18, 2008.
[15] Tang, S. L., Kwoh, C. K., Teo, M. Y., Sing, N. W., Ling, K.
V. “Augmented reality systems for medical applications”.
Engineering in Medicine and Biology Magazine, IEEE, 17(3), pp.
49-58, 1998.
[2] Instituto Nacional de Estadística. “Encuesta de Discapacidad,
Autonomía personal y situaciones de Dependencia (EDAD)”,
2008.
Disponible
online
[Jul,
2013]:
http://www.ine.es/prensa/np524.pdf
[16] Su, L. M., Vagvolgyi, B. P., Agarwal, R., Reiley, C. E.,
Taylor, R. H., & Hager, G. D. “Augmented reality during robotassisted laparoscopic partial nephrectomy: toward real-time 3DCT to stereoscopic video registration”. Urology, 73(4), pp. 896900, 2009.
[3]
M.F.Stoelen,
A.Jardón,
J.G.Víctores,
C.Balaguer,
F.Bonsignorio. “Information Metrics for Assistive Human-In-TheLoop Cognitive Systems”, Workshop on Good Experimental
Methodology in Robotics and Replicable Robotics Research,
Robotics Science and Systems (RSS). Zaragoza. Spain. Jun, 2010.
[17] Luo, X., Kline, T., Fischer, H. C., Stubblefield, K. A.,
Kenyon, R. V., & Kamper, D. G. “Integration of augmented reality
and assistive devices for post-stroke hand opening rehabilitation”.
In Engineering in Medicine and Biology Society. 27th Annual
International Conference of the IEEE, pp. 6855-6858, 2005.
[4] Ramirez, D. & Foulds, R. “Adaptive real-time interfaces for
wheelchair-mounted manipulators in unstructured environments”,
Bioengineering Conference, Proceedings of the 2010 IEEE 36th
Annual Northeast, vol.1, no.2, pp. 26-28, 2010.
[5] Kuno, Y., Nakanishi, S., Murashima, T., Shimada, N., &
Shirai, Y. “Intelligent wheelchair based on the integration of
human and environment observations”. In Information Intelligence
and Systems. Proceedings International Conference on IEEE, pp.
342-349, 1999.
[6] Mazo, M. & Research Group of the SIAMO Project. “An
integral system for assisted mobility”. Robotics & Automation
Magazine, IEEE, 8(1), pp. 46-56, 2001.
[7] Barea, R., Boquete, L., Mazo, M., & López, E. “System for
assisted
mobility using eye
movements based
on
electrooculography”. Neural Systems and Rehabilitation
Engineering, IEEE Transactions on, 10(4), pp.209-218, 2002.
[8] Alonso-Martin, F., & Salichs, M. A. “Integration of a voice
recognition system in a social robot”. Cybernetics and Systems:
An International Journal, 42(4), pp. 215-245, 2011.
[9] Donoghue, J. P., Nurmikko, A., Black, M. and Hochberg, L.
R., “Assistive technology and robotic control using motor cortex
ensemble-based neural interface systems in humans with
tetraplegia”, The Journal of Physiology, no. 579, pp. 603-611,
2007.
[10] Firoozabadi, S. M. P., Oskoei, M. A., & Hu, H. “A HumanComputer Interface based on Forehead Multi-channel Bio-signals
to control a virtual wheelchair”. In Proceedings of the 14th Iranian
Conference on Biomedical Engineering (ICBME), pp. 272-277,
2008.
[11] Ghorbel M., Haariz M., Grandjean B., Mokhtari M., “Toward
a generic human machine interface for assistive robots: the AMOR
project”, ICORR 9th International Conference on Rehabilitation
Robotics, pp.168-172, 2005.
[12] Azuma, R.T. “A Survey of Augmented Reality”,
Teleoperators and Virtual Environments, 6(4), pp. 355-386, 1997.
[13] Azuma, R., Baillot, Y., Behringer, R., Feiner, S., Julier, S., &
MacIntyre, B. “Recent advances in augmented reality”. Computer
Graphics and Applications, IEEE, 21(6), pp. 34-47, 2001.
[18] Braga, R. A., Petry, M., Moreira, A. P., & Reis, L. P. “A
Development Platform for Intelligent Wheelchairs for Disabled
People”. In International Conference on Informatics in Control,
Automation and Robotics, pp. 115-121, 2008.
[19] Wrap 920 Augmented Reality, Vuzix, 2013 Disponible online
[Jul,
2013]:
http://www.vuzix.com/consumer
/products_wrap920ar.html
[20] A.Jardón. “Assistive robot design methodology. Application
to portable robot ASIBOT”. Doctoral Thesis. Supervisors:
C.Balaguer; A.Giménez. Sobresaliente "Cum Laudem", 2006.
[21] A.Jardón; M.F.Stoelen; F.Bonsignorio; C.Balaguer. “TaskOriented Kinematic Design of a Symmetric Assistive Climbing
Robot”. Short paper, IEEE Transactions on Robotics. Vol. 27. No.
6. pp.1132-1137, 2011.
[22] M.F.Stoelen; V.Fernández; A.Jardón; F.Bonsignorio;
C.Balaguer. “Benchmarking Shared Control for Assistive
Manipulators: From Controllability to the Speed-Accuracy TradeOff”. IEEE/RSJ International Conference on Intelligent Robots
and Systems (IROS). Vilamoura. Portugal. Oct, 2012
[23] YARP, “Yet Another Robot Platform”,2013. Disponible
online [Jul, 2013] http://eris.liralab.it/yarp/
[24] CMUSphinx, Open Source Toolkit For Speech Recognition.
Project by Carnegie Mellon University, 2013 Disponible online
[Jul, 2013]: http://cmusphinx.sourceforge.net
[25] OpenGL, The Industry's Foundation for High Performance
Graphics,
2013.
Disponible
online
[Jul,
2013]:
http://www.opengl.org
[26] J.G.Víctores; A.Jardón; M.F.Stoelen; S.Martínez; C.Balaguer.
“ASIBOT Assistive Robot with Vision in a Domestic
Environment”. Robocity2030 7th Workshop. Móstoles. Visión en
Robótica. ISBN: 84-693-6777-3. Universidad Rey Juan Carlos.
pp.61-74, 2010.
[27] A. Jardón; A. M. Gil; A. I. De la Peña; C. A. Monje; C.
Balaguer. “Usability assessment of ASIBOT: a portable robot to
aid patients with spinal cord injury”. Disability & Rehabilitation:
Assistive Technology, vol 6(4), pp. 320-330, 2010.
219
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Objetos de aprendizaje multimedia accesibles
sobre Diseño para Todos para grado en Ingeniería en Tecnologías de la Información
Alejandro Rodriguez-Ascaso1, Jesús González Boticario1, Cecile Finat1, Emmanuelle Gutiérrez y
Restrepo1, Amparo Prior2
Grupo de investigación aDeNu / UNED1, Centro de Medios Audiovisuales (CEMAV) / UNED2
[email protected], [email protected], [email protected], [email protected],
[email protected]
Resumen
La legislación española obliga a q ue las entidades
públicas y privadas, las universidades entre ellas, ofrezcan
productos y servicios de las Tecnologías de la Información
y las Comunicaciones (TIC) accesibles. Es más, insta a l a
inclusión del currículo formativo en diseño para todos en
los programas educativos. Pese a c ontar con abundante
legislación en vigor la mayor parte de las universidades
españolas aún no ha incluido los principios del Diseño para
Todos en sus planes de estudio. Atendiendo a e ste doble
propósito, con el fin de formar adecuadamente a los futuros
graduados y graduadas en Ingeniería en Tecnologías de la
Información por la Universidad Nacional de Educación a
Distancia (UNED), se ha desarrollado un conjunto de
objetos de aprendizaje multimedia accesibles, para la
asignatura obligatoria de cuarto curso denominada
“Ingeniería de Factores Humanos en Sistemas
Informáticos”, que se impartirá a par tir del curso
2013/2014. La asignatura responde a la definición de
contenidos
y
descriptores
recomendados
internacionalmente. Los objetos multimedia, que han
recibido ya dos premios internacionales a la excelencia y la
accesibilidad, contarán con todas las adaptaciones
necesarias, incluyendo subtitulado, audiodescripción e
interpretación en lengua de signos. Estos objetos estarán
disponibles para cualquier persona o institución que desee
hacer uso de los mismos, a través de repositorios digitales
en los que dichos objetos se encontrarán debidamente
etiquetados siguiendo los estándares internacionales de
metadatos aplicables a contenidos de aprendizaje.
Abstract
Spanish legislation requires public and private
institutions, including universities, to offer accessible
Information and C ommunication Technology (ICT)
products and services. Moreover, it urges the inclusion of a
training curriculum in Design for All in educational
programs. Despite reams of legislation, most Spanish
universities have not included the principles of Design for
All in their curricula. Thus, in order to properly train future
graduates in Information Technology Engineering, Spain’s
National Distance Learning University (UNED) has
developed a s et of accessible multimedia learning objects
for the fourth-year compulsory subject "Human Factors
Engineering Systems", starting 2013/2014. The course
conforms to content descriptors and de finitions
internationally recommended. These multimedia objects,
which have already received two international awards for
excellence and accessibility, will have all the necessary
adjustments, including subtitling, audio description and
sign language interpretation. The objects will be available
to any person or institution that wishes to use them, through
digital repositories in which the objects will be properly
labeled according to international metadata standards
applicable to learning content.
1. Introducción
La Ley 51/2003, de Igualdad de Oportunidades, No
Discriminación y Accesibilidad Universal de las Personas
con Discapacidad (LIONDAU) [25], en su disposición final
décima, establece plazos para desarrollar “el currículo
formativo en diseño para todos, en todos los programas
educativos, incluidos los universitarios”, y cita
específicamente los de las “comunicaciones y
telecomunicaciones y los servicios de la sociedad de la
información”. Se han explorado estrategias para el
desarrollo del currículo formativo, Libro Blanco incluido
[18]. Aun así, los plazos indicados han sido incumplidos en
gran medida, ya que la mayor parte de las universidades
españolas aún no ha incluido el diseño para todos en sus
planes de estudio, según un reciente informe acerca de la
presencia de la accesibilidad universal en las enseñanzas
universitarias [34].
Por otra parte, existe legislación en España en la que se
definen obligaciones para que las entidades públicas y
privadas, las universidades entre ellas, ofrezcan productos y
servicios de las Tecnologías de la Información y las
Comunicaciones (TIC) accesibles. Según establece la Ley
220
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Orgánica de Universidades, no debe impedirse “a ningún
miembro de la comunidad universitaria, por razón de
discapacidad, el ejercicio de su derecho a ingresar,
desplazarse, permanecer, comunicarse, obtener información
u otros de análoga significación en condiciones reales y
efectivas de igualdad”. Un informe publicado en 2010 sobre
la accesibilidad de portales web universitarios en España
[14]
reflejó un nivel pobre en cuanto a la accesibilidad web
en las universidades, un indicador que podemos considerar
como muy revelador acerca de la accesibilidad electrónica
general en este ámbito.
La universidad española se encuentra, por tanto, ante dos
retos que tienen que ver no solo con motivaciones legales,
sino con la búsqueda de la calidad y la excelencia, como lo
demuestra la atención que se presta a la accesibilidad en las
políticas universitarias desplegadas en países con mayor
nivel de desarrollo [30]. Por una parte, y de manera urgente,
se debe asegurar que las actividades y recursos de
aprendizaje son accesibles para todos los miembros de la
comunidad universitarios, tanto estudiantes como
profesionales. Por otra parte, y como componente
fundamental de un proyecto sostenible de sociedad (también
de universidad) para todas las personas, todos los
profesionales de las TIC deben recibir formación en Diseño
para Todos [27].
2. Contexto: Ingeniería de
Factores Humanos en
Sistemas Informáticos
Con el fin de formar en Diseño para Todos a los futuros
graduados en Ingeniería en Tecnologías de la Información
por la Universidad Nacional de Educación a Distancia
(UNED), el grupo aDeNu [1] del Departamento de
Inteligencia Artificial de la Escuela Técnica Superior de
Ingeniería Informática (ETSII) de esta universidad, en
colaboración con el Centro de Diseño y Producción de
Medios Audiovisuales (CEMAV) de la UNED, ha
desarrollado un conjunto de objetos de aprendizaje
multimedia accesibles para la asignatura obligatoria de
cuarto curso denominada “Ingeniería de Factores Humanos
en Sistemas Informáticos”, cuya impartición está previsto
que comience en el curso 2013/2014.
Dentro de la UNED, la serie de vídeos se ha desarrollado
en el marco de las Redes de Innovación en Investigación
Docente, y de la convocatoria CEMAV para la producción
de contenidos audiovisuales de dicha universidad.
El Grupo de Investigación aDeNu [1] trabaja en temas de
modelado de usuario basado en estándares para desarrollar
sistemas adaptativos e inclusivos (accesibilidad para
personas con diversidad funcional, diseño para todos) sobre
arquitecturas de servicios abiertas. Esto supone el desarrollo
de componentes y servicios que puedan interactuar con
distintas plataformas de aprendizaje siempre que éstas
cumplan con los estándares existentes.
Esta asignatura pretende formar a los estudiantes en las
metodologías de diseño centrado en el usuario [26], propias
de la ingeniería informática y de las TIC, que permiten
gestionar los factores humanos relacionados con el uso de
los sistemas, productos y servicios basados en los
computadores y las TIC. Los factores humanos constituyen
el conocimiento científico sobre cómo mejorar la eficiencia,
la seguridad y la facilidad de uso de los sistemas TIC, tan
presentes e importantes en las vidas de los ciudadanos,
como puede ser el caso de un teléfono móvil, un producto
de teleasistencia o un sistema de elearning. La asignatura se
centra principalmente en los factores relacionados con que
las funcionalidades de los sistemas sean apropiadas para
satisfacer las necesidades de los usuarios, así como en la
experiencia de usuario, fundamentalmente en todo lo
relacionado con la accesibilidad y la usabilidad.
Uno de los principales objetivos de la asignatura es
comprender y formalizar los requisitos del usuario en
cuanto a la funcionalidad y a la interfaz de usuario del
sistema. Esto supondrá, entre otras cosas, entender con
claridad y manejar con soltura los principios básicos de la
interacción persona-ordenador, relacionados con la
diversidad funcional y de contexto con que los humanos
utilizan las TIC. Estos principios forman parte del Diseño
para Todos [27], cuya aplicación resulta beneficiosa para
que cualquier persona, con independencia de sus
capacidades y en cualquier contexto de interacción, pueda
disfrutar de un acceso eficiente, eficaz y satisfactorio a los
servicios ofrecidos. Otro de los objetivos esenciales de la
asignatura es aprender a evaluar en qué medida el sistema
que se desarrolla responde a los requisitos de usuario
identificados inicialmente, desde las fases iniciales de
prototipado hasta su versión definitiva, con el objetivo de
solucionar cuanto antes posibles problemas que afecten a la
experiencia de usuario. Se pretende asimismo Presentar a
los alumnos los principales recursos y estrategias
(metáforas, estilos y paradigmas de interacción) de la
comunicación persona-máquina en TIC, y en el análisis de
cuáles son los retos desde el punto de vista de la
accesibilidad en los mecanismos de interacción emergentes.
En definitiva, se pretende que el alumno sea capaz de
enfrentarse a situaciones reales, con casos prácticos, donde
deben definirse una serie de requisitos derivados de las
características y el contexto de los usuarios, y evaluarse en
qué medida sistemas concretos satisfacen dichos requisitos.
3. Metodología y herramientas
Concretamente, la serie de objetos multimedia pretende
formar a los estudiantes en los requisitos de usuario sobre
interacción con diferentes productos y servicios de las
Tecnologías de la Información y las Comunicaciones, que
personas con diferentes perfiles funcionales ven satisfechos
gracias (entre otras razones) al uso de los productos de
apoyo adecuados. Los materiales responden a contenidos y
descriptores recomendados por organizaciones nacionales e
internacionales [7], [19], [18], [13], [11].
Desde el punto de vista de su accesibilidad, los objetos
multimedia cuentan con las adaptaciones necesarias para
asegurar su accesibilidad para todos los estudiantes,
atendiendo a la creciente diversidad funcional de la
población
universitaria,
incluyendo
subtitulado,
audiodescripción, transcripción e interpretación en lengua
de signos. Para ello, los académicos de la ETSII han
colaborado estrechamente con los profesionales del
CEMAV, y se han tenido en cuenta las recomendaciones y
normas españolas existentes al respecto [4], [3], [2].
221
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
El objetivo es que estos materiales se encuentren
disponibles públicamente a través de los repositorios
digitales de la universidad, en los se encontrarán
debidamente etiquetados respecto a los estándares
internacionales de metadatos aplicables a objetos digitales
de aprendizaje, tales como MLR [24] y LOM [21], y
teniendo especialmente en cuenta aquellos dedicados a
describir los objetos, sus adaptaciones y las relaciones entre
ambos, desde el punto de la vista de la accesibilidad. En
este apartado se comenzó utilizando el esquema propuesto
en [22], y en la actualidad se está actualizando al propuesto
en [23].
En cuanto a los métodos y herramientas con las que se
han creado las adaptaciones para los objetos, podemos
resaltar que, para el subtitulado, los docentes fueron quienes
realizaron la mayor parte del mismo. En algunos casos, se
ha utilizado la opción de subtitulado automático de
Youtube, sitio al que previamente era necesario subir los
vídeos para poder usar esa herramienta. Es importante
resaltar que los subtítulos generados automáticamente
presentaban numerosos errores, aun contando en general
con un sonido de cierta calidad. Esos errores debían ser
corregidos manualmente. Aun así, el sistema tenía la ventaja
de crear un archivo de subtítulos que, aun con errores, ya
estaba en lo sustancial sincronizado con la imagen. Además,
los subtítulos, una vez finalizados, podían ser exportados
mediante ficheros en formato vtt, srt, o sbv.
En otros casos, se ha utilizado una herramienta
opensource específica para la creación de subtítulos:
Subtitle Edit. Esta herramienta gratuita permite crear,
ajustar, sincronizar y traducir cada línea de subtítulos, y
guardar el fichero en 140 formatos distintos de subtitulado.
Proporciona además una alerta visual clara cuando el texto
indicado para una línea de subtítulos va a sobrepasar el
espacio definido para la presentación de los subtítulos.
También se ha utilizado la herramienta de subtitulado en
línea Amara.
Para generar la transcripción del vídeo, en la que se
transcribe mediante texto tanto la información sonora
(diálogos, sonidos relevantes) como la visual, existen dos
opciones. Una que el/la autor/a vea el vídeo y se transcriba
sus contenidos. Otra, la de utilizar los ficheros de
subtitulado, eliminando los códigos de tiempo, y añadir los
textos de la audiodescripción, aprovechando los ficheros
que previamente se habían enviado al equipo de audiovisual
para realizar las pertinentes locuciones. Las transcripciones
se han publicado como documentos Word y PDF, cuya
accesibilidad ha sido asimismo comprobada [32].
La producción de la audiodescripción fue más compleja.
Los docentes preparaban un texto que luego debía ser
locutado en los huecos de mensaje sonoro del vídeo. A
veces el hueco no era lo suficientemente grande, y era
necesario reescribir los textos para que estos fueran más
concisos. El montaje y la sincronización de la
audiodescripción eran labor de la realizadora audiovisual.
La interpretación en lengua de signos se encargó a una
empresa externa a la universidad.
Figura 1 Imágenes obtenidas de la serie de vídeos
222
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
4. Resultados
Se han producido 8 vídeos, cada uno de ellos de unos 5
minutos de duración (salvo uno, el de Introducción a la
serie, de 11 minutos). La lista de vídeos creados es la
siguiente:
1. Introducción a la serie.
2. Productos de apoyo para personas ciegas.
3. Productos de apoyo para personas con baja
audición.
4. Productos de apoyo para personas con poca
movilidad.
5. Productos de apoyo para personas con baja
visión.
6. Productos de apoyo y adaptaciones para personas
sordas.
7. Productos de apoyo para personas con parálisis
cerebral.
A continuación se presentan los principales objetivos
de aprendizaje de los materiales, en relación con la
asignatura, cada uno de ellos acompañado por la
transcripción de una secuencia en la que se aborda dicho
objetivo:
O1: Comprender la diversidad funcional propia del ser
humano y conocer aspectos básicos sobre:
Derechos humanos y accesibilidad.
Legislación y accesibilidad de las TIC.
O2: Conocer los principios de accesibilidad de los
productos y servicios TIC, a saber:
Percepción de la información de salida del sistema.
Percepción de información de feedback o
realimentación.
Localización e identificación de los elementos de
control del sistema.
Operación de los elementos de control del sistema.
Comprensión de la información y la operación del
sistema.
Interoperabilidad con los productos de apoyo.
Accesibilidad de la instalación de los productos de
apoyo.
O3: Conocer los principios de accesibilidad de los
documentos electrónicos, y entre ellos:
Alternativas a los contenidos no textuales.
Acceso a la estructura del documento y posibilidad de
navegar por la misma.
Disponibilidad de función de búsqueda de contenidos
en un documento.
O4: Acerca del uso de los productos de apoyo, conocer los
siguientes aspectos:
Definición de producto de apoyo en las TIC.
Relación de los productos de apoyo con productos TIC
generalistas de éxito.
Disponibilidad y coste de los productos de apoyo.
Relación entre la accesibilidad general de las TIC y la
efectividad/eficiencia de los productos de apoyo.
Personalización de los productos de apoyo.
Relación entre la autonomía personal, el uso de
productos de apoyo TIC y la asistencia personal.
Ejemplos de productos de apoyo y adaptaciones:
Prótesis auditivas, bucle magnético, hogar digital,
videoportero, videoconferencia con interpretación
de lengua de signos, lector de pantalla, línea braille,
magnificador, tele-lupa, escáner, navegador GPS
multimodal, Daisy, síntesis de voz, reconocimiento
de voz, predicción de palabras, teclado adaptado,
emulador de ratón, barrido de pantalla, babero,
comunicación aumentativa y alternativa, silla de
ruedas, soportes.
O5: Comprender aspectos sobre la accesibilidad y la
personalización de la interacción:
Caracterización de las preferencias y necesidades de
interacción de usuarios de diferentes perfiles
funcionales.
O6: Conocer ejemplos sobre cómo influyen en la
accesibilidad los aspectos organizativos.
Para ilustrar con ejemplos los recursos que se han
utilizado para transmitir los objetivos de aprendizaje, se ha
incluido la Tabla 1, en la que se transcriben pasajes de los
vídeos que se asocian a objetivos y/o sub-objetivos
concretos.
Por otra parte, se ha realizado una comparación entre
estos objetivos de aprendizaje y las recomendaciones de
instituciones internacionales en cuanto a la formación en
Diseño Universal de profesionales TIC, especialmente en
el ámbito de la educación superior. Concretamente se han
revisado los contenidos propuestos en [19], [8] y [11]. El
resultado se muestra en la Tabla 2.
223
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Tabla 1 Ejemplos de objetivos de aprendizaje y recursos utilizados en los vídeos
Objetivo
Sub-objetivo
O1: Comprender
la diversidad
funcional propia
del ser humano..
Derechos
humanos y
acceso a las
TIC
O2: Conocer los
principios de
accesibilidad de
los productos y
servicios TIC.
O3: Conocer los
principios de
accesibilidad de
los documentos
electrónicos.
O4: Conocer
aspectos del uso
de productos de
apoyo.
O5: Comprender
relación entre
accesibilidad y
personalización.
O6: Conocer
aspectos
organizativos de
la accesibilidad
Percepción de
la información
de salida del
sistema.
Vídeo de la
serie
Recurso (transcripción del extracto del video)
Introducción
(Javier) Hay que intentar explicar a la gente que estos
productos de apoyo…
(Guillermo) Para explicarle a la gente que un señor que va en
silla de ruedas puede subir una montaña. Que a un señor que
es ciego, a lo mejor también le gusta escuchar música, que no
simplemente está vendiendo cupones, o ser abogado del
estado…
Persona sorda
(Descripción) Ana, estudiante, está sentada en una escalera.
Lleva un colgante en el cuello. En la pantalla de un móvil
aparece un aviso de llamada. Ana siente una vibración en el
colgante, pulsa un botón en él, y comienza a hablar.
(Ana) Como estudiante, por ejemplo, me gustaría poder
acceder a los programas de radio de la UNED, a todos los
vídeos que se preparan en la UNED, muchos de los cuales
ahora están subtitulados, pero todavía queda bastante por
hacer.
(Guillermo) Y esta pregunta que tengo yo, que responde a
una inquietud personal: los aparatos estos, los elementos de
apoyo […] ¿esto qué es? ¿Va uno a la farmacia con receta, o
lo venden en El Corte Inglés?
Alternativas a
los contenidos
no textuales.
Persona sorda
Disponibilida
d y coste de
los productos
de apoyo.
Introducción
Caracterizació
n de las
necesidades
Persona ciega
(Víctor) JAWS te permite configurar las opciones como tú
quieres. El perfil de cada usuario concreto, en cuanto a
velocidad, tono, etc.
Aspectos
organizativos
de la
accesibilidad
Persona sorda
usuaria de
lengua de
signos
Un intérprete de la Fundación de la Confederación Española
de Personas Sordas actúa de intérprete entre un alumno sordo
y su profesor de la UNED
En general, los objetos de aprendizaje han sido
concebidos como fuente de información para la
elaboración de escenarios y personas [30], que a su vez
serán la base para la realización de actividades de
autoevaluación y de evaluación continua de la asignatura.
Estas actividades tendrán a su vez sus propios objetivos de
aprendizaje, algunos de los cuales serán complementarios
a los ya expuestos.
Los vídeos se encuentran disponibles en el portal
UNED Abierta, concretamente en su apartado Open
Course Ware (OCW) [35].
224
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Tabla 2 Relación con descriptores propuestos por organizaciones internacionales
Objetivo del material
O1: El ser humano y la
diversidad funcional.
(IDCNET, 2003) [19]
Core Knowledge Sets and
Skills
5.1 Awareness of Design for All
5.2 Why Design for All?
Ethical, legal and commercial
considerations.
(ACM, 2008) [8]
The IT Body of Knowledge.
HCI
Human Factors:
• Understanding the user.
• Ergonomics.
O2: Uso de diferentes
modalidades para la
interacción personasistema: Interacción táctil,
por movimiento, sonora y
visual.
Developing Effective Interfaces:
• Graphical user interfaces.
• Non-graphical user interfaces.
O3: Principios de
accesibilidad de los
productos TIC.
5.6 Accessible interaction: input
and output.
Developing Effective Interfaces:
• Matching interface elements to
user requirements.
• Accessibility
• Accessibility guidelines and
regulations.
O4: Accesibilidad de los
documentos electrónicos.
5.5 Accessible content:
knowledge about documents and
multimedia.
O5: Uso de productos de
apoyo.
5.6 Accessible interaction: input
and output.
O6: Personalización de la
interacción.
Emerging Technologies:
• Alternative input/output devices.
Developing Effective Interfaces:
• Matching interface elements to
user requirements.
(CEN, 2010) [11]
Training Units
6.1 Universal Design and Target
User Groups.
6.2 User Interfaces.
6.2 User Interfaces.
6.2 User Interfaces.
6.5 Consumer Electronics, Games.
6.2 User Interfaces.
O7: Aspectos organizativos
de la accesibilidad.
5. Conclusiones y trabajo
futuro
En este artículo, después de recordar la necesidad de
asegurar la accesibilidad de los recursos electrónicos de
aprendizaje y de educar a los futuros graduados
universitarios en diseño para todos, se ha presentado una
serie de objetos multimedia accesibles que se han
desarrollado en una asignatura sobre metodologías de
diseño centrado en el usuario, del de grado de Ingeniería
Informática.
En concreto, se han producido 8 vídeos que responden
a contenidos y descriptores recomendados por
organizaciones nacionales e internacionales y que
introducen aspectos esenciales, como pueda ser el
tratamiento de los factores humanos y la atención a la
diversidad funcional, la legislación sobre accesibilidad
TIC y su ejemplificación en productos y servicios TIC
interoperables con productos de apoyo. En los vídeos se
muestran ventajas de uso que ofrecen materiales y
productos
accesibles
(navegación,
búsqueda,
multimodalidad en el acceso) y las posibilidades de
caracterización y modelado de las preferencias de
interacción de los usuarios, así como de cuestiones
organizativas asociadas a la accesibilidad.
Estos materiales han recibido recientemente dos
premios que avalan el trabajo realizado pero también
reflejan el camino que queda por recorrer. Como se ha
recordado en este artículo, la mayoría de los estudios de
grado todavía no incorporan currículos formativos en estos
temas y los materiales y servicios ofrecidos en nuestras
universidades también deben ser actualizados. Para
abordar estos retos, en el proyecto EU4ALL se ha
desarrollado una arquitectura abierta, basada en
computación cloud, que ofrece servicios TIC
interoperables que hacen uso de estándares existentes para
garantizar la accesibilidad y adaptaciones requeridas [9].
En este mismo proyecto se abordaron los aspectos
organizativos implicados, ofreciendo así recursos online
[15] que permiten a cualquier institución evaluar el grado
de preparación que se tiene para ofrecer una educación
inclusiva.
En el grupo aDeNu de UNED seguimos trabajando en
diversos proyectos nacionales e internacionales para
desarrollar soluciones TIC basadas en estándares. Por
ejemplo, la serie de vídeos va a estar disponible en el
repositorio de la Red ALTER-NATIVA [5] fruto del
proyecto europeo del mismo nombre, en la que se
publicarán los vídeos con el fin de que puedan ser
utilizados y fácilmente localizados por todos los
profesores de la Red, dado que su principal objetivo es
ofrecer recursos de aprendizaje para una enseñanza en
225
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
contextos de diversidad. Otros proyectos del grupo
utilizan distintas técnicas de minería de datos para lograr
sistemas educativos que se adaptan a las necesidades de
cada estudiante, incluyendo aquellas derivadas de su
diversidad funcional. En concreto, en el proyecto
MAMIPEC ya se han detectado los primeros retos
existentes para
abordar el tratamiento de aspectos
afectivos en sistemas que se basan en el uso de diversos
tipos de sensores [32].
La producción de todos estos materiales y sus
equivalentes alternativos supone que en las condiciones
correctas de presentación de los mismos, sus contenidos
serán accesibles, por tanto eficientes, eficaces y
satisfactorios para los alumnos, independientemente de sus
circunstancias personales o tecnológicas de acceso.
Una cuestión básica para conseguir la máxima
accesibilidad posible de todos los materiales desarrollados
de acuerdo con las preferencias y necesidades de cada
usuario es su modo de presentación. Por ello, un equipo
del Grupo de Investigación aDeNu está trabajando en el
desarrollo de un sistema que permita:
Correcta presentación de los vídeos en cualquier
navegador, incluyendo navegadores móviles.
Presentación del vídeo en lengua de signos de manera que
el usuario pueda elegir en qué parte de su pantalla
desea quede colocado, superpuesto o no al vídeo
original y con qué tamaño.
Presentación de la transcripción completa, sincronizada
con el vídeo, de manera que el usuario pueda
seleccionar una palabra o frase y automáticamente el
vídeo vaya a ese segundo concreto en el que se expresa
en el vídeo. Y que pueda seleccionar también si desea
que se vayan resaltando las palabras en la transcripción
según se van diciendo en el vídeo. Esta última
característica es de especial utilidad para personas con
ciertas limitaciones en la comprensión lectora y para
quienes no dominan el idioma.
Opción para habilitar y deshabilitar las diferentes
adaptaciones de los objetos multimedia.
El sistema permitirá también guardar las preferencias
del usuario, pudiendo indicar qué alternativas desea se le
presenten por omisión y cuáles no. Además, podrá ser
implementado en cualquier LMS (Learning Management
System) o servicio de cursos online y utilizará lenguaje de
marcado HTML5 [36], que permitirá la distribución del
material multimedia y sus diversas adaptaciones sin
depender de tecnologías propietarias o cerradas.
6. Agradecimientos y
distinciones Los autores desean agradecer a los diez protagonistas
de los vídeos su valiosa participación, así como el apoyo
prestado por el CEAPAT-IMSERSO [10], la Fundación
CNSE [16], la asociación ADAMAR [6] y el Centro
DATO [12].
Igualmente queremos agradecer el apoyo prestado por
la UNED, el Ministerio de Ciencia e Innovación, que
financia el proyecto MAMIPEC (TIN2011-29221-C0301), y la Unión Europea, en cuyo Programa ALFA III se
encuentra el proyecto ALTER-NATIVA (DCIALA/2010/88).
La serie de objetos multimedia ha obtenido el Premio
ACE Course Awards: Multimedia Courses, otorgado por
el Consorcio Mundial del OpenCourseWare [29], así
como el Premio MECD-Fundación Universia a la
accesibilidad, dentro de la convocatoria de premios
OpenCourseWare de la Fundación Universia [17].
7. Referencias
[1]. aDeNu. Grupo de Investigación del Departamento de
Inteligencia
Artificial
de
la
UNED:
http://adenu.ia.uned.es/web/
[2]. AENOR.
(2005).
UNE
153020:2005.
Audiodescripción para personas con discapacidad
visual. Requisitos para la audiodescripción y
elaboración de audioguías.
[3]. AENOR. (2007). UNE 139804:2007 Requisitos para el
uso de la Lengua de Signos Española en redes
informáticas.
[4]. AENOR. (2012). UNE 153010:2012. Subtitulado para
personas sordas y personas con discapacidad auditiva.
[5]. ALTER-NATIVA. Proyecto financiado por
Programa ALFA III. http://alfa3alternativa.eu
[6]. Asociación
http://www.asociacionadamar.org.
el
ADAMAR:
[7]. Asociation for Computer Machinery, ACM. (2001).
Curricula Recommendations.
[8]. Asociation for Computer Machinery, ACM - IEEE
Computer Society (2008). Curriculum Guidelines for
Undergraduate Degree Programs in Information
Technology.
[9]. Boticario J.G., Rodríguez-Ascaso, A., Santos, A.,
Raffenne, E., Montandon, L., Roldán, D., Buendía, F.
Accessible Lifelong Learning at Higher Education:
Outcomes and Lessons learned at two different pilot
sites in the EU4ALL Project. Journal of Universal
Computer Science Vol 18 (1) 62-85, 2012.
[10].CEAPAT
–
IMSERSO:
http:www.ceapat.org.
Recuperado el 14 de abril de 2013.
[11].CEN. (2010). Curriculum for training Professionals in
Universal Design — CEN CWA /UD-Prof Curriculum.
[12].Centro DATO: http://www.centrodato.org. Recuperado
el 15 de abril de 2013.
[13].Design for All for eInclusion. (2008). D5.2 Exemplary
Training Modules on eAccessability for industry
training. Design for All for eInclusion.
[14].DISCAPNET. 2010. Estudio de accesibilidad de
portales
web
universitarios.
http://www.discapnet.es/Castellano/areastematicas/Acc
esibilidad/Observatorio_infoaccesibilidad/informesInf
226
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
oaccesibilidad/Paginas/AccesibilidaddePortalesWebUn
iversitarios.aspx
[15].EU4ALL: http://www.eu4all-project.eu/
[16].Fundación CNSE: http://www.fundacioncnse.org.
Recuperado el 15 de abril de 2013.
[17].Fundación Universia. VI Edición de los premios
MECD-Universia a la iniciativa OCW. Premio MECDFundación Universia a la accesibilidad:
http://promociones.universia.es/microsites/premios/oc
w/index.jsp. Recuperado el 15 de mayo de 2013.
[18].García de Sola, Mar (coord.). (2006). Libro blanco del
diseño para todos en la Universidad. Fundación
ONCE, Instituto de Mayores y Servicios Sociales,
2006
[19].IDCNET. (2003). D3.2 - Identifying Core Knowledge
and Skill Sets for Model Curricula
[20].IDCNET. (2004). D3.3 – Teaching DfA Core
Knowledge and Skill Sets: Experiences in including
inclusive design.
[21].IEEE. (2002). Standard for Information Technology -Education and Training Systems -- Learning Objects
and Metadata (LOM).
[22].ISO/IEC.
(2008).
ISO/IEC
24751-3:2008
Individualized adaptability and accessibility in elearning, education and training -- Part 3: "Access for
all" digital resource description
[23]. IMS Global Learning Consortium. (2012). IMS Access
For All v3.0 Public Draft Specification. Recuperado el
15 de abril de 2013, de IMS Accessibility:
http://www.imsglobal.org/accessibility/
[24]. ISO/IEC.
(2011).
19788-1:2011
Information
technology -- Learning, education and training -Metadata for learning resources -- Part 1: Framework
[25].Ley 51/2003 de 2 de diciembre, de igualdad de
oportunidades, no discriminación y accesibilidad
universal de las personas con discapacidad. Publicado
en: «BOE» núm. 289, de 03/12/2003.
[26].Norman, D. and Draper, S. (1986). User Centred
System Design, Hillsdale, NJ: Lawrence Earlbaum
Associates.
[27].NC State University, The Center for Universal Design
(1997): Principios del Diseño Universal. Disponibles
en línea en español y recuperados el 14/05/2013 en el
sitio
de
la
Fundación
Sidar:
http://www.sidar.org/recur/desdi/usable/dudt.php
[28].Observatorio de Infoaccesibilidad de Discapnet.
(2019). Accesibilidad de Portales web Universitarios.
Discapnet.
Disponible
en
línea:
http://www.discapnet.es/Castellano/areastematicas/Acc
esibilidad/Observatorio_infoaccesibilidad/informesInf
oaccesibilidad/Paginas/AccesibilidaddePortalesWebUn
iversitarios.aspx
[29].OCW Consortium. 2013 Course Awards for
Opencourseware
Excellence:
http://www.ocwconsortium.org/en/community/blog/20
13/05/20/ocw-consortium-announces-winners-of2013-course-awards-for-opencourseware-excellence/.
Recuperado el 14 de mayo de 2013.
[30].Quality Assurance Agency for Higher Education
(QAA). (2010). Code of practice for the assurance of
academic quality and standards in higher education.
Section 3: Disabled students. 2010. Reino Unido.
[31].Rosson, M. B., & Carroll, J. M. (2009). Scenario based
design. Human‐computer interaction. Boca Raton, FL,
145-162.
[32].Sama, V., Sevillano, E. (2012). Guía de accesibilidad
de documentos electrónicos. Disponible en línea:
http://portal.uned.es/portal/page?_pageid=93,26066088
&_dad=portal&_schema=PORTAL
[33].Santos, O.C., Rodríguez-Ascaso, A., Boticario, J.G.,
Salmerón, S., Quirós, P., Cabestrero, R. Challenges for
Inclusive Affective Detection in Educational
Scenarios. C. Stephanidis and M. Antona (Eds.):
UAHCI/HCII 2013, Part I, LNCS 8009, pp. 566–575,
2013.
[34].SOLCOM. (2011). Informe 2011 sobre la presencia de
la accesibilidad universal en las enseñanzas
universitarias. SOLCOM. Disponible en línea:
http://asociacionsolcom.org/Informe_accesibilidad_uni
versidades_2011
[35].Rodriguez-Ascaso, A., Boticario, J. G., Finat, C.,
Gutiérrez, E., Prior, A. (2013). Productos de apoyo y
tecnologías de la información y las comunicaciones.
UNED
Abierta.
Disponible
en
línea:
http://ocw.innova.uned.es/ocwuniversia/Ing_tecnico_in
for_sistemas/productos-de-apoyo-y-tecnologias-de-lainformacion-y-las-telecomunicaciones
[36].W3C. (2013). HTML5.
http://www.w3.org/html/wg/drafts/html/master
227
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Shape Recognition, Image Analysis and Artificial
Vision for Blind People Using Mainstream Devices
Yong CHEN, Jaime LOPEZ-KRAHE
THIM Laboratory (EA 4004 CHArt), University of Paris 8, France
[email protected], [email protected]
Abstract
The objective of our search is to automatically transform
the visual information of an image into accessible
information for people with blindness. At present, tactile
images for use by people with blindness are created
manually with specific software (Figure 1). In this paper,
we present a pr ocedure of transformation based on t he
image processing with automatic methods of image
segmentation, shape recognition and t ext recognition. This
procedure is applied to cartographic images.
Figure 1. Maps relief (www.inshea.fr).
keys words: image segmentation, shape recognition, text
detection, fuzzy methods, connected component
Resumen
El objeto de este trabajo de investigación es la
adaptación de la información visual de imágenes sencillas a
las personas ciegas por métodos automáticos. Actualmente
las imágenes táctiles son realizadas de forma manual
respetando una serie de criterios específicos para que las
imágenes se adapten al sentido del tacto (figura 1).
Presentamos un pr ocedimiento de transformación basado
en el análisis de la imagen utilizando métodos de
segmentación, y el reconocimiento de estructuras y de texto.
Se aplica experimentalmente a i mágenes de cartografía
geográfica.
Este trabajo debe considerarse como una t entativa de
búsqueda de sistemas que permitan la accesibilidad de las
formas e imágenes numéricas a las personas ciegas.
Palabras
clave:
segmentación
de
imágenes,
reconocimiento de formas, detección de texto, métodos
difusos, componentes conectados.
1. Introduction
Dissemination of information is carried out more and
more under digital form, and often remotely, but
paradoxically this generalized accessibility becomes an
increasingly insuperable barrier for people who do not have
the possibility of reaching the visual method of information.
The work we present here constitutes an approach of access
to the documents under the tactile method. This problem is
not new and the tactile access to written information is
currently made using Braille transcription, both for edition
and browsing with adapted tactile application interfaces
(ephemeral Braille lines).
However the presence of images, figures and graphs
does not facilitate the automatic processing following this
change. In addition, the sense of touch, although twodimensional like that of vision, does not have the same
amount of resolution or frequency. Therefore it is not
possible to carry out a transcription by an automat as it is
the case of a text in Braille, and it is necessary to consider a
higher level of processing adapted to the images.
In this research, we focus on geographical images, whose
accessibility is important in schools, but also in the context
of cartographic database queries.
In order to make the image tactile accessible, it will be
necessary to make adequate choices to convey the
maximum relevant and understandable information. The
number of differentiable textures by tactile mode is very
low, it will be necessary to observe rules of reinforcement
of contours and generation of differentiable textures. The
presence of symbols in legends which are found in the
image implies learning these symbols, recognising them in
the image and a specific tactile coding which can allow its
localization in the tactile image.
Finally the association of these signs to the text of the
legend, the detection and recognition of the texts allow for a
richer reading of the map.
A geographical image is composed of 4 very important
elements: color area, text, shape and symbol. In order to
make these data accessible for blind persons, this project is
composed of three parts:
1. Image segmentation,
2. Shape recognition,
3. Detection and recognition of the text
2. Image segmentation
The different areas are defined by the different colors of
the own colors of the image; in a tactile image, these colors
will be represented by different textures. There is a
maximum of five textures per image; more would make it
difficult for blind people to distinguish between the areas.
At the same time, the edges of each area have to be
228
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
simplified and enhanced to make easier the recognition of
the area.
To transform the “colored areas” into “textured areas”,
we created the following steps, respecting the rules
mentioned previously: prediction of the number of classes,
segmentation of the image (we approach here the case of
color images), post-processing of each found class,
detection and simplification of edges, and filling of each
class by a different texture within the space of differentiable
textures.
2.1 Prediction of the number of classes
In order to segment an image automatically, first of all
we try to establish an automatic procedure of prediction of
the number colors. For an image of RGB of 24 bit color, the
maximum number of colors is:
224 =16 777 216
We use a simple equation for this prediction:
Index=R*2560+G*2561+B*2562
Before beginning the work of selection of the classes to
retain, we add a step of pre-treatment which makes it
possible to decrease the parasitic colors by smoothing with
the number of pixels of the histogram of each channel
(Figure 2). This number of pixels makes it possible to
differentiate the main colors (the highest number of pixels)
from noises (the smallest number of pixels). The latter are
overridden by the main colors of the closest neighbors.
the image is classified by giving a degree of membership
of each pixel.
This algorithm is described by the following stages:
1. Define the number of classes
2. Initialize the coefficient of membership for each pixel,
3. Compute the centroid (barycentres) classes,
4. Readjust the coefficient of membership according to
the position of the centroid ones,
5. Stop if the coefficient has a constant value, if not go to
step 3.
Figure 3. Segmentation with FCM (Number of class: 8)
2.3 Post-treatment for each found class
For each class found, the post-treatment is applied to
improve the result.
This procedure includes the following steps (Figure 4):
1. Remove useless classes (isolated pixels, weak surface)
2. For each remaining class, to remove the pixel
pointless by using the algorithm Connected-Component
[15]
3. Extract [2, 7.8], simplify (filter passes low) and
reinforce [3] contour (contours must be reinforced to
facilitate the tactile reading)
4. Fill the area by a texture adapted to the tactile
recognition.
Figure 2. Pre-treatment of the image
(In top, the image origin and histograms of 3 channels,
In bottom, the image rebuilt and histograms after the
processing.)
2.2 Segmentation of the image
The purpose of segmentation is to separate and gather
various homogeneous zones with same properties, such as
color and intensity, according to the number of classes
(Figure 3). There exist several methods of segmentation.
These methods fall in two types:
1. Unsupervised segmentation, which can automatically
separate the image into natural clusters without any prior
knowledge of the class;
2. Supervised segmentation, which necessarily works
with knowledge of each class defined.
We tested the method of k-means [18] and the FCM
(Fuzzy C-Means) [1, 5, 6], which gave better results. FCM
is an unsupervised fuzzy algorithm for classification. This
algorithm makes possible to obtain, for each pixel, a degree
(between 0 and 1) of membership of a given class. This
algorithm obligatorily requires knowing the number of
output classes.
In the RGB color space, each pixel has three
characteristics which are three intensities of three channels,
FCM is used on these three channels at the same time, and
Figure 4. The post-treatment for each class found
(a:class found; b: Reset unnecessary pixels; c: simplify the
edges; d: Fill the region with texture)
Indeed, compared to the visual capacity, the capacity of
haptic perception is very limited; therefore it is necessary to
respect some constraints in order to convey tactile
information correctly.
3. Shape recognition
The captions bring information using specific forms
which can be found in the image. We detect and code these
forms to recognize them on the image.
229
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
We want to identify and classify all the shapes contained
in an image, but also record some properties which may
also contain different information such as size, the color
(which color class), the position in the image, etc. Once we
have these information, combined with the content if the
legend explaining the meaning of each shape, we can add a
comment to each shape in Braille.
To each found class, we apply the fuzzy algorithms [4]
for the shape recognition [9, 10]. The various forms have
different properties: the number of vertices (Figure 5, 6), the
relationship between the convex Hull and surface, etc
(Figure 7). Thanks to these various properties (Table 1),
each candidate form can be identified in the image (Figure
8) and transmitted with a specific tactile code described in
the legend.
Figure 5. The vertices of a shape
(Red Cross: the vertices, Blue Line: convex hull)
On each of the classes found, the objects are separated to
count the vertices (figure 5):
The method gives good result for the recognition of
simple shapes. For the recognition of more complex shapes,
we would like to implement another method: the “Hu’s
invariant moments” [19] which are frequently used as a
feature for shape recognition and classification.
In our project, we don’t only want to identify the
different shapes; we also want to obtain the properties of
each of them, as a same type of shape can have different
sizes or colors, therefore representing different information.
4. Text
image
detection
in
an
Text recognition comprises the following stages: pretreatment of the image, detection and localization of the
area of text, extraction of the area and importation into OCR
software, and transcription into Braille.
We tested 3 different methods for the localization of text:
Wavelet Filtering [11, 12, 13], a method derived from
mathematical morphology [16], method SWT [17] (Stroke
Width Transform).
Wavelet filter:
The wavelet transform is used to detect contours with
different orientations. The application of the wavelet filter
on an image consists of a filtering process in horizontal and
a subsequent filtering process in vertical. The text areas are
generally characterized by high-contrast edges, the
coefficients of great value can be found in the sub-bands of
the high-frequency, for this, we computed the standard
deviation of the respective histogram H:
Figure 6. Calculate the number of each shape
(a: found class; b, c: found shapes)
Figure 7. Polygons used to estimate properties
For the text areas, the wavelet coefficient in the sub-band
are dispersed and concentrated in a few discrete values. For
the non-text area, the coefficient tends to follow a Laplacian
distribution (Figure 9). It is assumed that the block if text
will be characterized by higher value of the standard
deviation than other blocks (Figure 10 and Figure 11).
Table 1. Properties of form
Figure 9: Histogram of a textual area and non textual area
Figure 8. Shape recognition
230
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
why we decided to use another method of automatic text
detection.
Stroke Width Transform (Figure 13) is an operation that
transforms color values contained in each pixel to the stoke
width values, an almost constant feature that can separate
text from other elements of the image. This system can be
used to recover the regions that may contain text regardless
of its size, direction, font, color and language.
Figure 10. Sub-band image of decomposition with wavelet
filter
(The textual area contains the high-contrast edges)
Figure 13. Result of the text classification with SWT
In our research, we apply the system created by Boris
Epshtein [14], this system can be used to detect the text
areas in a natural image and it can also improve the OCR
result by creating a text segmentation mask (Figure 14).
Figure 11. Results of Location of text areas
Method derived from mathematical morphology:
This method is based on the properties of the texts of
which distances between letters, words and lines, each with
a specificity to have a quasi constant value. Indeed, the
other objects of an image do not have this property (Figure
12).
Figure 14. OCR results improved
In order to find the stroke width value for each pixel, the
system first computes edges in the image, and then
computes the stroke width value, show in Figure 15:
Figure 12. Results of Text detection with the distances
It is a block segmentation according to an extraction by
the configuration the blocks and the relation between them.
In our case, the Run Length Smoothing Algorithm (RLSA)
[16] was used. Compared to the wavelet filtering, this
method gives more reliable results, but presents a major
drawback due to the difficulty in finding the good value of
the thresholds of distances for an image treated for the first
time. To date we have not succeeded in automating the
detection of these thresholds.
SWT:
Through our work, we want to create an automated
program. As the fist two methods always require the user to
choose appropriate parameters (like the threshold), that’s
Figure 15. Implementation of the SWT
231
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
5. Experiments and results
Our current program was built with Matlab and is able to
segment the image and recognize the shapes. The
recognition of the text will be achieved in a future step.
Below are the result of the test we made.
Figure 20. Result of shape recognition step
(The information of each shape (size, color, position) will be
stored in the program)
Figure 16. Interface created with Matlab
Figure 21. Tactile Image
Figure 17. Result of classification step
Figure22. Another test, after the shape recognition.
Figure 18. Result of the texturing step
Figure 23. Another test, tactile image
Figure19. Shape recognition step
232
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[1] R. Krishna Priya, C. Thangaraj and C. Kesavadas, “Fuzzy CMeans method for Colour Image Segmentation with L*U*V*
Colour transformation”, IJCSI International Journal of Computer
Science Issues, Special Issue, ICVCI-2011, Vol. 1, Issue 1,
November 2011
[2]S. Rital, H. Cherifi,"Détection de contours d’images couleur par
hypergraphe de voisinage spatio colorimétrique", CORESA
COmpression et REprésentation des Signaux Audiovisuels (2004).
Publisher: France Telecom, Pages: 32—35
[3]Chi-Man Pun and C. Lin, "Shape Classification Using Contour
Simplification and Tangent Function,"International Journal of
Circuits, Systems and Signal Processing.
Figure 24. Printed tactile image
6. Conclusion and Future
Work
This project studies the prospects for automatic creation
of a tactile image, from digital images comprising symbols
and text (geographical graphs, images, etc). This image is
enriched and adapted for tactile use, in order to make it
available to people with blindness. One of the problems to
be solved comes from the absence of visual feedback from
the user, who cannot give useful information to adjust the
parameters of processing.
In the current version, the information processing is not
fully automated: our system requires the user to select the
appropriate parameters in order to get the better result.
However, compared to traditional methods used to create
tactile maps, our software greatly reduced the workload and
the time needed to create them. We are also trying to refine
and improve the capability if our software to process
information automatically in order to allow blind people to
use it independently. For example, a step such as automatic
calculation if the class number would make the system more
automated. For other parameter, more experiments need to
be done to determine the most appropriate value. Once
treated, the image can be embossed by using the various
systems existing on the market (specific-inks, wire-matrix
printers, etc.). The image can also be displayed with other
technology like TeslaTouch [20], developed by a Disney
Research team, which use a tactile feedback technology
called “electro-vibration”; TeslaTouche can provide a wide
variety of tactile sensation such as textures, friction and
vibration
In addition, this approach also makes it possible to treat
images from map libraries by generating toponymic
databases of these cards for a posterior addressing and
localization.
The results obtained so far are acceptable. Of course,
many problems remain and need to be solved, which will be
done by continuing our work and with the continuous
development of technology. We are currently optimizing the
software and preparing a test phase with visually impaired
users.
[4]Manuel J. Fonseca and Joaquim A. Jorge, "Using Fuzzy Logic
to Recognize Geometric Shapes Interactively". Fuzzy Systems,
2000. FUZZ IEEE 2000. The Ninth IEEE International Conference
on 7-10 May 2000
[5]S. Shambharkar and S. Tirpude, "Fuzzy C-Means Clustering
For Content Based Image Retrieval System", ICBMG 2011,
IPCSIT vol.20 (2011) © (2011) IACSIT Press, Singapore.
[6]E. Narayan, Y. Birla and G. K. Tak,"Enhancement of Fuzzy CMeans Clustering using EM Algorithm", International Journal of
Computer Applications (0975 – 8887) Volume 43– No.13, April
2012.
[7]Marie-Flavie A. Fortier, D. Ziou1, C. Armenakis and S. Wang,
"Nouvelles perspectives en détection de contours : Textures et
images multispectrales", Vision Interface '99, Trois-Rivières,
Canada, 19-21 May.
[8]DUAN Rui-ling,Ll Qing-xiang,Ll Yu-he, "Summary of
image edge detection", OPTICAL TECHNIQUE, Pékin, VlO1.31
No.3 May 2005
[9]Lopez-Krahe, T. Alamo-Cantarero, E. Davila-Gonzalez,
"Discrete line and circles :( application to pattern recognition)",
ENST. D ISSN 0751-1345
[10]J. Llados, E. Marti, J.Lopez-Krahe, "A Hough-based method
for hatched pattern detection in maps and diagrams", ICDAR '99
Proceedings of the Fifth International Conference on D ocument
Analysis and Recognition. Page 479
[11]Julinda Gllavata, Ralph Ewerth and Bernd Freisleben, "Text
Detection in Images Based on Unsupervised Classification of
High-Frequency Wavelet Coefficients", Proceedings of the
Pattern Recognition, 17th International Conference (ICPR'04)
Volume 1 - Volume 01 Pages 425 - 428
[12]C. Wolf, J.-M. Jolion, F. Chassaing, "Détection et extraction
de texte de la vidéo", INRIA, Le Chesnay, SUISSE (2002)
(Monographie)
[13]John D. Villasenor, Benjamin Belzer, and Judy Liao, "Wavelet
Filter Evaluation for Image Compression", IEEE transation on
image procession, vol 4, No 8, august 1995
[14]Boris Epshtein Eyal Ofek Yonatan Wexler, "Detecting Text in
Natural Scenes with Stroke Width Transform", Computer Vision
and Pattern Recognition (CVPR), 2010 IEEE Conference on 1318 June 2010.
[15]C. A. Bouman, "Connected Component Analysis", Digital
Image Processing - January 9, 2012
7. References
233
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
[16]P.Chauvet, J.Lopez Krahe, E.Taflin, H.Maitre, "System for an
intelligent office document analysis, recognition and description",
Signal Processing, Volume 32,Nos. 1-2, mai 1993, pp 161-190.
[17]C. Jung, Q. Liu, J. Kim, "A stroke filter and its application for
text localization", PRL vol 30(2), 2009
[18]C.W CHEN, J.Luo and Kevin J.Parker, "Image Segmentation
via Adaptive K–Mean Clustering and Knowledge-Based
Morphological Operations with Biomedical Applications". IEEE
TRANSACTIONS ON IMAGE PROCESSING, VOL. 7, NO. 12,
December 1998
[19] M.K. Hu, “Visual pattern recognition by moment invariants”,
IRE Trans. Information Theory, Vol. IT-8, pp. 179-187, February
1962.
[20] O. Bau, I. Poupyrev, A. Israr, and C. Harrison, "TeslaTouch:
electrovibration for touch surfaces." In Proceedings of the 23nd
annual ACM symposium on User interface software and
technology (UIST ’10). ACM, New York, NY, USA, 283-292.
Harrison. 2010.
234
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Referencia de Autores
Abascal, Julio, 208
Alonso, Alonso, 22
Álvarez González, Daniel, 158
Andújar Pérez, Julián, 113
Arbelaitz, Olatz, 208
Arredondo, Maria Teresa, 126
Arregui Noguer, Beatriz, 49
Arroyo Hernández, Ana, 113
Balaguer, Carlos, 5
Barrué, Cristian, 193
Bastos, Teodiano, 13
Berdud Murillo, Mª Luisa, 36
Bermúdez Cabra, Antonio, 49
Bortole, Magdo, 178, 183
Breñosa, Jose, 126
Cañadillas, F.R., 214
Capataz Gordillo, Carlos, 113
Carelli, Ricardo, 13
Carrera, Albano, 22
Carrero Leal, Juan Manuel, 106
Casas, Oscar, 70
Castellano García, Juan Miguel, 49
Ceres, R., 20, 21, 134, 183
Chacón, Jonathan, 171
Chen, Yong, 229
Chicote, Juan C., 67
Cifuentes, Carlos, 13
Cisneros Pérez, Guillermo, 204, 207
Cogollor, José M., 126
Conde, David, 70
Contijoch Culleré, Xavier, 184
Corralejo Palacios, Rebeca, 158
Cortés, Ulises, 193
De Castro, Juan Pablo, 22
De Castro Álvarez, Mercedes, 106
De la Rosa, Ramón, 22
Delgado García, Alberto, 79, 171
De Teresa, Javier, 126
Díez, Teresa, 197
Dols, Juan F., 67
Domingo, Sergio, 70
Dominguez, Mª José, 197
Ferrández-Pastor, Francisco Javier, 164
Ferre, Manuel, 126
Finat, Cecile, 221
Fioravanti, Alessio, 126
Flórez-Revuelta, Francisco, 164
Frizera, Anselmo, 13
García-Chamizo, Juan Manuel, 164
García Fernández-Caro, Domingo, 84
García-Herranz, Manuel, 36
García, Sonia, 97
Giachritsis, Christos, 126
Gil-Rodríguez, Eva P., 30
Gómez Saldaña, Belén, 118
González, Roberto, 97
González León, Francisco José, 106
González Boticario, Jesús, 221
Gutiérrez y Restrepo, Emmanuelle, 221
Haya, Pablo A., 36
Heredia Sáenz, Antoni, 208
Hermida Simil, Guillermo Abel, 79
Hermsdörfer, Joachim, 126
Hernández, Daniel, 208
Hernández, Yolanda, 146
Hilera, José R., 197
Hornero, Gemma, 70
Hornero Sánchez, Roberto, 158
Iglesias-Pérez, Andrés, 171
Jardón, Alberto, 5, 214
Jiménez, J., 134
Jiménez García, Juan Ramón, 49
Jorge García, Sonia María, 151
Lobato, Vanesa, 97
López-Krahe, Jaime, 229
Martín Barroso, Estefanía, 36
Martín Edo, Carlos Alberto, 204
Martínez, A.B., 193
Menéndez García, José Manuel, 204
Millet, Sandra, 193
Morago, Roberto, 22
Morante, Santiago, 5
Morata, S, 134
Moreno, Lourdes, 197
Muguerza, Javier, 208
Nicolás Alonso, Luis Fernando, 158
Nieto-Hidalgo, Mario, 164
Ochoa Mendoza, Estíbaliz, 113
Ortega-Moral, Manuel, 171
Pastorino, Matteo, 126
Peinado, Ignacio, 171
Peláez, Víctor, 97
Pérez, Enrique, 97
Perez, Maria, 53, 60
Pérez Seco, Marta, 118
Pino, Begoña, 91, 94
Pla, Lluisa, 193
Pons, José L., 178
Prior, Amparo, 221
Quílez, Marcos, 70
Ramiro Sala, G., 138
Raya, R., 134
Rebaque-Rivas, Pablo, 30
235
Libro de actas DRT4ALL 2013
V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos
Redondo Sastre, Almudena, 118
Rodriguez-Ascaso, Alejandro, 221
Rodriguez Pastor, Albert, 184
Rodríguez, Maria, 70
Rojas Valduciel, Halena, 41
Rojo, Javier, 126
Romero, Borja, 70
Romero Rey, Eugenio, 49
Romero, Manuel, 67
Roldán Álvarez, David, 36
Ruiz Mezcua, Belén, 106
Sabaté-Jardí, Llorenç, 30
Sacristán Aragón, Chelo, 49
Sancha, Zaida, 91, 94
Sánchez Alonso, Alberto, 36
Sánchez Rissech, Lluís, 84
Sánchez, Mª Dolores, 91, 94
Sangilbert, David, 197
San Martín, Luis Ángel, 97
Selma Cordero, Rafael, 79
Sola, R., 134
Suárez, Raúl, 70
Tofiño, Mieria, 97
Urendes, Eloy, 178
Valadão, Carlos, 13
Valero, Miguel Ángel, 146
Valero Ramón, Z., 138
Varela Méndez, María Jesús, 79
Velasco, M. A., 134
Victores, Juan G., 4, 214
Wing, Alan, 126
Walton, Clare, 126
Worthington, Andrew, 126
236

Documentos relacionados