Versión para imprimir - Revistas Académicas

Transcripción

Versión para imprimir - Revistas Académicas
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
1
Animatrónica: Diseño mecatrónico para el
entretenimiento. MIME FACE, un ejemplo de
aplicación
Hernández Espitia, César Augusto
[email protected]
Hochschule Karlsruhe - Technik und Wirtschaft (HsKA), Alemania

Abstract— This article, presents the mechatronic design
process by using an application example, the creation of a human
face based animatronic: MIME FACE. A step by step
explanation is exposed, starting from the problem statement, it
shows the artistic conception and initial functions, and how it was
advanced throughout the process; it is explained the most
important factors for the decision taking, and those distinctive
aspects for the mechatronic design. The project results are
evaluated not only in a technical manner, but also by analyzing
the way people interacted with it and how different media
presented it, showing that the chosen path presented an adequate
way for a successful design. Finally, different possibilities arise
for further developments.
Resumen—En este artículo se presentan los componentes
necesarios en la creación de un diseño mecatrónico a partir del
procedimiento que fue utilizado para la construcción del
animatrónico de movimiento facial: MIME FACE. Partiendo
desde el planteamiento del problema, se expone la concepción
artística y funcional inicial, y como se avanzó a lo largo del
proyecto; se explican los factores más importantes para la toma
de decisiones, y se resaltan aquellos aspectos distintivos del
diseño mecatrónico. El resultado final presentado es evaluado, no
sólo desde un punto de vista técnico, sino también de una forma
particular: Interacción y aparición en distintos medios de
comunicación. Finalmente se plantean distintas posibilidades
para desarrollos futuros.
Índice de Términos—Animatrónica, Ingeniería mecatrónica,
diseño mecatrónico, robótica, entretenimiento, interacción hombre-robot
I. INTRODUCCIÓN
El diseño mecatrónico, entendido como el desarrollo a
partir de la sinergia de diferentes áreas de la ingeniería [34], y
no solamente como la utilización aislada de las mismas, exige
el pensar de forma transversal cada uno de los procedimientos
y productos involucrados en cualquier proyecto; esto quiere
decir, la concepción de un sistema mecatrónico no debe
hacerse de manera secuencial, separando cada uno de los
componentes
tecnológicos
(electrónica,
mecánica,
programación y control), sino pensando en la obra completa,
teniendo en cuenta la integración de estos elementos para
obtener como resultado un objeto no puramente mecánico, ni
electrónico, sino un producto complementario en el cual no
puede permitirse la separación de dichas áreas,
potencializando la optimización de los resultados.
A partir del caso específico de la creación del animatrónico
MIME FACE [1] [32] este artículo realiza una aproximación
al proceso de diseño mecatrónico, partiendo desde el
planteamiento del problema y el desarrollo técnico del mismo.
Los animatrónicos son máquinas diseñadas para verse y
actuar como personajes de ficción, animales o humanos. Su
diseño pretende generar y recrear gestos, para lograr
representar emociones propias del ser humano [2] [3] [27], o
bien reconocerlas [28], lo que les permite encontrar
aplicaciones en áreas como el entretenimiento [25] [26], el
aprendizaje [4] e incluso la terapia sicológica [5] [33].
La primera aparición de un animatrónico puede ubicarse en
el año 1954, con la célebre película de Disney “20.000 Leguas
de viaje submarino”, en dónde un calamar gigante aparecía en
escena, mientras que detrás de cámaras, decenas de cables y
algunos cilindros hidráulicos dotaban de movimiento al
monstruo.
Muchos esfuerzos se han centrado en lograr que la
interacción de los animatrónicos con su interlocutor esté
dotada de un mensaje no solo oral, sino gestual. Para este fin
se han propuesto algunas soluciones con controles remotos y
control de movimiento por interpretación de sonidos (i.e. [24]
[25]).
Hoy en día pueden encontrarse animatrónicos en parques de
diversiones, museos, películas y centros de investigación,
evolucionando desde muñecos manipulados por cables,
controles digitales simples (sistemas on-off) hasta sistemas
analógicos (o digitales de alta resolución) muy avanzados.
Esto ha permitido un control más preciso, y movimientos más
reales, incluso, algunos están dotados con sensores de tacto y
cámaras (entre otros sistemas de retroalimentación) que
permiten interactuar con ellos, a su vez que los animatrónicos
cobran vida y reaccionan de forma casi natural ante distintos
estímulos.
II. ANÁLISIS PRELIMINAR
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
2
El éxito en el proceso de diseño depende directamente del
comprender el proceso que se quiere implementar, en este
caso el movimiento de un rostro humano.
Para lograr este objetivo, es necesario analizar su
estructura, entendiendo el origen de cada uno de los
movimientos que realiza y cómo son efectuados; sólo así es
posible establecer los recursos tecnológicos que serán
utilizados.
En esta sección se explica el procedimiento utilizado para
comprender la manera en que se generan los movimientos y de
cómo están distribuidos, de este modo lograr un acercamiento
efectivo al problema, con lo que pueden desarrollarse las
consideraciones de diseño, proceso fundamental en para el
desarrollo de cualquier diseño mecatrónico.
puntos principales del movimiento; estos puntos fueron
relacionados con los diferentes huesos y músculos que
componen la cara, entendiendo a los primeros como los
encargados de dar soporte, protección y forma a la cara, y a
los músculos como los responsables de los movimientos y
gestores de las expresiones faciales, llevando a cabo un
extenso estudio anatómico de los componentes faciales [6] [7]
[8] [9] [10] [11] [12] [14].
Para este análisis de imágenes, las fotografías fueron
tratadas en un programa de edición, consiguiendo un mejor
contraste entre los movimientos relacionados para realizar una
comparación más eficaz (Fig. 2).
Los lugares en donde el movimiento fue considerado más
significativo fueron resaltados y puntualizados, para
posteriormente estudiar la forma más práctica de
reproducirlos.
A. Análisis del rostro humano y sus movimientos
MIME FACE, parte de un esfuerzo por mejorar los
proyectos existentes en el medio de animatrónicos e
interacción entre robot y hombre a partir del estudio formal
del rostro humano, sus gestos, y principalmente los
movimientos involucrados en la fonación.
Para este fin fueron revisados diferentes estudios sobre las
proporciones de la cara humana [15] [16] [17] [18] [19],
respetando lo que se consideró como estéticamente adecuado
y su aceptación en ramas como la medicina estética y la
representación artística de la misma.
Figura 1. Modelo del rostro en arcilla.
En base a dichos estudios, fue modelado un busto en arcilla
(Fig. 1), con el fin de facilitar el análisis de las proporciones y
crear conciencia acerca del espacio disponible, de esta manera
poder realizar una selección adecuada de materiales,
actuadores, sistema de control y mecanismos involucrados en
el movimiento.
Paralelamente a este primer acercamiento espacial del
desarrollo, se realizó una identificación de los gestos
principales del rostro. A partir de la recolección y análisis de
una base de datos de fotografías digitales, se identificaron los
Figura 2. Ejemplo de imágenes digitales para el análisis de movimientos.
Fueron asignados diferentes puntos de movimiento (Fig. 3),
cinco alrededor de los labios: dos en su parte superior, uno en
la parte central del labio inferior y dos en los extremos
laterales de los labios. Los ubicados en el labio superior y en
la parte central del inferior de movimiento vertical (arriba y
abajo) y transversal (adentro y afuera), los dos en los
extremos laterales con desplazamiento vertical y también
horizontal (derecha e izquierda), este último antagónico uno
del otro (cuando el extremo derecho se mueve hacia la derecha
el izquierdo se mueve hacia la izquierda y viceversa, como en
movimientos relacionados con un beso o una sonrisa).
También se consideraron como puntos de movimiento las
pestañas (arriba y abajo), sumando cuatro (dos pestañas por
ojo), los ojos (horizontal y vertical, un punto por ojo), las cejas
(dos puntos de movimiento por cada ceja) y el movimiento
mandibular de apertura y clausura de la boca (no se
consideraron los otros movimientos de la mandíbula al no
considerarse importantes), para un total de 16 puntos de
movimiento con 23 direcciones diferentes.
El siguiente paso fue determinar los movimientos
predeterminados más importantes, tales como gestos notorios
para la expresión de emociones, como la risa, la contracción
de las cejas, la apertura de los ojos, y, finalmente, la
vocalización en la emisión de fonemas.
Para este fin, se utilizó como herramienta complementaria
el estudio de los grupos de fonemas humanos [13] [29] [30].
Tras el análisis, los grupos expresivos fueron agrupados por
las letras caracterizadas por movimientos de estos puntos de
manera semejante y que concordaran en su clasificación
fonética.
Las consonantes se agruparon teniendo en cuenta dos
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
3
criterios, su punto de articulación y la semejanza existente
entre los rasgos visibles de cada letra. Para el primer grupo de
consonantes se tomaron aquellas con rasgos bilabiales (B, M,
P). El segundo grupo se conformó con las consonantes de
rasgos Interdentales, dentales y alveolares (D, N, Ñ, S, T, X,
Z, C, R). El tercer grupo está compuesto por consonantes
labiodentales (F, V) y como cuarto grupo están la H y el
grupo las consonantes con rasgos velares (G, H, J, K, Q). Las
vocales A, E, O, no fueron agrupadas, debido a los rasgos
únicos en su articulación; la vocal I fue agrupada con la L e Y,
mientras que la U se agrupó con la W.
control requeridos para lograr movimientos fluidos y precisos,
potencializados con los mecanismos indicados.
El sistema de control tendría que ajustarse de acuerdo a la
velocidad brindada por cada mecanismo y la ubicación de
cada actuador que los acciona; a su vez, estar integrado a una
interfaz de usuario sencilla, que permita un manejo rápido y
práctico.
Estas consideraciones de diseño, las restricciones y
relaciones encontradas, son el núcleo real de la labor del
diseño mecatrónico; cada una de las decisiones que fueron
tomadas, a partir de este punto, y, a pesar que el desarrollo
debe concentrarse en la mejor selección por áreas
tecnológicas, son el resultado de la labor del ingeniero
especializado en mecatrónica, en este caso, la selección de
material, la selección de actuadores, sistemas de control y la
selección de mecanismos.
La interdisciplinariedad del trabajo realizado en este punto
es evidente, y es en este proceso donde debe centrarse todo
esfuerzo en el área de mecatrónica, no es suficiente con hacer
una mezcla de conceptos, es necesario que el diseño tenga en
cuenta cómo cada una de las decisiones afectará las áreas de
ingeniería involucradas, es menester del diseñador intentar no
obviar la relación existente entre ellas y así plantear las
mejores soluciones, en pro de hallar la solución óptima para
resolver el problema planteado.
En la siguiente sección se mostrará el proceso de selección
de materiales, actuadores, estructura, mecanismos, sistema de
control e interfaz, explicado de manera secuencial. Cabe
resaltar que esto no está en contravía de la filosofía
anteriormente expuesta para el diseño mecatrónico, es tratado
de esta manera para presentar la descripción del proceso de
selección de forma ordenada y partiendo estrictamente de las
consideraciones de diseño expuestas en esta sección.
Figura 3. Representación de los puntos principales de movimiento en el rostro.
B. Consideraciones de diseño
A partir de las condiciones establecidas en el análisis del
rostro, fueron establecidas las consideraciones técnicas para el
desarrollo del animatrónico.
Es en este punto cuando el trabajo de diseño mecatrónico es
más exhaustivo, y en donde las decisiones tendrán más peso
sobre el resultado final.
Es necesario establecer límites bien definidos en cuanto a
las necesidades y posibilidades del proyecto, enfrentando los
requerimientos y especificaciones de diseño a una evaluación
organizada e imparcial de los recursos a utilizar.
Se pretende lograr un modelo compacto, ligero y además
respetuoso de las medidas reales de una cabeza humana, el
dispositivo debe ser portátil y fácil de transportar.
La primera restricción tiene que ver entonces con el tamaño
y peso, este último influenciando también en el consumo
energético de los actuadores; el peso es por esta razón una
prioridad en el proceso de selección. La estructura debía ser
pensada de manera que requiriera la menor cantidad de
material posible, rigidez y estabilidad, pero además que el
proceso de maquinado resultara sencillo, asequible y
fácilmente modificable.
En cuanto a los actuadores, no solamente es importante su
tamaño, peso, bajo consumo energético (dependiente del peso
de la estructura), también se debe pensar en los sistemas de
III. SELECCIÓN DE ASPECTOS TÉCNICOS
A. Selección de la estructura y el material
A partir de las consideraciones de diseño, se llegó a la
conclusión que la estructura debería ser resistente, ligera y
fácil de modificar, por estas razones fue elegida una
construcción modular utilizando láminas de material, lo cual
maximizaba el volumen disponible, permitiendo la fácil
adaptación de distintos tipos de actuadores y mecanismos,
además de minimizar costos y disminuir la dificultad en el
montaje de cada una de las piezas que posteriormente
compondrían el prototipo.
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
4
Figura 5. FEA de la base de la estructura.
Figura 4. CAD del animatrónico MIME FACE.
Era necesario buscar un material que permitiera el
laminado, ó, que se encontrara de este modo en el mercado, se
elaboró una tabla comparativa [1] en donde se discriminaron
características como precio, utilidad, estética, facilidad de uso,
flexibilidad, resistencia, peso, facilidad de montaje y facilidad
de consecución, estableciendo una calificación a cada una.
Fueron comparados materiales como el aluminio, el acero, el
hierro, el plástico, el acrílico, la resina de nylon, maderas en
general y el MDF, siendo este último uno de los más
adecuados para la construcción del prototipo, desatacándose
por su precio, utilidad, facilidad de uso, peso y disponibilidad
en el mercado, comparado con los demás materiales. Sin
embargo, el MDF presentó deficiencias en cuanto a estética y
resistencia, características en las que el acrílico se destacaba,
esto hizo que los dos materiales hubieran obtenido una alta
puntuación final. La selección definitiva del material se hizo
entonces tomando en cuenta el precio, razón por la cual el
prototipo fue hecho en MDF.
El diseño y construcción del animatrónico, estuvo siempre
acompañado de la elaboración de un modelo virtual mediante
herramientas de CAD (Fig. 4), dicho modelo fue utilizado para
hacer un análisis de elementos finitos (FEA), el cual
corroboró que el material y estructura seleccionados serían los
indicados para soportar la estructura completa, cada pieza fue
analizada de forma individual y en conjunto, encontrando el
máximo esfuerzo en la pieza de soporte de la estructura, cuya
forma fue hecha con el fin de dar forma a la parte posterior del
cráneo (Fig. 5).
B. Selección del actuador
En la selección del actuador se llevó a cabo un proceso
semejante al realizado en la selección del material [1],
evaluando precio, utilidad, fuerza, funcionamiento, facilidad
de control, tamaño, estabilidad, facilidad de montaje y peso;
los actuadores evaluados fueron cilindros neumáticos,
cilindros hidráulicos, alambres musculares, motores paso a
paso, motores de corriente continua, motores de corriente
alterna, motores con reducción y servomotores; los
servomotores resultaron ser los más indicados para ser usados
en el proyecto, con altos puntajes en utilidad, funcionamiento,
facilidad de control y estabilidad, y sin ninguna debilidad
relevante [1].
El uso de los servomotores facilita además de gran manera
el diseño del sistema de control, ya que estos son sistemas
realimentados, con lo cual resulta sencillo controlar su
posición angular en todo momento.
En cuanto al consumo, un cálculo rápido de la corriente
consumida por un servo estándar sirvió de base para establecer
finalmente si eran los indicados, a pesar que ya se había
tomado la decisión de usarlos.
Debido a que la información acerca de la corriente
consumida por los motores no se encuentra en la hoja de
especificaciones del servomotor [31], fue necesario calcularla
a partir de los datos allí consignados.
Se usaron las siguientes ecuaciones:
(1)
(2)
(3)
Se tomaron en cuenta los siguientes valores, proporcionados
en la hoja de especificaciones del servomotor Futaba S3003
[31].
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
5
Se utilizó una eficiencia estándar η=0,8.
Usando (1), se encontró que:
Usando (2) se calculó que
Luego haciendo uso de (3) se encontró que la corriente
, según la proyección encontrada de acuerdo a la
cantidad de puntos de movimiento, al usar entonces 16
servomotores se requiere una fuente de 5V capaz de entregar
1,92 A.
Los movimientos humanos pueden llegar a ser
excesivamente variables, por tanto era necesario seleccionar
un servomotor adecuado incluso para los movimientos más
rápidos en el rostro, este es, la acción de parpadear. Es un
hecho que un ojo del ser humano parpadea más de 15000
veces en un día (para mantener el ojo húmedo); si sumamos el
tiempo de cada parpadeo, pasamos más de 30 minutos al día
con los ojos cerrados.
Partiendo de este dato, se deduce que cada vez que se
parpadea, los párpados duran cerrados aproximadamente
0,12s. El ojo humano es capaz de captar 24 imágenes por
segundo, lo que arroja una tolerancia de 0,042 s. Se parte
entonces de un silogismo sencillo: 1. El parpadear tiene dos
tiempos, el cerrar el ojo y el abrirlo, ahora, 2. El ojo dura
cerrado 0.12 s., con una tolerancia de 0.042 s. lo que da un
límite máximo de 0.162 s. con los ojos cerrados; Se asumió un
tiempo igual para el acto de cerrar los ojos, al igual que para
abrirlos, por tanto el parpadeo tiene que durar tres veces el
tiempo predicho, esto sería 0,486 s.
Ahora, el servomotor Futaba S3003, tiene una velocidad de
0.23 s/60°, esto quiere decir que para satisfacer la velocidad
propuesta el movimiento del párpado tenía que ser conseguido
con un recorrido del servomotor de 120°, permitiendo así
alcanzar el límite establecido. Se decidió entonces utilizar
dicho servomotor, pues este era no sólo el más económico en
el mercado sino que también el más fácil de encontrar.
C. Selección del mecanismo
Teniendo en cuenta la selección del material, los actuadores
y los requerimientos de espacio, se inició el proceso de diseño
preliminar para los mecanismos.
Figura 6. Diseños preliminares de distintos mecanismos
Retomando el análisis realizado para puntos de movimiento,
se hizo una simplificación de los movimientos, argumentados
por la simetría de los mismos, que a pesar que en la vida real
pueden ser hechos de forma independiente, podían ser
tomados en su mayoría como pares, siendo necesarios
solamente 10 puntos móviles. De esta forma los movimientos
eran simétricos tanto para el lado derecho como el izquierdo
del rostro. Sin embargo, queriéndole otorgar un poco más de
expresividad al prototipo, se decidió hacer los movimientos de
las cejas de forma individual, elevando a 11 estos puntos
móviles.
Con la optimización de puntos móviles realizada, se
minimizó la cantidad de actuadores necesarios y se trató de
aprovechar al máximo el espacio disponible para ubicarlos.
Cada uno de los 11 servomotores sería el encargado de un
punto individual de movimiento.
El primer mecanismo en ser definido y construido fue el
correspondiente a la mandíbula, el cual fue acoplado
directamente al eje del motor, permitiendo el movimiento
correspondiente su apertura.
El siguiente mecanismo en ser construido fue el de los ojos,
teniendo en cuenta la simetría de los movimientos, se requirió
de tan solo dos motores, tal y como se había previsto con la
simplificación de puntos móviles. El primero de los motores,
es el encargado del movimiento horizontal de los ojos,
acoplado de manera directa al ojo izquierdo del animatrónico,
y luego, por medio de un mecanismo de cuatro eslabones [20]
[21], en donde los eslabones 1 y 2 tienen el mismo radio, se
logró que ambos ojos se movieran a la misma velocidad,
idéntico sentido y coordinadamente.
A continuación se incluyó el mecanismo para el
movimiento vertical de los ojos; debido a las restricciones de
espacio este no se podía colocar directamente sobre el eje de
los ojos, correspondiente al movimiento vertical, por lo que se
decidió usar un mecanismo de corredera pasador [20] [21], el
cual además, brindaba la posibilidad de hacer una reducción
en el ángulo barrido en todo el movimiento.
Para finalizar el proceso de diseño de los puntos móviles
correspondiente a los ojos, se diseñó el mecanismo de las
pestañas, para el cual se usaron dos mecanismos de cuatro
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
6
eslabones [20] [21], uno encargado del par de pestañas
inferiores, y el otro de las superiores.
Figura 7. Diseño de las cejas.
Continuando con el diseño de los mecanismos, se analizó la
manera de recrear los movimientos producidos en los labios,
todos ellos movimientos de traslación, para lo que se
utilizaron cuatro servomotores, dos de ellos, el
correspondientes a los puntos centrales del labio superior e
inferior acoplados en un mecanismo de yugo escocés [20]
[21], y los otros dos, acoplados en un solo mecanismo de yugo
escocés compuesto, permitiendo a un solo grupo de
mecanismos, montados sobre la misma plataforma, controlar
el movimiento de las comisuras de los labios.
El último mecanismo en ser construido, fue el del
movimiento de las cejas, el cual a pesar de haber sido
analizado previamente, presentó varios desafíos. Uno de los
principales, fue el del poco espacio disponible, siendo crítico
en este punto luego de haber ubicado todos los otros
mecanismos. Finalmente se optó por un diseño bastante
sencillo, compacto y capaz de imitar de forma adecuada el
movimiento de las cejas, un eje con dos puntos de apoyo (Fig.
7).
Teniendo ya el diseño de todos los mecanismos, fue
necesario comprobar que los actuadores serían capaces de
cumplir con las condiciones necesarias de fuerza. Para ello se
tomó el mecanismo que iba a estar sometido al máximo
esfuerzo, el de la mandíbula.
A partir del torque especificado para los servomotores [31],
3,3 kg-cm, el cual fue comparado con el torque crítico de los
mecanismos en la mandíbula. Se realizaron dos mediciones, la
distancia horizontal entre el centro de masa y el punto de giro,
y la distancia total del mismo, siendo estos 8,372cm y
10,325cm respectivamente.
La masa aproximada de la mandíbula es de 0,10687 kg. Con
los datos de masa, equivalentes al peso del mismo, y la
distancia, se pudo calcular fácilmente el torque requerido para
mover este mecanismo, que como se indicó anteriormente, es
el mecanismo que por su brazo y el punto de concentración de
masa requiere un mayor torque para ser movido. Teniendo
esto entonces:
(4)
Siendo el torque hallado en este punto suficiente, se
concluyó que para todos los mecanismos el servomotor Futaba
S3003 cumplía ampliamente las condiciones para el desarrollo
del prototipo.
Con el fin de crear una base de datos de las velocidades,
requeridas para el sistema de control, el cual sería
implementado a partir del software de interfaz de usuario, se
hizo el cálculo de velocidades instantáneas a lo largo del
recorrido de cada uno de los mecanismos.
Fueron usados métodos gráficos de velocidades (i.e. Fig. 8)
[20] [21], sin embargo estos resultaban tediosos, pues debían
ser repetidos múltiples veces para obtener una descripción
apropiada del sistema, las solución para lograr un cálculo
apropiado varió de acuerdo con el tipo de mecanismo
utilizado.
Para el mecanismo del movimiento de los ojos en dirección
vertical se utilizó el método de velocidades relativas [21]; por
medio de un análisis trigonométrico se desarrolló un sistema
de funciones dependientes del ángulo del motor con el cual se
encontró el ángulo y velocidad de salida del mecanismo [1].
El sistema de ecuaciones es:
(5)
√
(
)
)
(6)
(7)
En donde VP2 es la velocidad del punto 2, V2 es la velocidad
del eslabón 2, V4 es la velocidad del punto 4 ó velocidad de
salida, θ el ángulo de entrada y α el ángulo de salida como se
muestra en Fig. 8.
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
7
Figura 8. Ejemplo del análisis gráfico de mecanismos- Mecanismo de
movimiento vertical de los ojos.
Gráfica 1. Mecanismo de movimiento vertical de los ojos: Ángulo de entrada Vs. Ángulo y
velocidad de salida.
Para el mecanismo de las pestañas, se utilizó el método
gráfico de centros instantáneos [20] [21], el cual se confirmó
mediante el método numérico de cierre de circuito, los
resultados del mecanismo de las pestañas superiores, análogo
al de las pestañas inferiores, se describen en las siguientes
gráficas:
Gráfica 3. Mecanismos de Yugo escoces (Boca): Ángulo de entrada Vs. Ángulo y velocidad de
salida.
Los resultados resumidos de estos cálculos se muestran en
la siguiente tabla:
a)
b)
Horizontal de los ojos
Vertical de los ojos
Cejas
Pestañas superiores
Pestañas inferiores
Mandíbula
Labios superiores
Labios inferiores
Vertical de las comisuras
Horizontal de las comisuras
Velocidad media
1,1211 rad/s
4,553 rad/s
4,553 rad/s
0,7871 rad/s
0,6357 rad/s
4,553 rad/s
28,8886 mm/s
28,8886 mm/s
28,8886 mm/s
28,8886 mm/s
Tabla I. Velocidades medias de los mecanismos.
Gráfica 2. Mecanismo de movimiento de las pestañas: Ángulo de entrada Vs. a) Ángulo de salida
y b) velocidad de salida.
El último cálculo realizado fue el de los mecanismos de
yugo escocés, los cuales describen una función coseno
respecto a su posición, y dependen del radio del eslabón
trasmisor, y seno en cuanto a su velocidad [1], su movimiento
está descrito en la siguiente gráfica:
D. Desarrollo del sistema de control e interfaz de usuario
El desarrollo del sistema de control se realizó en lazo
abierto, teniendo en cuenta que los servomotores cuentan con
su propio sistema de control, y permiten un desarrollo del
sistema de esta manera. Se hacía necesario de todas formas
controlar la forma en que cada uno de los movimientos,
modularlos para evitar que estos se vieran rígidos. Para esto la
plataforma desarrollada divide el movimiento del servo-motor
en 50 pasos individuales, de esta manera el movimiento
programado es analizado y la velocidad ajustada para que al
llegar a los extremos del recorrido el movimiento se realice
suavemente, atenuando la velocidad al llegar a dichos puntos,
El algoritmo desarrollado se aplica a los movimientos
automáticos de la boca y las cejas. Para los ojos y pestañas, la
plataforma permite los movimientos repentinos, al igual que
en un rostro real, los movimientos suelen ser erráticos,
permitiéndole al ojo buscar rápidamente objetos de interés
para el observador.
Es entonces que la programación de la interfaz de usuario es
a su vez la encargada de controlar el sistema, programada de
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
8
forma modular para brindarle al usuario diferentes niveles de
control sobre el animatrónico. El primer módulo maneja una
interfaz primitiva que permite el manejo de los motores
mediante la iteración de ingreso de datos en los que define los
valores para definir la posición y velocidad (tiempo de
recorrido) de cada uno de los servo-motores.
El algoritmo está programado para variar la velocidad en
que los movimientos son realizados, dividiendo el tiempo
entre paso y paso del servo-motor, a partir del tiempo definido
por el usuario.
En la pantalla correspondiente a este módulo se listaron
cada uno de los servomotores, facilitando un ingreso de datos
de forma individual. El usuario define el ángulo, la velocidad
y el tiempo de retardo para iniciar el movimiento.
gestionar la comunicación entre el computador y el
animatrónico (RS232); en este módulo es manejada la etapa de
potencia para la alimentación de los servo-motores, la
comunicación con el computador, y fueron agregados 8
módulos adicionales para el manejo de los servomotores sin
necesidad del programa, utilizando potenciómetros.
IV. EVALUACIÓN DE RESULTADOS
Figura 10. MIME FACE en expociencia Colombia 2007. Imagen de archivo EL TIEMPO. 6 de
Octubre de 2007
Figura 9.Captura de pantalla de la interfaz de usuario
Finalmente, se elaboró un módulo más sencillo, incluido en
la misma plataforma, permitiendo una interacción directa y
programación en tiempo real, apuntando hacia la
automatización
de
movimientos.
En
la
pantalla
correspondiente, se colocaron controles individuales para los
ojos, las pestañas, las cejas y un cuadro adicional, en donde se
da la posibilidad de ingresar texto, el computador divide la
palabra en sus respectivas letras, cargando los valores de la
posición que debe tomar cada uno de los motores para que la
boca imite la gesticulación de la misma. Este control permite
un manejo a manera de marioneta del animatrónico.
La plataforma fue desarrollada en el dialecto de Basic,
Visual Basic, en su versión 6.0, entorno de Visual Studio. Se
utilizó la herramienta Microsoft Direct Text-to.Speech,
necesaria para hacer la reproducción de sonido en tiempo real.
El software lee cada una de las palabras y la reproduce cuando
el animatrónico va a comenzar con la secuencia de cada una
de ellas. Cuándo el animatrónico se dispone a vocalizar la
primera letra, el computador inicia la reproducción
correspondiente al sonido de cada palabra, logrando así una
sincronización de gestos con la voz virtual. Adicionalmente se
habilitó al programa la pronunciación letra por letra, es decir,
el software reproduce el sonido de la letra que está siendo
gesticulada por el animatrónico en dicho instante, tratando de
evitar los problemas que en algunos casos se generaban en la
sincronización.
Se diseñó además un módulo de hardware externo para
Una evaluación técnica en términos de rendimiento,
eficiencia o cualquier otra medida típica de sistemas
mecatrónicos resulta complicada para este animatrónico, pues
no existe un estándar para la evaluación de este tipo de
desarrollos, sin embargo, puede afirmarse que este robot habla
por sí mismo. A nivel técnico el animatrónico de movimiento
facial MIME FACE, ha sido evaluado como una exitosa
combinación entre ingenio y diseño mecatrónico. Su éxito se
debe específicamente a esto, es una muestra de lo que requiere
un sistema mecatrónico para ser considerado como tal.
Peter H. Kahn, Jr. et al. En [35], propone un conjunto de
nueve puntos de referencia psicológicos para poder medir el
éxito al diseñar robots de apariencia humana: autonomía,
imitación, valor moral intrínseco, responsabilidad moral,
privacidad, reciprocidad, convencionalidad, creatividad y
autenticidad de relación.
El análisis de estos puntos se desarrolló a través de la
experiencia de interacción de distintas personas a lo largo de
diferentes eventos en los cuales el animatrónico fue expuesto,
entre ellas: Expociencia y expotecnología 2007, Campus Party
Colombia 2008, Campus Party Iberoamérica 2008 y Campus
Party Valencia 2009, en donde se simulaban conversaciones,
en las cuales una persona (operador) ingresaba las respuestas a
preguntas que hacía la persona que se encontraba en frente del
robot (espectador), a su vez que se encargaba de mover los
ojos y cejas y configurar el “estado anímico” del robot.
El animatrónico MIME FACE, no fue concebido con el fin
de mantener una conversación autónoma con un humano, su
diseño está limitado a la forma en que un operador le da
instrucciones de que decir o hacer, sin embargo, Kahn hace
referencia también a lo que él denomina “mímica de
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
9
autonomía”, comprobada a través de monólogos en los cuales
el robot cambiaba los gestos de acuerdo al desarrollo de su
presentación, generando cierta empatía en el público, un caso
particular es una recopilación de bromas que fueron
programadas, en donde el robot se programó para reírse de sus
propias bromas, actitud que era percibida por el público (Fig.
11).
La imitación de la cual habla Kahn, se puede medir con dos
aspectos distintos, en primer lugar, el diseño del animatrónico
está enfocado precisamente en reproducir los movimientos de
un rostro real, con lo que los conceptos de imitación
proyectiva y subjetiva, descritos en [35], se reflejan en el
intento por apropiarse de fuentes externas para realizar sus
propias actividades, al igual que lo hace un niño en sus
primeros años de aprendizaje. En segundo lugar, el concepto
de imitación eyectiva, que es cuando la persona que interactúa
con una máquina imita lo que esta máquina hace, en este
punto era curioso ver como muchas personas replicaban los
movimientos que el animatrónico hacía, cumpliendo pues con
las características antes mencionadas.
El valor moral intrínseco es un poco más complicado de
entender, puede resumirse como el interés y cuidado que
despierta un robot con su observador humano, empatía; Este
concepto es más notorio en los niños, en el caso de MIME
FACE, preguntaban sobre la hora en que iba a dormir, o
entablaban conversaciones en las que esperaban
pacientemente una respuesta, e incluso, no dejaban de tener
contacto con él hasta que este se despedía de ellos.
en que se decidió hacer los experimentos de conversación con
la gente, con quienes efectivamente entablaba una
conversación, así mismo, las convenciones lingüísticas, y
comportamentales, dependían en gran manera de su operador,
al igual que la creatividad en su comportamiento.
El último punto, la autenticidad en la relación, fue
observado en la forma en que las personas que interactuaban
con él, trataban siempre de establecer un contacto visual, es
decir ojo a ojo con el robot, se reían con él y se interesaban en
saber más de lo que él decía.
A partir del artículo de Kahn [35], se puede hacer una
evaluación un poco más técnica, enfocada hacia los robots con
apariencia humana, en el caso de MIME FACE, éste logra
apuntar bien en cuatro puntos de la lista: Imitación, valor
moral intrínseco, reciprocidad y autenticidad de la relación.
Por su naturaleza, es decir de ser solamente una marioneta,
sin ningún lazo de control cerrado que permita a su algoritmo
tener una realimentación de su entorno, MIME FACE se
muestra débil en puntos como privacidad y creatividad.
Los últimos dos puntos se crean a partir de una ilusión cuyo
responsable es el operario, y a pesar de que son proyectados
por el robot, obedecen exclusivamente a su cerebro humano:
Autonomía, responsabilidad moral y convencionalidad.
Figura 12. MIME FACE, presentado en Campus Party Iberoamérica.
Figura 11. Interacción con personas, la niña ríe de una broma que le cuenta el animatrónico
MIME FACE.
Los dos siguientes puntos en la lista de Kahn,
responsabilidad moral y privacidad, son los dos puntos más
complicados en la evaluación de MIME FACE, debido a que
este no responde de acuerdo a un algoritmo de
comportamiento, luego no cuenta con ningún tipo de limitante,
salvo a las que el operador mismo tenga como tales. Sin
embargo, una aproximación a la responsabilidad moral era
dada al advertir a los espectadores que éste podía morderles, y
cuando en medio de la conversación ellos le pedían que por
favor no los mordiera, pues querían tocar su piel, apelando a
un sentido de moralidad atribuido, más no real.
La reciprocidad se puso a prueba desde el primer momento
Al ser MIME FACE un robot principalmente diseñado para
el entretenimiento, otra forma de evaluar el impacto relativo
del robot fue la recopilación de distintas noticias, tanto en
televisión, prensa e internet acerca del robot, algunos
ejemplos:
“Este robot recibe órdenes de jóvenes estudiantes de
ingeniería a través de un computador. La máquina, construida
enteramente en Colombia, puede imitar gestos humanos”
Caracol Noticias, Septiembre 29 de 2007
“… un rostro mecatrónico para crear personajes de ficción
fue presentado por la universidad de San Buenaventura.” El
Tiempo, Sábado 6 de Octubre de 2007 (Fig. 11).
“Al verla en la Campus Party da cierto temor, debido a que
tiene una apariencia un poco miedosa, es como ver una
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
10
calavera viva. Pero una vez se pone a hablar con uno, la risa
sale naturalmente y uno termina como un buen amigo de esta
cara” Juan David Durán, NAGAsite.com, Junio 27 de 2008.
cercana a la realidad.
La robótica tiene muchas formas de expresión. Sin
embargo, casi siempre está alejada de un público general. El
utilizar la animatrónica como medio para hacer un
acercamiento de este tipo resulta ser una excelente estrategia
para generar interés por esta área.
En consideración a lo anterior, se puede afirmar que este es
un proyecto, de visión innovadora y orientada a acercar a un
público general con tecnología.
“Entre los diseños se destaca el robot animatronic (Mime
Face)… es el prototipo de un robot de movimiento facial,
capaz de realizar movimientos casi humanos…” Periódico
GNV, Julio de 2008.
“Llama la atención mucho más que sus compañeros de
área en El Salvador, inidentificables y vulgares amasijos de
metal inerte. Quizá sean técnicamente superiores, pero
Jaimito tiene gracia, chispa y encandila. Justo ésa era la
intención cuando se concibió: conciliar arte e ingeniería.”
ElMundo.es, España, Octubre 30 de 2008.
“Jaimito, un robot en exhibición en Campus Party, simula
gestos humanos. Su creador es un chico colombiano.” La
prensa gráfica, El Salvador, Octubre 31 de 2008.
“…le Colombien César Augusto Hernandez, 25 ans, est
venu avec Mime Face, qu'il surnomme affectueusement
Jaimito, un robot visage, qui parle en reproduisant les
expressions d'un visage humain et ferme les yeux. (El
Colombiano César Augusto Hernández, 25 años, ha venido
con Mime Face, a quien apoda cariñosamente Jaimito, una
cara robótica, que habla y reproduce las expresiones de un
rostro humano y cierra los ojos)” AFP, Julio 31 de 2009,
Francia
VI. DESARROLLOS FUTUROS
Actualmente se está trabajando en un nuevo modelo del
animatrónico, se pretende en este nuevo proyecto reproducir lo
hecho en MIME FACE, mejorando algunos aspectos técnicos
que mostraron fallas luego de agregarle la “piel”.
El estudio de movimientos ha sido replanteado, incluyendo
nuevos puntos de movimiento, la apariencia externa se ha
trabajado de una forma mucho más realista, con lo que se
pretende generar en el espectador otro tipo de interacción, a su
vez que hacer una documentación más seria de esta relación.
Queda pues abierta la posibilidad de incluir sensores y
cámaras, de este modo desarrollar un algoritmo en que estén
incluidas funciones de reconocimiento visual e inteligencia
artificial, para así poder superar las barreras evaluadas en
cuanto a autonomía y toma de decisiones.
REFERENCIAS
[1]
HERNÁNDEZ ESPITIA, CÉSAR AUGUSTO. MANZI BERNAL,
JOSE ALEJANDRO. RUIZ RAMIREZ, DANIEL ARTURO.
URICOCHEA JEPEZ, JUAN CARLOS. Diseño y construcción de un
animatrónico DE MOVIMIENTO FACIAL, Mime Face
Bogotá D.C., Universidad de San Buenaventura, 2007
[2]
SONG, HYUNSOO. KWON, DONG-SOO, Design of a Robot Head
with Arm-type Antennae for Emotional Expression.
Seoul, International Conference on Control, Automation and Systems,
2007
[3]
PIOGGIA, GIOVANNI. IGLIOZZI, ROBERTA. FERRO,
MARCELLO. AHLUWALIA, ARTI. MURATORI, FILIPPO. DE
ROSSI, DANILO. An Android for Enhancing Social Skills and
Emotion. Recognition in People With Autism
IEEE transactions on neural systems and rehabilitation engineering, vol.
13, No. 4, DECEMBER 2005 507
[4]
SEMPERE, ANDREW. MIKHAK, BAKHTIAR. CTRL_SPACE:
Using Animatronics to Introduce Children to Computation
Proceedings of the IEEE International Conference on Advanced
Learning Technologies (ICALT’04), 2004
[5]
SHIBATA, TAKANORI. An Overview of Human Interactive Robots
for
Psychological Enrichment.
Proceedings of the IEEE, vol. 92, No. 11, November 2004
[6]
BOUCHET-COULLERET, Anatomía de la cara, cabeza y órganos de
los sentidos.
Madrid, Editorial Panamericana, 1979
[7]
BOUCHET-COULLERET, Anatomía del cuello. Columna cervical.
Madrid, Editorial Panamericana, 1979
[8]
CUNNINGHAM, Tratado de anatomía humana.
Estos son algunos ejemplos del impacto mediático de la
presentación del robot en distintos lugares, demostrando así su
impacto, una de las intenciones con las que fue construido.
V. CONCLUSIONES
Se muestra en este artículo como se dirigen los esfuerzos
hacia una solución óptima, en búsqueda de reducir costos y
tiempos de producción.
Lo presentado en estas páginas brinda una guía hacia la
definición de diseño mecatrónico, y da paso a paso el
procedimiento seguido en su diseño. El proyecto, en este caso,
habla por sí mismo, no sólo de una manera figurativa. El
proyecto descrito en este artículo, despertó mucho interés en el
ambiente académico y además logró mostrarse a sí mismo
como una alternativa de aplicación de la robótica, poco
estudiada en Colombia.
La utilización de diferentes métodos de diseño no solo
permitió verificar los mecanismos planteados en las etapas
preliminares del mismo, sino que ayudó para el mejoramiento
de los mismos, haciendo más eficiente el resultado.
Los movimientos de un ser humano, al ser tan complejos,
propusieron un reto interesante, a pesar que los elementos que
se usaron no llegan a imitar perfectamente todos los
movimientos posibles, se puede crear una ilusión bastante
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB
11
Editorial Interamericana-McGraw-Hill, 1987
[33] http://www.parorobots.com/
[9]
ROUVIERE y DELMAS, Anatomía humana.
Editorial Masson, 1987
[10] KAHLE, LEONHARDT y PLATZER, Atlas de anatomía.
Barcelona, Ediciones Omega, 1992
[11] M. LATARJET – A. RUIZ LIARD, Anatomía humana, 3 ed. Vol. I
España, Editorial médica panamericana, 1998
[12] NETTER, FRANK H., Atlas de anatomía humana, M.D.2 ed.
U.S.A., Novartis, 2000
[13] LE HUCHE, F., ALLALI, A., La voz. Tomo I.
Editorial Masson, 2003
[14] MACKINNON y MORRIS, Anatomía funcional. Vol. III: Cabeza y
cuello.
Editorial Médica Panamericana, 1990
[15] MOORE, Anatomía con orientación clínica.
Editorial Médica Panamericana, 1993
[16] LLOYD DUBRUL, Anatomía oral.
Ediciones Doyma, S.A., 1990
[17] REVERTE JOSÉ M., Antropología Forense. Segunda Edición
Madrid, España, Ministerio de Justicia. Secretaria General Técnica.
Centro de publicaciones, 1999.
[18] BURGUÉ CEDEÑO, DR. JESÚS, La cara, sus proporciones estéticas
La Habana, Cuba, Clínica central “Cira García”, 2005
[19] ALMAGRO BASCH, M., Craneometría Gran enciclopedia Rialp,
Ediciones Rialp, 1991
[20] MABIE, HAMILTON H. - REINHOLTZ, CHARLES F., Mecanismos
y dinámica de maquinaria
México, Ed. Limusa, 1999
[21] ERDMAN, ARTHUR G., Diseño de mecanismos, análisis y síntesis
México, Ed. Prentice Hall, 1998
[22] SHIGLEY, JOSEPH – MISCHKE, CHARLES R., Diseño en ingeniería
mecánica, 6ª Ed.
Ed. McGraw-Hill
United States Patents (Patentes de los Estados Unidos):
[23]
3931679 Dental Patient simulator
[24]
4107462 Electroventriloquist
[25]
4177589 Three dimensional animated facial control
[26]
6352464 Mechanism for animated character
[27]
6991511 Expression varying device
[28] http://www.ai.mit.edu/projects/humanoid-roboticsgroup/kismet/kismet.html
[29] LE HUCHE, F., ALLALI, A., La voz. Tomo I.
Editorial Masson, 2003
[30] LLOYD DUBRUL, Anatomía oral.
Ediciones Doyma, S.A., 1990
[31] http://www.gpdealera.com/cgi-bin/wgainf100p.pgm?I=FUTM0031
[32] HERNÁNDEZ ESPITIA, CÉSAR AUGUSTO. LÓPEZ, JORGE.
Diseño y construcción de un animatrónico de movimiento facial.
Bogotá, Colombia, Revista INGENIUM, ISSN: 0124-7492, Julio 2008.
[34] J.A. RIETDIJK. Ten propositions on mechatronics.
Mechatronics in Products and Manufacturing Conference, Lancenter,
Inglaterra, 1989.
[35] KAHN, PETER H. JR. ISHIGURO, HIROSHI. FRIEDMAN, BATYA.
KANDA, TAKAYUKI. FREIER, NATHAN G. SEVERSON, RACHEL
L. MILLE, JESSICA. What is a human? - Toward psychological
benchmarks in the field of human–robot interaction.
Interaction Studies 8:3 (2007), 363–390. John Benjamins Publishing
Company.

Documentos relacionados