Computational Model of Motor Planning for Virtual Creatures: a

Transcripción

Computational Model of Motor Planning for Virtual Creatures: a
10
IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015
Computational Model of Motor Planning for
Virtual Creatures: a Biologically Inspired Model
S. López, J. A. Cervantes, F. A. Robles and F. Ramos
Abstract— The development of computational models that
emulate human cognitive functions is challenging. Nevertheless,
we think that cognitive systems will allow to correct several
problems of behavior like credibility, or wrong behavior that
occur in some areas such as: virtual reality, artificial life,
autonomous agents, humanoid robots, human-computer
interaction. In this paper we propose a biological inspired
computational model for motor planning applied to virtual
creatures. We present the results of a case study taken from
Neurosciences to validate our model. Also, the flow of
information in our model emulating the flow of information of
the human brain is presented.1
Keywords— Cognitive systems, motor planning, autonomous
agents, virtual reality.
I. INTRODUCCIÓN
D
ESDE hace algunos años, disciplinas como las
Neurociencias, la Psicología y la Fisiología han
estudiado las funciones cognitivas del ser humano con el
propósito de comprender los procesos internos de las áreas
cerebrales, sus funciones e interacciones [1], [2], [3]. Estos
estudios han sido principalmente de tipo empírico y se han
aplicado en humanos, primates y roedores [4], [5], [6].
La planeación es una de las funciones cognitivas más
complejas del ser humano. Desde la perspectiva de las
Neurociencias, la planeación se define como una función
ejecutiva que permite la resolución de problemas a través de la
programación de una serie de acciones para anticiparse a los
eventos que puedan ocurrir en el tiempo y espacio [4], [6], [7].
La planeación es una función fundamental en la creación
de criaturas virtuales que buscan exhibir comportamientos
“creíbles”. Torres [8] define la credibilidad como el grado de
certidumbre que muestra el usuario, para determinar si el
comportamiento de una criatura virtual es generado por un
humano o por un algoritmo. El desarrollo de modelos
computacionales que emulen esta u otras funciones cognitivas
del ser humano son todo un reto; debido a la complejidad de
representar los procesos cognitivos y de la falta de
conocimiento preciso sobre las funciones que desempeñan las
áreas cerebrales. Sin embargo, creemos que los modelos
computacionales
cognitivos
pueden
tener
distintas
aplicaciones, desde el desarrollo de películas animadas y
S. López, Centro de Investigación y de Estudios Avanzados del Instituto
Politécnico Nacional, Jalisco, México, [email protected]
J. A. Cervantes, Centro de Investigación y de Estudios Avanzados del
Instituto Politécnico Nacional, Jalisco, México, [email protected]
F. A. Robles, Centro Universitario del Norte de la Universidad de
Guadalajara, Jalisco, México, [email protected]
F. Ramos, Centro de Investigación y de Estudios Avanzados del Instituto
Politécnico Nacional, Jalisco, México, [email protected]
videojuegos hasta su uso en la creación de simuladores, robots
humanoides, vida artificial, entre otros [9], [10], [11].
Una de las estrategias utilizadas para lograr movimientos
creíbles es la captura de movimientos de personas reales, para
ser utilizados en la recreación de los movimientos de las
criaturas virtuales [10]; sin embargo, el mostrar movimientos
físicos o motores creíbles no garantiza que el comportamiento
que exhiba la criatura virtual también sea creíble. Partiendo de
esta hipótesis, se observa que en las áreas: Sistemas
Cognitivos, Inteligencia Artificial y Realidad Virtual, se busca
la creación de nuevos algoritmos o estrategias para dotar a las
criaturas virtuales con los mecanismos necesarios que les
permitan exhibir comportamientos motores y conductas que se
asemejen al realizado por el humano. Actualmente existen
algunos modelos computacionales y arquitecturas cognitivas
que intentan mejorar el comportamiento que exhiben las
criaturas virtuales a través de la simulación de diversas
funciones cognitivas [10], [12], [13].
De acuerdo con la evidencia biológica revisada [1], [4], y
[5], el comportamiento motor puede dividirse en dos etapas, la
primera denominada planeación motora de alto nivel, que
consiste en la generación del plan y subplanes para alcanzar
un objetivo determinado. En esta etapa, la planeación se
compone de un conjunto de pasos abstractos, por ejemplo, el
plan para trasladarse de un punto a otro, esquivar obstáculos, o
realizar cualquier otra tarea que implique un movimiento
físico de la criatura virtual. La segunda etapa denominada
planeación motora de bajo nivel es la responsable de tomar la
planeación abstracta para generar una planeación detallada
que especifique el conjunto de comandos motores que
permitirán lograr los movimientos deseados. En ambas etapas
debe existir un monitoreo de la ejecución del plan.
En este artículo se propone un modelo cognitivo de la
planeación motora de alto nivel, que permita dotar a las
criaturas virtuales con los mecanismos necesarios para la
creación de planes que resuelvan problemas en ambientes
dinámicos desconocidos. Un aspecto importante de nuestra
propuesta es la emulación de los procesos internos del cerebro
para lograr un comportamiento tanto interno como externo de
forma similar a la realizada por los humanos. Para alcanzar
estos objetivos, el diseño de nuestro modelo computacional se
basa en los resultados reportados en las disciplinas como:
Neurociencias, Psicología y Fisiología.
Este documento se encuentra organizado de la siguiente
manera, en la sección II se describen algunos de los trabajos
más relevantes de la literatura que proponen cómo generar una
planeación motora. La sección III muestra la evidencia
biológica encontrada en las disciplinas de Neurociencias,
Psicología, y Fisiología, de cómo el cerebro humano realiza el
proceso de planeación. En la sección IV se describe el modelo
propuesto, sus componentes y funciones. En la sección V se
LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING
presenta el caso de estudio desarrollado, así como los
resultados obtenidos. Finalmente en la sección VI se presentan
las conclusiones.
II. TRABAJO RELACIONADO
En esta sección se describen las características de algunos
modelos computacionales de planeación encontrados en la
literatura. La mayoría de estos modelos están enfocados a
mejorar las capacidades de los agentes autónomos en la
resolución de problemas. Estos agentes pueden ser criaturas
físicas o virtuales.
LIDA es un modelo conceptual y computacional, diseñado
para agentes autónomos [14]. En el ciclo cognitivo de LIDA
cada agente autónomo se encuentra constantemente censando
su entorno, para actualizar la representación interna y externa
de las características del entorno. La memoria procedural de
LIDA almacena un conjunto de plantillas utilizadas para
realizar tareas. Cada plantilla se compone por una acción, el
contexto en el que puede ser utilizada, el resultado esperado y
un valor de activación que permite determinar la probabilidad
de obtener el resultado esperado si la acción de esta plantilla
se ejecuta en el contexto actual del agente [14], [15]. Las
plantillas cuyos contextos coincidan lo suficiente con el
contenido de la situación actual son instanciadas con sus
variables y enviadas al mecanismo de selección de acción, que
elige una sola acción de una de estas plantillas. La acción
elegida luego va a la memoria sensorial-motora, donde es
ejecutada por un algoritmo apropiado [14], [16].
Reitter y Lebiere [12] proponen un modelo cognitivo
basado en la arquitectura de ACT-R para la planeación de
rutas espaciales que permitan la navegación de robots en
escenarios con obstáculos. El modelo cuenta con dos
componentes cognitivos que permiten recuperar el
conocimiento acerca del entorno para apoyar a la percepción
visual en la búsqueda de rutas. Para determinar la mejor ruta
entre el punto inicial y el punto final, el primer módulo intenta
recuperar una ruta de la memoria declarativa. Cuando no
existe una ruta en la memoria, la búsqueda visual produce el
siguiente paso intermedio. Posteriormente, los lugares
visitados y las trayectorias recorridas son almacenados en la
memoria declarativa para su uso posterior en la construcción
de mapas topológicos dentro de la memoria declarativa.
Lau y Kuffner [10] proponen un modelo computacional de
planeación para generar de manera automática movimientos
creíbles para avatares con aspecto de humanos y animales
dentro de un entorno virtual. Su modelo esta basado en el uso
de máquinas de estado finito (MEF) que permiten la
organización y uso de movimientos pregrabados o posturas. El
algoritmo de planificación propuesto en [10] considera como
entrada una máquina de estado finito, información acerca del
entorno, el punto de inicio del avatar y el punto al que debe
llegar. El planificador utiliza el algoritmo A* para encontrar
dentro de la MEF la secuencia de movimientos que debe
realizar el avatar para llegar al punto destino. Cada estado del
MEF contiene un conjunto de posturas o movimientos que
representan comportamientos de alto nivel tales como:
distintas formas de saltar, detenerse, trotar, esperar, girar,
agacharse, etc. Uno de los objetivos del planificador es
conseguir que el avatar llegue a su destino siguiendo el plan
11
de menor costo. Para ello, el costo de cada movimiento es
calculado en base a la distancia generada desde la raíz de una
estructura de tipo árbol hasta un determinado nodo,
multiplicado por un peso dado por el usuario. Cada nodo del
árbol almacena un estado del MEF (postura o movimiento),
una posición, una orientación, un tiempo y un costo.
iCub es una arquitectura cognitiva en desarrollo que busca
replicar las habilidades cognitivas de un niño de dos años de
edad [17], [18]. iCub cuenta con un módulo denominado
locomoción, el objetivo de este módulo es controlar los
motores del robot para realizar los movimientos necesarios de
desplazarse de un punto a otro, dentro del entorno de acuerdo
al objetivo establecido, sin embargo, antes de ejecutar los
movimientos iCub realiza una navegación que consiste en
determinar la estrategia o ruta para moverse de un punto a
otro. La navegación permite generar un plan efectivo y
eficiente contemplando los posibles obstáculos dentro del
entorno y minimizando el costo del desplazamiento. El costo
puede ser medido en tiempo, energía o distancia [19].
Los trabajos descritos en esta sección son algunos de los
más relevantes en la literatura, existen más trabajos como los
publicados por [13], [20], [21], [22], [23], y [24], sin embargo,
éstos sólo se enfocan en generar un comportamiento similar al
humano aún cuando su proceso interno difiera del proceso
realizado por el cerebro humano.
Un aspecto importante del modelo propuesto por Reitter y
Lebiere [12] es la consideración de información visual y
espacial, sin embargo, no contemplan la información corporal
para la planeación de los movimientos. Por otra parte, el
modelo de Lau y Kuffner [10] agrega el factor costo a cada
acción con el objetivo de generar un plan óptimo.
Consideramos que los factores utilizados para calcular el costo
de cada movimiento o acción no son los más apropiados,
debido a que no contemplan el esfuerzo o energía requerida
para realizar un movimiento, así como experiencias previas.
Otra desventaja, es que sólo buscan generar movimientos
creíbles sin considerar obtener un comportamiento similar al
humano, es por ello, que los avatares deben tener una visión
global del escenario para desplazarse de un punto a otro.
Finalmente, la arquitectura actual de iCub es una versión
preliminar y limitada de lo que desean alcanzar en el futuro,
por ejemplo, la función de selección de acciones es
actualmente considerada una función trivial. Esto se debe a
que el mayor esfuerzo ha sido dirigido al desarrollo del robot
humanoide [19]. Con respecto a la planeación en iCub, se
observa evidencia de una planeación de bajo nivel para
generar y coordinar los movimientos [17]. Sin embargo, se
aprecian algunas inconsistencias del modelo relacionadas con
las funciones del cerebro humano, por ejemplo, Deallier et al.
[17] muestran que su modelo se basa en una arquitectura de
tres capas del cerebro humano conformadas por corteza
motora, tronco encefálico, ganglios basales y cerebelo,
dejando aparentemente a un lado la planeación de alto nivel
desarrollada en la corteza prefrontal (PFC), no obstante en
[19] se observan tareas pertenecientes a la PFC que son áreas
cerebrales no contempladas dentro de la arquitectura de iCub.
Consideramos que debe existir una separación entre la
planeación de alto nivel y la de bajo nivel, debido a que la
primera se encarga de generar un plan de manera abstracta
para alcanzar el objetivo y la segunda es responsable de
12
IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015
ejecutar los movimientos [4], [5], [25]. Para acercarnos al
objetivo de generar un comportamiento similar al humano y
creíble, es importante considerar los factores descritos en los
trabajos revisados, sin embargo, hasta el momento no hemos
encontrado un modelo computacional que trate de emular los
procesos internos del cerebro humano, además que contemple
el factor emocional-motivacional como un elemento que
influye en la manera de ejecutar la planeación [26], [27], [28].
El modelo que proponemos esta basado en el conocimiento
existente en las disciplinas biológicas. Con la intención de
lograr un comportamiento creíble, uno de los objetivos de
nuestro modelo es emular de manera abstracta los procesos y
las funciones de las áreas cerebrales que se activan durante la
generación de una planeación motora, sin considerar los
procesos químicos del cerebro. Por otra parte, la información
contemplada en nuestro modelo para la generación de un plan
motor se puede dividir en: visual, espacial, corporal, cognitiva,
emocional y motivacional. Debido a que estos conforman la
información utilizada por los humanos para la generación de
planes de acuerdo a los resultados publicados en las
disciplinas biológicas.
III. EVIDENCIA BIOLÓGICA
En esta sección destacamos algunos modelos biológicos
del proceso de planeación encontrados en la literatura de
Neurociencia, Psicología y Fisiología.
El modelo propuesto por Crescentini et al. [5] identifican
una fase inicial y una fase ejecutiva en el proceso de
planeación. Consideran que en la fase inicial, se identifica el
objetivo, se analiza el problema, y el conocimiento de la
situación general que servirán para formular un plan. Mientras
que en la fase ejecutiva, se coordina la ejecución del plan y se
realiza el monitoreo para identificar cambios en el entorno que
afecten el plan inicial. En este trabajo se aplicó la prueba de
torres de Hanoi a personas y se determinaron un conjunto de
áreas cerebrales que se activan en cada una de las fases,
destacando que la corteza prefrontal dorsolateral (dl-PFC) se
encuentra involucrada en todo el proceso de la planeación.
En el modelo propuesto por Mushiake et al. [4], proponen
un mecanismo circular en el que intervienen dos procesos: uno
cognitivo y otro neuronal, trabajando de manera simultánea
para la resolución de problemas. A cada una de las fases del
proceso cognitivo le corresponde una fase en el proceso
neuronal para lograr su propósito. El ciclo inicia con el
establecimiento del objetivo, le continua una planeación de las
acciones a realizar, después se llevan a ejecución las acciones,
y finalmente se realiza el monitoreo o evaluación para
determinar si el objetivo ha sido alcanzado. Mientras que el
objetivo no sea alcanzado se replantea el plan y el mecanismo
vuelve a iniciar hasta lograr el cumplimiento del objetivo.
Por otra parte, Wallis [29] propone un modelo general para
las funciones de toma de decisiones, planeación y memoria de
trabajo. El modelo se compone de los mecanismos neuronales
proporcionados por las áreas cerebrales como: la corteza
orbitofrontal (OFC), la corteza prefrontal medial (MPFC), y la
dl-PFC. La OFC integra múltiples fuentes de información
(sensorial, afectiva y motivacional) relacionados al beneficio o
recompensa que se ofrecen en cada una de las opciones, para
generar una señal de valor. La dl-PFC recibe la señal de valor
para generar y coordinar la ejecución del plan. La MPFC se
encarga de evaluar el esfuerzo requerido para la ejecución del
plan, y determinar la factibilidad del plan con respecto a la
recompensa esperada. La memoria de trabajo se encuentra
distribuida en la PFC. De acuerdo con Wallis la OFC utiliza la
memoria de trabajo cuando se realiza una estimación de la
posible recompensa de cada opción, mientras que la dl-PFC
utiliza la memoria de trabajo como un repositorio de corto
plazo, para almacenar el plan definido por la dl-PFC, el cual
será ejecutado para alcanzar el objetivo establecido por la
OFC [30], [31].
Un elemento importante en la ejecución de los planes es el
factor motivo-emocional que influye en la forma e intensidad
para ejecutar los movimientos [26], [27], [28]. En el modelo
que proponemos consideramos varios factores, entre ellos el
factor motivo-emocional en la ejecución de las acciones, la
información proviene principalmente de áreas cerebrales
como: la amígdala (Amy), el hipocampo (Hip), y el estriado
ventral (VS) [27], [28]. Esto permite establecer un objetivo
cognitivo y un objetivo motivacional de acuerdo con [4]. El
objetivo cognitivo esta relacionado con el estado deseado en la
solución de un problema, mientras que el objetivo
motivacional esta relacionado con la posible recompensa.
IV. MODELO DE PLANEACIÓN
En esta sección se describe nuestro modelo computacional
de planeación (ver Fig. 1). Este modelo se encuentra inspirado
en el conocimiento existente en las disciplinas biológicas con
la intención de comprender el proceso interno que realiza el
cerebro humano para la resolución de problemas. Creemos
que el plasmar dicho proceso en un modelo computacional
podría dotar a las criaturas virtuales de esa capacidad para
resolver problemas de una manera similar a la realizada por el
humano. Algunos modelos biológicos como: [5], [4], y [29]
sirvieron de base en el diseño del modelo.
El modelo propuesto se implementa como un ciclo
operativo de tres fases principales: planeación inicial, en esta
fase se integra información (visual, espacial, corporal,
cognitiva, motora de la criatura virtual, y de su entorno) para
la creación de los planes y el conjunto de acciones que
contendrá cada uno de los planes. La segunda fase se
denomina planeación ejecutiva, se encarga de la coordinación
de diversas áreas cerebrales para lograr la ejecución de cada
una de las acciones manteniendo el orden de prioridad en que
fueron planeadas. La tercera fase, denominada monitoreo, es
útil para detectar cambios en el entorno durante la ejecución
que afecten el objetivo o el plan inicial. Cada una de las fases
se compone de un conjunto de áreas cerebrales, algunas de
ellas poseen más de una función dependiendo de la fase en la
que se encuentren.
LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING
13
Figura 1. Propuesta de un modelo computacional de la planeación.
Existen diversos trabajos como los publicados por [5], [6],
[32], [33], [34], y [35] que muestran evidencia de las áreas
cerebrales que se activan durante el proceso cognitivo de la
planeación. En el modelo algunas áreas cerebrales se
representan más de una vez para facilitar el entendimiento del
flujo de datos. También hemos enumerado el flujo de datos
para dar una idea más clara de la secuencia de la activación
entre las áreas. Debido a la complejidad del funcionamiento
del cerebro, muchas de las áreas cerebrales presentan una
activación concurrente, e incluso pueden mantener un flujo de
datos constante. A continuación se describe el flujo de datos
en el modelo propuesto.
1. El modelo requiere como entrada el establecimiento del
objetivo que es proporcionado por la OFC. Cuando la OFC
tiene más de una opción, debe evaluar cada una de ellas
considerando la posible recompensa que pueda obtenerse [29],
[30], [31].
2. Con el objetivo establecido se inicia la fase de
planeación inicial donde la dl-PFC evalúa las consecuencias
de las acciones futuras para generar el plan y organizar la
secuencia de acciones [36], [37]. La dl-PFC debe integrar
información proveniente de la corteza temporal inferior (ITC),
corteza premotora (PC), y corteza parietal posterior (PPC). La
ITC ofrece información visual y espacial de la criatura virtual,
la PPC ofrece información visual y espacial relacionada con la
localización del objetivo y de las áreas del cuerpo a utilizar
[3], [36], [38], [39], [40]. Consideramos que tanto la ITC
como la PPC proveen información de manera continua hasta
la fase de planeación ejecutiva.
3. La PC ofrece información relacionada al esfuerzo
requerido para realizar una acción y se encarga de programar
los movimientos físicos que sean requeridos en el plan [3],
[41].
4. La información recabada se coloca y se manipula en la
memoria de trabajo de la dl-PFC para iniciar con la creación
del plan. En este proceso la dl-PFC y la PC trabajan en
conjunto para generar la secuencia de acciones del plan.
5. La MPFC recibe el plan para evaluar el costo del
esfuerzo requerido para su ejecución [29].
6. MPFC informa el resultado de la evaluación realizada a
las áreas OFC y dl-PFC.
7. En esta fase, la OFC evalúa la factibilidad del plan antes
de iniciar la ejecución de las acciones. Cuando la OFC
considera que el plan no es factible, le solicita a la dl-PFC la
generación de un nuevo plan, este proceso se realiza en la fase
de planeación inicial. La dl-PFC recibe la instrucción de
coordinar la ejecución del plan. La dl-PFC establece una
comunicación constante con diversas áreas cerebrales como:
ITC, OFC, PC, PPC, corteza motora primaria (PMC), Hip,
Amy, VS y pálido ventral (VP).
8. La dl-PFC recibe información del estado fisiológico y
motivacional (proveniente del Hip y de la Amy) a través de la
VS y de la OFC [1], [42], que inlfuirá en la ejecución. La dlPFC prepara una conversión sensori-motora, es decir, la
conversión de los planes a comandos motores [2], [43]. La dlPFC solicita a la PC que inicie la conversión de las acciones
en señales motoras para la ejecución de movimientos.
9. La PMC solicita información del comando motor
requerido para la ejecucióna la corteza cingulada anterior
(ACC) [43].
10. La PC integra la información relacionada con la
planificación de una tarea motora y la parte del cuerpo a
utilizar [44]. Esta información se envía a la PMC para ejecutar
los movimientos requeridos. La PMC contiene una
representación somatotópica del cuerpo, estableciendo las
órdenes motoras de cómo y cuándo se deben mover los
músculos [44].
La PPC informa de la ubicación del cuerpo a la PMC. La
dl-PFC recibe información altamente procesada de la ACC
relacionada a la ejecución. Al mismo tiempo el VS se
encuentra funcionando como interface límbico-motora para
generar secuencias motoras dirigidas a un fin. También apoya
en la selección de un programa motor [1], [28]. El VS
mantiene comunicación con el VP durante la ejecución, dado
que el VP regula la intensidad y el comportamiento de la
ejecución. El VP traduce las señales de motivaciones límbicas
a salidas motoras [44], [45]. En esta fase la dl-PFC solicita a la
ACC que inicie con el monitoreo de la ejecución [43]. La
ACC entra en juego cuando las acciones programadas no son
suficientes para guiar el comportamiento [2], [47]. La ACC
monitorea la ejecución realizada por la PMC. Al mismo
tiempo, la ACC y la OFC se encuentran monitoreando la
consecución del objetivo inicial.
14
IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015
11. Considerando el circuito de retroalimentación entre la
ACC, el VP, el tálamo (Tha) y el cerebelo (Cer) [46]. El VP se
comunica con el Cer a través del Tha. Se establece
comunicación entre el Tha y la ACC para dirigir las
instrucciones de conversión de los comandos motores a la
ejecución física de los movimientos programados [45], [46].
12. El Tha mantiene comunicación constante con el Cer
para dirigir órdenes motoras al sistema motor.
13. Cuando la ejecución del conjunto de acciones llega a
su término, la dl-PFC le indica a la OFC.
Hemos contemplado al Cer y al VP como salidas del
modelo propuesto. Consideramos que el sistema motor tomará
la información necesaria del Cer para continuar con la
ejecución física de los movimientos.
El sistema de planeación inicia la construcción del plan
(fase de planeación inicial). Posteriormente cuando el agente
reconoce el parpadeo del cursor, el sistema de planeación pasa
a la fase de ejecución. En esta fase el agente autónomo es
capaz de mover el cursor acorde al plan generado en la fase de
planeación inicial.
V. CASO DE ESTUDIO
El objetivo del caso de estudio es validar el modelo
computacional propuesto, así como el flujo de la información
en este modelo. Para esto replicamos experimentos de
Neurociencias. En específico el desarrollado por Mushiake et
al. [4] y [48]. En esta sección se describen dichos
experimentos, los cuales son replicados en nuestro modelo
para validar las fases de la planeación.
Replicando este experimento, cada uno de los módulos del
modelo deben emular la función de cada una de las áreas
involucradas en la función cognitiva de planeación. Así
mismo, se verifica que el flujo de la información coincida con
el descrito en [4] y [48]. Con el objetivo de determinar la
función de la PFC dentro del proceso de planeación en [4] y
[48] desarrollaron una serie de pruebas con monos. El
experimento consistía en alcanzar un objetivo dentro de un
laberinto moviendo el cursor en la pantalla. El movimiento del
cursor se vinculó al movimiento de cada una de las manos del
mono, sin embargo, para evitar la asociación de los resultados
de las acciones realizadas con los comandos motores. Se
establecieron tres diferentes configuraciones del cursor con
respecto al movimiento de la mano descritos en [4] y [48].
Para replicar los experimentos de [4] y [48] se
desarrollaron tres aplicaciones: la primera aplicación consiste
en un laberinto (ver Fig. 2) donde se establece el objetivo a
alcanzar; la segunda aplicación denominada sistema de
planeación es la implementación del modelo computacional
descrito en la sección IV, es decir, el modelo basado en
Neurociencias de la función cognitiva de planeación; la tercera
aplicación denominada sistema de monitoreo es responsable
de interpretar el registro de actividad realizado por el sistema
de planeación (ver Fig. 3). Esta aplicación muestra cuales
fueron los módulos activados (representación abstracta de
áreas cerebrales) y la secuencia de su activación durante la
ejecución de la tarea encomendada.
Nuestro caso de estudio inicia cuando la aplicación del
laberinto se ejecuta. Al aparecer el laberinto en la pantalla,
transcurre un segundo para que aparezca el cursor. El cursor
siempre aparece en el centro. Después de otro retardo de un
segundo se muestra la ubicación del objetivo a alcanzar.
Finalmente, el cursor parpadea en la pantalla para indicar al
agente que inicie con la ejecución del plan. Al inicio, cuando
el agente autónomo percibe el laberinto, así como los
elementos que van apareciendo en él.
Figura 2. Ejemplo del laberinto.
Durante la ejecución existe una fase de monitoreo,
encargada de detectar los cambios en el entorno que pueden
afectar la ejecución del plan. Al considerar los cambios que
pueden presentarse en el escenario, la fase de monitoreo puede
indicar a la fase de planeación inicial la necesidad de crear un
nuevo plan o modificar el plan existente. Por ejemplo, cuando
se cambia de manera inesperada la configuración del
movimiento del cursor o cuando aparecen nuevos obstáculos
en el laberinto. En estos casos, la fase de monitoreo regresa el
control a la fase de planeación inicial a fin de realizar los
ajustes que se consideren pertinentes dentro del plan. Para
llevar a cabo un análisis del comportamiento del sistema de
planeación, se crea un archivo en el cual se van registrando las
actividades de cada uno de los módulos del sistema, así como
las tareas que se van desarrollando.
Una vez concluida la ejecución del caso de estudio, se
utiliza el sistema de monitoreo (ver Fig. 3) para interpretar las
actividades realizadas por cada uno de los módulos del
sistema de planeación fuera de linea. En la parte izquierda de
la figura se muestra el modelo computacional de planeación
propuesto; el sistema de monitoreo destaca las áreas que se
van activando durante el proceso de planeación a través del
cambio de color. En la parte derecha del sistema se incluye de
forma ilustrativa una imagen del cerebro humano en la cual se
colorean las áreas cerebrales que se corresponden con el
modelo.
Figura 3. Ejemplo del sistema de monitoreo de la función cognitiva de
planeción.
LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING
15
Figura 4. Graficación de la actividad cognitiva del sistema de planeación.
Esta aplicación trata de emular la función de los sistemas
de electroencefalografía (EEG) utilizados en los experimentos
de Neurociencias para realizar el registro de la actividad
bioeléctrica cerebral. La principal información que ofrece este
sistema son: las áreas o módulos que se están activando,
información con respecto a la función que esta realizando cada
área, la fase en la cual se esta activando con respecto al
modelo de planeación, el tiempo de inicio, y el periodo de
duración. La intención de realizar este monitoreo fuera de
linea es para ofrecer diversas alternativas para un análisis más
completo del funcionamiento del sistema de planeación. Estas
alternativas son: reproducir, pausar, y retroceder en la lectura
del registro de actividades. También permite establecer
diferentes estampas de tiempo para observar la activación de
cada área involucrada en el proceso de planeación.
En la Fig. 4 se muestra un gráfica de la lectura realizada
por el sistema de monitoreo correspondiente a la fase inicial
del sistema de planeación. En esta gráfica se observa el tiempo
(ms) en el que inicia y termina cada proceso. Algunos
procesos se ejecutan de manera paralela, por ejemplo, en el
tecer ms después de aparecer el laberinto se ejecutan de
manera paralela cinco procesos distintos correspondientes al
área dl-PFC y PPC. Estos procesos utilizaron información
corporal del agente e información visual y espacial del
escenario. También se puede apreciar como los módulos
desempeñaron funciones diversas durante el proceso de
planeación. Por ejemplo, la OFC efectuó el reconocimiento
del cursor en el 1003 ms, como consecuencia del retardo
generado en el laberinto; en el 2004 ms identificó el objetivo a
alcanzar. Mientras que la dl-PFC en el 2005 ms inició con la
construcción del plan general, en el 3857 ms inició con la
construcción de los subplanes para alcanzar el objetivo.
VI. CONCLUSIONES
Es este artículo se propone un modelo computacional de la
función cognitiva de planeación inspirado en evidencia
neurocientífica, psicológica, y fisiológica. Este modelo
considera las cuatro fases temporales de la planeación
definidas como: establecimiento del objetivo, planeación,
ejecución del plan y monitoreo, presentadas en [4], [48] y
[49]. También se diseñó una aplicación que nos permitió
analizar y validar nuestro modelo con respecto a los resultados
presentados en [4] y [48], respetando el proceso cognitivo y
neuronal del cerebro humano dentro de la función cognitiva de
planeación. Adicionalmente, nuestro modelo pone en
evidencia las áreas involucradas en el proceso de planeación
de acuerdo con la literatura revisada principalmente en
Neurociencias y Psicología. Los resultados obtenidos hasta el
momento satisfacen los objetivos que se plantearon al inicio
de la investigación. En un trabajo en curso estamos
considerando integrar el modelo presentado en este artículo
con otras funciones cognitivas como las emociones y
regulación de emociones, el aprendizaje, entre otras, para
incluirlas en el cálculo de un comportamiento creíble.
AGRADECIMIENTOS
Los autores agradecemos al Consejo Nacional de Ciencia y Tecnología
(CONACYT beca No. 441795, beca No. 441796), patrocinado por el
Gobierno de México por su apoyo parcial a este trabajo. Nos gustaría también
agradecer a los revisores anónimos por sus valiosos comentarios y
sugerencias.
REFERENCIAS
[1] E. R. Kandel, J. H. Schwartz, and T. M. Jessell, Principles of Neural
Science, 4th ed., E. R. Kandel, J. H. Schwartz, and T. M. Jessell, Eds.
McGraw-Hill, 2000.
[2] B. Y. Hayden and M. L. Platt, Encyclopedia of Neuroscience, L. R.
Squire, Ed. Elsevier, 2009.
[3] C. Soriano, Fundamentos de Neurociencia, U. O. D. Catalunya, Ed., 2007.
[4] H. Mushiake, K. Sakamoto, N. Saito, T. Inui, K. Aihara, and J.
Tanji,“Involvement of the prefrontal cortex in problem solving,” in
International Review of Neurobiology, C. M. T. S. T. Bagetta, G. and S.
Sakurada, Eds., vol. 85. Academic Press, 2009, pp. 1-11.
[5] C. Crescentini, S. Seyed-Allaei, A. Vallesi, and T. Shallice, “Two
networks involved in producing and realizing plans,” Neuropsychologia,
vol. 50, no. 7, pp. 1521-1535, 2012.
[6] R. H. Lazeron, S. A. Rombouts, W. C. Machielsen, P. Scheltens, M.
P.Witter, H. B. Uylings, and F. Barkhof, “Visualizing brain activation
during planning: The tower of London test adapted for functional MR
imaging,” American Journal of Neuroradiology, vol. 21, no. 8, pp.14071414, 2000.
16
[7] T. Tsukiura, T. Fujii, T. Takahashi, R. Xiao, M. Inase, T. Iijima, A.
Yamadori, and J. Okuda, “Neuroanatomical discrimination between
manipulating and maintaining processes involved in verbal working
memory; a functional MRI study,” Cognitive Brain Research, vol. 11,no.
1, pp. 13-21, 2001.
[8] G. A. T. Blanco, “Metodología para el desarrollo de arquitecturas
cognitivas basada en Neurociencias,” Tesis de doctorado, Cinvestav,
UnidadGuadalajara, 2013.
[9] K. Kennedy and R. E. Mercer, “Planning animation cinematography and
shot structure to communicate theme and mood,” in Proceedings of the
2nd International Symposium on Smart Graphics, ser. ACM, 2002, pp.
1-8.
[10] M. Lau and J. J. Kuffner, “Behavior planning for character animation,”in
Proceedings of the 2005 ACM SIGGRAPH/Eurographics Symposium
on Computer Animation, ser. SCA ’05. ACM, 2005, pp. 271-280.
[11] D. Vernon, G. Metta, and G. Sandini, “The iCub cognitive architecture:
Interactive development in a humanoid robot,” in Development and
Learning, 2007. ICDL 2007. IEEE 6th International Conference on,
2007, pp. 122-127.
[12] D. Reitter and C. Lebiere, “A cognitive model of spatial path-planning,
”Computational and Mathematical Organization Theory, vol. 16, pp.220245, 2010.
[13] R. Hill, J. Chen, J. Gratch, P. Rosenbloom, and M. Tambe, “Soar-RWA:
Planning, teamwork, and intelligent behavior for synthetic rotary wing
aircraft,” in Proceedings of the 7th Conference on Computer Generated
Forces & Behavioral Representation, 1998.
[14] W. Wallach, S. Franklin, and C. Allen, “A conceptual and computational
model of moral decision making in human and artificial agents,” Topics
in Cognitive Science, vol. 2, no. 2, pp. 454-485, 2010.
[15] S. Franklin, “A foundational architecture for artificial general
intelligence,” Advances in Artificial General Intelligence: Concepts,
Architectures and Algorithms, vol. 6, pp. 36-54, 2007.
[16] U. Ramamurthy, B. J. Baars, D. S. K., and S. Franklin, LIDA: A working
model
of
cognition,”
2006.
[Online].
Available:
http://cogprints.org/5852/
[17] S. Degallier, L. Righetti, L. Natale, F. Nori, G. Metta, and A. Ijspeert, “A
modular bio-inspired architecture for movement generation for the
infant-like robot iCub,” in Biomedical Robotics and Biomechatronics,
2008. BioRob 2008. 2nd IEEE RAS EMBS International Conference on,
2008, pp. 795-800.
[18] N. G. Tsagarakis, G. S. G. Metta, D. Vernon, R. Beira, F. Becchi,L.
Righetti, J. Santos-Victor, A. J. Ijspeert, M. C. Carrozza, and D.
G.Caldwell, “iCub: the design and realization of an open humanoid
platform for cognitive and neuroscience research,” Advanced Robotics,
vol. 21, no. 10, pp. 1151-1175, 2007.
[19] D. Vernon, C. Von Hofsten, and L. Fadiga, A Roadmap for Cognitive
Development in Humanoid Robots, R. Dillmann, Y. Nakamura,S.
Schaal, and D. Vernon, Eds. Springer, 2010.
[20] M. Sadeghi, M. Andani, A. Fattah, and M. Parnianpour, “A mixture of
modular structures to describe human motor planning level: A new
perspective based on motor decomposition,” in Biomedical Engineering
(ICBME), 2011 18th Iranian Conference of, 2011, pp. 199-204.
[21] B. J. Best and C. Lebiere, Cognition and multi-agent interaction: From
cognitive modeling to social simulation. Cambridge University
Press,2006, ch. Cognitive agents interacting in real and virtual worlds,
pp.186-218.
[22] V. Chiew and Y. Wang, “Formal description of the cognitive process
ofproblem solving,” in Cognitive Informatics, 2004. Proceedings of the
Third IEEE International Conference on, 2004, pp. 74-83.
[23] A. Pauchet, N. Chaignaud, and A. El Fallah Seghrouchni, “A
computational model of human interaction and planning for
heterogeneous multi-agent systems,” in Proceedings of the 6th
international joint conference on Autonomous agents and multiagent
systems, 2007, pp.403-405.
[24] J. Funge, X. Tu, and D. Terzopoulos, “Cognitive modeling: knowledge,
reasoning and planning for intelligent characters,” in Proceedings of the
26th annual conference on Computer graphics and interactive
techniques, 1999, pp. 29-38.
[25] E. Bizzi, M. C. Tresch, P. Saltiel, and A. d’Avella, “New perspectives on
spinal motor systems,” Nature Review Neuroscience, vol. 1, pp. 101108, 2000.
[26] S. N. Haber, “The primate basal ganglia: parallel and integrative
networks,” Journal of Chemical Neuroanatomy, vol. 26, no. 4, pp. 317330, 2003.
IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015
[27] S. N. Haber and R. Calzavara, “The cortico-basal ganglia integrative
network: The role of the thalamus,” Brain Research Bulletin, vol. 78,pp.
69-74, 2009.
[28] H. J. Groenewegen, “The basal ganglia and motor control,” Neural
Plasticity, vol. 10, no. 1-2, pp. 107-120, 2003.
[29] J. D. Wallis, “Orbitofrontal cortex and its contribution to decision
making,” Annual Review of Neuroscience, vol. 30, pp. 31-56, 2007.
[30] E. T. Rolls, “The orbitofrontal cortex and reward,” Cerebral cortex, vol.
10, no. 3, pp. 284-294, 2000.
[31] W. Schultz, L. Tremblay, and J. R. Hollerman, “Reward processing in
primate orbitofrontal cortex and basal ganglia,” Cerebral Cortex, vol. 10,
no. 3, pp. 272-283, 2000.
[32] S. H. Johnson Frey, R. Newman Norlund, and S. T. Grafton, “A
distributed left hemisphere network active during planning of everyday
tool use skills,” Cerebral Cortex, vol. 15, no. 6, pp. 681-695, 2005.
[33] S. Glover, M. B. Wall, and A. T. Smith, “Distinct cortical networks
support the planning and online control of reaching-to-grasp in humans,”
European Journal of Neuroscience, vol. 35, pp. 909-915, 2012.
[34] S. D. Newman, P. A. Carpenter, S. Varma, and M. A. Just, “Frontal
andparietal participation in problem solving in the tower of London:
fMRI and computational modeling of planning and high-level
perception,” Neuropsychologia, vol. 41, pp. 1668-1682, 2003.
[35] J. Unterrainer, B. Rahm, C. Kaller, C. Ruff, J. Spreer, B. Krause,R.
Schwarzwald, H. Hautzel, and U. Halsband, “When planning fails:
Individual differences and error-related brain activity in problem
solving,” Cerebral Cortex, vol. 14, no. 12, pp. 1390-1397, 2004.
[36] E. Hoshi and J. Tanji, “Area selective neuronal activity in the dorsolateral
prefrontal cortex for information retrieval and action planning,” Journal
of neurophysiology, vol. 91, no. 6, pp. 2707-2722, 2004.
[37] C. P. Kaller, B. Rahm, J. Spreer, C. Weiller, and J. M. Unterrainer,
“Dissociable contributions of left and right dorsolateral prefrontal
cortexin planning,” Cerebral cortex, vol. 21, no. 2, pp. 307-317, 2011.
[38] R. A. Andersen, L. H. Snyder, D. C. Bradley, and J. Xing, “Multimodal
representation of space in the posterior parietal cortex and its use in
planning movements,” Annual review of neuroscience, vol. 20, no. 1,pp.
303-330, 1997.
[39] C. A. Buneo and R. A. Andersen, “The posterior parietal cortex:
Sensorimotor interface for the planning and online control of visually
guided movements,” Neuropsychologia, vol. 44, no. 13, pp. 2594-2606,
2006.
[40] H. Scherberger, R. Q. Quiroga, and R. A. Andersen, Principles of Neural
Coding. CRC Press Taylor & Francis Group, 2013, ch. Coding of
Movement Intentions, pp. 303-322.
[41] E. Hoshi and J. Tanji, “Distinctions between dorsal and ventral premotor
areas: anatomical connectivity and functional properties,” Current
Opinion in Neurobiology, vol. 17, no. 2, pp. 234-242, 2007.
[42] E. Bausela Herreras, “Implicaciones de las conexiones corticales y
subcorticales del lóbulo frontal en la conducta humana,” Psicología y
Psicopedagogía, vol. 6, no. 17, 2007.
[43] A. W. MacDonald, J. D. Cohen, V. A. Stenger, and C. S. Carter,
“Dissociating the role of the dorsolateral prefrontal and anterior
cingulated cortex in cognitive control,” Science, vol. 288, pp. 18351838, 2000.
[44] E. Hoshi and J. Tanji, “Integration of target and body-part information in
the premotor cortex when planning action,” Nature, vol. 408, no.6811,
pp. 466-470, 2000.
[45] K. S. Smith, A. J. Tindell, J. W. Aldridge, and K. C. Berridge, “Ventral
pallidum roles in reward and motivation,” Behavioural brain research,
vol. 196, no. 2, pp. 155-167, 2009.
[46] G. Mogenson, L. Swanson, and M. Wu, “Neural projections from
nucleus accumbens to globus pallidus, substantia innominata, and lateral
preoptic-lateral
hypothalamic
area:
an
anatomical
and
electrophysiological investigation in the rat,” The Journal of
Neuroscience, vol. 3, no. 1,pp. 189-202, 1983.
[47] L. Carretié, J. Albert, and S. López-Martín, “Papel de la corteza
prefrontal ventromedial en la respuesta a eventos emocionalmente
negativos,” Revista de Neurología, vol. 50, no. 4, pp. 245-252, 2010.
[48] H. Mushiake, N. Saito, K. Sakamoto, Y. Itoyama, and J. Tanji, “Activity
in the lateral prefrontal cortex reflects multiple steps of future events in
action plans,” Neuron, vol. 50, no. 4, pp. 631-641, 2006.
[49] H. Mushiake, N. Saito, K. Sakamoto, Y. Sato, and J. Tanji, “Visually
based path-planning by Japanese monkeys,” Cognitive Brain Research,
vol. 11, no. 1, pp. 165-169, 2001.
LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING
Sonia López Ruiz, recibió el grado de Maestra en Ciencias
en Ciencias de la Computación por el Centro Nacional de
Investigación y Desarrollo Tecnológico (CENIDET)y
actualmente está inscrita en el programa doctoral en
Ingeniería Eléctrica en el Centro de Investigación y de
Estudios Avanzados del Instituto Politécnico Nacional
(CINVESTAV) Unidad Guadalajara, México. Sus áreas de
interés incluyen arquitecturas cognitivas y sistemas distribuidos.
José Antonio Cervantes Alvarez, recibió el grado de
Maestro en Ciencias en Ciencias de la Computación por el
Centro Nacional de Investigación y Desarrollo Tecnológico
(CENIDET) y actualmente está inscrito en el programa
doctoral en Ingeniería Eléctrica en el Centro de
Investigación y de Estudios Avanzados del Instituto
Politécnico Nacional (CINVESTAV) Unidad Guadalajara,
México. Sus áreas de interés incluyen arquitecturas cognitivas, agentes
autónomos y sistemas distribuidos.
Francisco Abelardo Robles Aguirre, recibió el grado de
Doctor en Ciencias por el Instituto de Neurociencias de la
Universidad de Guadalajara (UDG). Es profesor
investigador del Centro Universitario del Norte de la UDG.
Sus áreas de interés incluyen los correlatos neurológicos
del procesamiento lingüístico, el registro de la actividad
eléctrica cerebral durante la resolución de tareas que
evalúan funciones ejecutivas y el modelado de sistemas
cognitivos, en específico, de la actividad de los circuitos prefrontales. Ha
publicado más de 20 artículos en conferencias, capítulos de libro y revistas
indexadas.
Félix Francisco Ramos Corchado, recibió el grado de
doctor en ciencias por la Universidad Tecnológica
Compiegne, Francia. Es profesor de Ciencias de la
Computación en el Centro de Investigación y de Estudios
Avanzados
del
Instituto
Politécnico
Nacional
(CINVESTAV) campus Guadalajara, México. Sus áreas de
interés incluyen sistemas distribuidos complejos, sistemas
multi-agentes, sistemas distribuidos inspirados en la naturaleza y en el
cerebro. Ha publicado más de 90 artículos técnicos en conferencias, capítulos
de libro y revistas.
17

Documentos relacionados