Capitulo 1 - UN Virtual

Comentarios

Transcripción

Capitulo 1 - UN Virtual
16
Capitulo 1
Mundos Virtuales Definiciones Multidisciplinarias..
17
1,1, Dimens
Dimensión
ión Virtual (Por comparación a una Dimensión
‘natural’ o física)
Bernardo Uribe Mendoza
Instituto de Investigaciones Estéticas,
Universidad Nacional de Colombia
1.1.1.Definiciones Generales.
En 1998 el ensayista y arquitecto John Beckman propuso definir la nueva dimensión
virtual producto de las transformaciones tecnológicas de esa década, tanto en el
campo de la world wide web WWW como en el de la ciencia computaciónal en
general - pero más específicamente en el de computación gráfica ( la realidad
virtual) por comparación o extrapolación con la dimensión física o ‘natural’.
En el cuadro 1 se reúnen los puntos que Beckman señaló sobre ésta nueva
dimensión virtual y las extrapolaciones de corte futurista que identificaron la literatura
ensayística en ese momento, bastante optimista frente a las nuevas tecnologías, y
su influencia inmediata sobre los cambios sociales e históricos correspondientes.
Cuadro 1. Puntos que diferencian una envolvente espacial o topología
arquitectónica virtual de una físico-matérica o ‘natural’.
18
Superficie Instrumentalizada. ( Interfase en vez de forma).
La arquitectura tradicional define el espacio por ‘enovolventes’ o cerramiento entre
un espacio interior y un espacio exterior el cual tiene una extrapolación social : el
espacio exterior es libre y definido por la naturaleza y en la sociedad contemporánea
se define como ‘público’ dentro de un marco jurídico – ideológico colectivo . Esta
envolvente esta compuesta por superficies (fachadas/ paredes) por medio de las
cuales se produce afectaciones al comportamiento y presencia corporal individual y
colectiva.
En la ‘arquitectura digital’ las superficies adquieren un nuevo carácter instrumental
pues no simplemente separan el espacio interior del exterior sino que se convierten
en interfases y en ‘inmersivas’.
Horizonte de Eventos, ( acciones -softwaresoftware- en vez de objetos físicos)
La superficie pantalla, monitor o proyección es una interfase que puede contener
herramientas ‘ópticas y ápticas. Entendiéndose por ópticas las herramientas
inherentes a las visualizaciones de objetos , ambientes o entidades digitales y
‘apticas’ ( del alemán haptisch) aquellas inherentes a entidades digitales no
susceptibles de ser visualizadas como son las fuerzas de acción-reacción en las
interfases ligadas a los sentidos de la propiocepción corporal . La riqueza de éstas
excede aquellas correspondientes a las propiedades físicas de la superficie pared/
cerramiento o fachada envolvente definidas ante todo como protección ambiental en
su sentido natural y social físico en la arquitectura físico-material en la arquitectura
urbana convencional.
Una Mirada sin Centro (a(a-perspectiva/ aa-sincrónica)
El espacio 3d de navegación en las proyecciones inmersivas de realidad virtual tiene
características diferentes a las del recorrido corporal físico del espacio, el cual es
guiado por la visión, y esta por las leyes físicas de la óptica entre las cuales se
destacan las leyes de la perspectiva. El modelo de la visión natural es definido por la
física óptica y por la geometría perspectiva. Aunque la simulación del espacio en la
realidad virtual ha pretendido emular el modelo físico y geométrico de visión, al
proponer la navegación del espacio virtual por medio de un ‘viewpoint’ o punto de
vista simulado, y en el caso de la estereoscopía inmersiva’ 2 puntos de vista
proyectados alternadamente para cada ojo, tiene particularidades definidas por la
interfase como tal, la mayoría de las cuales está copiadas de la captura del espacio
físico por medio de la lente de una cámara : paneo, zoom, ángulo del campo de
visión etc. Cada punto de vista puede ser editado y modificado por lo cual la visión
perspectiva se multiplica y se corta. Estos cortes de ‘edición’ alternan o incluso
permite mostrar simultáneamente perspectivas diferentes del objeto o ambiente
visualizado.
Espacio Riemmaniano.
Los cortes y la edición en la navegación del espacio o visualización del objeto digital
llevan a proponer a Beckman que la dimensión virtual contiene una
multidimensionalidad que no es posible definir por la geometría euclidiana. El
estudio de la dimensión virtual con una geometría diferente supone comprender y
medir de algún modo esta multidimensionalidad. Según Beckman la geometría
riemmaniana usa un método de calculo de superficies multidimenisonales complejas
el cual es susceptible de proyectar a la envolvente discontinua y morfogénetica de
19
la navegación en los ambientes virtuales también. En la geometría riemmaniana las
superficies curvadas e irregulares son aproximadas a una descripción de la
superficie compleja por medio de su subdivisión en u unidades simples tresdimensionales convencionales o euclídeas susceptibles de medir. En un ambiente
Virtual los sucesivos puntos de vista de la cámara o punto de vista virtual aunque
configuran una navegación resultante compleja del espacio simulado y a este como
un todo multidimensional, éste es visualizado por el usuario de manera simple por
medio de una simulación de las leyes de la óptica perspectiva 3d en cada momento
(singularidad) de la visualización.
Arquitectura Fluida.
La arquitectura de las visualizaciones por medio de plataformas de multimedia como
la realidad virtual se configura por medio de las ‘leyes’ correspondientes a la
multimedia : la imagen emitida por diversos medios y la imagen en movimiento que
evolucionó de la fotografía al cine 2d y en la realidad virtual a la estereoscopía y las
herramientas apticas inmersivas. Estas leyes son de orden narrativo, secuenciales y
relacionadas con plataformas de emisión e inmersión. En este sentido se opone
como escenario de experiencias corporales individuales o colectivos a una topología
de ‘envolvente’ corporal estática y/o mecánica propia a una arquitectura urbana o
edilicia .
Espacio ‘Conector’ .
El espacio virtual es definido como un escenario de interacción social. El espacio
arquitectónico edilicio o urbano no es solo un espacio de interacción social o de
comunicación sino que es ante todo un espacio definido por una envolvente de
protección ambiental y corporal y de control . Su propósito es el de controlar fuerzas
físicas como el clima y fuerzas sociales como las esferas de los público y lo privado,
definiendo esferas por lo íntimo y lo social, lo cubierto o descubierto, lo cerrado o
abierto. El espacio virtual es definido en cambio, en tanto como interfase por un
sistema de red e interacción dentro de una plataforma diseñada y desarrollada para
la comunicación interactiva.
Espacio de Observación ( Visualizaciones).
El espacio virtual es habitable en un sentido diferente del espacio físico. La
presencia física del cuerpo esta mediada por las interfases en un espacio virtual.
Dentro de éstas, las que integran las correspondientes a las visualizaciones son las
principales. Por otra parte el entorno virtual de la red tiene un carácter comunal y
social por el cual el usuario introduce para observación colectiva su presencia digital.
( Avatar, agente etc)
Forma que se Forma (Morfogénesis)
Inherente a las plataformas avanzadas de programación es su desarrollo basado en
los enfoques de complejidad o ciencias de la vida. La dimensión virtual está
impregnada de estas búsquedas y desarrollos en los campos de la vida y la
inteligencia artificial. La dimensión virtual se enfoca sobre esta perspectiva desde
campos de desarrollo como son los ambientes evolutivos en los cuales se emula el
proceso de la vida y la evolución. En las extrapolaciones teóricas conocidas del
científico y pensador Hans Moravec, la perspectiva de vida computacional se lleva a
horizontes incluso como el de sugerir una nueva biosfera artificial para la inteligencia
en el Universo y la evolución de la inteligencia .
Cuerpo Cristalino.
20
El desarrollo de la ciencia computacional en las últimas décadas del Siglo XX fue
paralelo al desarrollo de las nanotecnologías. Las interfases mecánicas y
electrónicas actuales están evolucionando hacia implantes sensoriales ópticos y
apticos de escala nanotecnológica. Mas allá de este desarrollo las actuales
interfases mecánicas y electrónicas, particularmente en el campo de las
implementaciones de realidad aumentada amplían o complementan el espectro
sensorial de la percepción corporal y del espacio externo.
1.1.2.Construcción de Mundos Virtuales Habitables.
Los aspectos de una dimensión virtual definen unos parámetros o marcos generales
de acción al investigador y desarrollador en el campo de la implementaciones de
realidad virtual y de programación computacional compleja.
Particularmente con los desarrollos de la realidad aumentada se han cristalizado los
aspectos señalados por Beckman como constitutivos a la creación de mundos
virtuales:
Cuadro 2. Marco de referencia para la creación de espacios virtuales según
John Beckman. Complementación y síntesis de imágenes digitales y objetos
físicos en la ‘memoria espacial’ del usuario.
Con la realidad aumentada los límites entre la experiencia sensorial del espacio
físico y el espacio residual subjetivo en la memoria del usuario , el cual es
estimulado por medio de interfases en los sentidos de propiocepción corporal u
ópticos, son en la actualidad difusos o se definen como un estado de transición. La
oposición habitual entre real y lo imaginado, entre lo vivido y lo narrado encuentra en
diversas experiencias en ambientes virtuales interrogantes y aspectos a resolver.
Por ejemplo en los ambientes colaborativos 3D de avatares (humanos artificiales
simulados) los usuarios desarrollan interacciones sociales que efectivamente
transforman esferas de su vida cotidiana como la económica, la social, la cultural etc
no obstante que estas actividades son desarrolladas sobre una plataforma digital. En
un sentido más básico de la experiencia subjetiva y del espacio, interfases y
plataformas digitales permiten aprehender rangos del entorno natural y/o social
mezclados o ‘mixtos’ pues a la percepción y experiencia sensorial ‘natural’ se agrega
una artificial la cual abre facetas artificiales simultáneamente con las facetas
corporales físicas convencionales. Por ejemplo el video de alta densidad, los mapas
conceptuales de simulación de objetos y situaciones, la sincronización de productos
y contenidos de multimedia por medio de sistemas de captura, reconocedores o
visión artificial transforman el rango de la experiencia del ambiente natural y el
ambiente artificial como opuestos en complementarios y simultáneos.
21
Por otra parte el espacio artificial soportado por medio de plataformas de realidad
virtual, mixta y/o aumentada se diferencia de otros productos de multimedia que
transmiten la imagen cinemática como el cine en el rango abierto que provee la
interacción con los entornos digitales. El espectador transformado en usuario puede
regular una forma de presencia en el ambiente virtual, la cual permite a Beckman
proponer que los ambientes virtuales son ‘habitados’. No son una reproducción de
un espacio o situación originaria en el sentido de los medios convencionales como el
cine y la TV.
RV : El Paradigma Inmersivo:
El paradigma inmersivo en la realidad virtual es definido por la representación
animada por medio de imágenes cinemáticas (30 imágenes por segundo) de
espacios y objetos simulando en tiempo real las 3 dimensiones del espacio natural,
las cuales son navegadas por una cámara ( o 2 en el caso de la estereoscopía). A
esta experiencia definida como ‘visualización’ tresdimensional simulada de un objeto
o espacio se añaden las sensaciones ápticas de los objetos y espacios como la
sensibilidad táctil, las fuerzas inversas , o la temperatura y los olores, con los cuales
se propende temporalmente sustituir las señales corporales equivalentes del mundo
exterior . Con propósitos diversos, prácticos o estéticos .
El paradigma inmersivo de la realidad virtual y sus interfases mas conocidos : HMD
(head mounted display) y Data Glove identificaron los desarrollos de la realidad
virtual en la primera mitad de los 90.s
Cuadro 3. Diagrama de Didier Verna presentado en la conferencia Virtual
Worlds de 1998 en los cuales establece un diagrama en el cual representa
el paradigma inmersivo de la realidad virtual por medio del cual agentes
virtuales estimulan y suplantan el agente físico en la percepción espacio
temporal de parte del usuario.
22
Fig 1. Representación 3d en un ambiente 3dimensional de realidad virtual de
un ‘dataglove’ el cual cuenta además con exo-esqueleto para simular
además de las experiencias táctiles por medio de vibraciones en las yemas
de los dedos, las fuerzas en los objetos digitales por medio de la
implementación de fuerzas inversas por medio de hardware.
Estereoacopía ‘Inmersiva’
Los primeros desarrollos de la estereoscopía para la implmentación de un
paradigma inmersivo de realidad virtual se concentraron sobre todo en las interfases
HMD (head Mounted Dsiplay) en las cuales la rpresentación del ambiente virtual era
sincronizado en 2 imagenes separadas para cada ojo del usuario y sensores de
posicionamiento sincronizan el punto de vista del usario con la visualización del
ambiente virtual.
23
Fig 2. Intefases inmersivas de realidad virtual estereópticas HMD. El sistema de
rastreo del punto de vista del observador o usuario se ha elaborado hasta incluir no
solo el movimiento del punto de vista por medio de la posición de la cabeza como en
las interfases en los 90s sino que por medio de reconocedores ópticos se calibra y
sincroniza el punto de vista de las pupilas.
Las interfases HMD han perdido popularidad en la presente década pues aun en los
modelos con altas especificaciones la resolución de la imagen es relativamente baja
(1200 x 800) comparados con otras interfases de estereoscopía inmersiva. Aparte
de lo anterior con la aplicación de las técnicas de realidad virtual al campo del
diseño y la industria y la ciencia en visualizaciones para grupos de trabajo,
saliendose del entorno inicial habitual del trabajo en los labs de realidad virtual, se
incentivado el desarrollo de los CAVE o cuartos inmersivos para visualizaciones de
alta definición ( hasta 3800 X 3200 pix) usando proyectores estereoscópicos 3D
sincronizados con lentes en el caso de los sistemas activos. Los Cave y Power Wall
permiten compartir las visualizaciones de realidad virtual por grupos de trabajo que
varía de acuerdo al tamaño de las proyecciones.
Estereoscopía Pasiva para ‘Power Walls .
La estereoscopía inmersiva se ha desarrollado mediante 2 técnicas: la polarización
de una imagen única ( 30 imag/ seg) la cual es denominada como estereoscopía
24
pasiva y la sincronización de 60 imag/ seg en las cuales cada ojo percibe
alternadamente 1 imagen diferente ( 30 por cada ojo) lo cual se denomina
estereoscopía activa).
Fig 3. Configuración típica para estereoscopía inmersiva pásiva para
ambientes de realidad virtual. Pantalla polarizadora de proyección anterior o
posterior. Vidrio Polarizador. Proyector 3D . Tarjeta estereoscópica 3d de
video en la UPC y anteojos polarizadores.
25
Fig 4. Vista superior : sistema simplificado de estereoscopía pasivo para ‘Power Wall’
en el cual es posible usar proyectores convencionales ( Video-beam) por medio de la
implementación de un desmultiplexador de video , el cual descompone la imagen
estereoscópica de la tarjeta de video de la UPC en una imagen polarizada para
implementaciones de power wall en ambientes de trabajo. Vista inferior. Proyectores
estereoscópicos 3d pasivos pero sincronizados para una visualización de muy alta
resolución para entornos de diseño.
Estereoscopía Activa .
26
Fig 5. Esquema de la arquitectura de un sistema de estereoscopía activa
para ‘Power Wall’ o CAVE en el cual la imagen estereoscopica de la tarjeta
de video de la UPC es proyectada sincronizada con un difusor infrarrojo para
activar la obturación secuencial de los lentes de cristal liquido para subdividir
y alternar las 60 imágenes por segundo para completar las 30 imágenes
correspondientes a cada ojo.
Fig 6. Vista superior. Comparación de las especificaciones de los 3 sistemas
de proyección de estereoscopía activa y pasiva para ‘Power Wall’ o CAVE .
Especificaciones de la firma comercial Barco Systems para los 3 tipos de
proyectores estereoscópicos 3d. Vista inferior: detalle de un proyector DLP
con proyección pasiva.
Software Power Wall / CAVE:
Rastreadores . La interactividad con el ambiente virtual en el caso de los power
wall y cave con amplio desarrollo reciente son los sistemas de rastreo , por medio de
los cuales el usuario o los usuarios se sincronizan con el ambiente 3d visualizado.
27
Fig 7. Software para rastrear el movimiento del usuario dentro de un CAVE .
As a user’s head moves, turns or tilts in a virtual environment, the computergenerated image he sees must continually update accordingly with no
noticeable lag, jitter or distortion. If a user employs a wand to interact with the
environment, the computer must interact in real time with the movements and
spatial orientation of the wand as well. Accurate tracking of the user’s
movements and subsequent feedback to the computer are integral
components of a successful interaction between the user and the computer.
The technology or combination of technologies chosen for interaction will
determine its efficiency in a given application. Barco has accumulated
considerable experience with the various interactive devices and tracking
technologies and can insure a superior performance and a "seamless"
integration of the tracking system into a given interactive display system. For
the accurate and efficient calibration of ultrasonic tracking devices, Barco has
developed its "iWIZARD" software. In combination with integrated marking
hardware, this software is used to configure the position and orientation of
each transmitter. For reconfigurable systems such as the BARCO MOVE™
different setups can be activated by a single button click. The software is
available on Unix as well as on Windows platforms.
Expert Alignment Software. Software para sincronizar las proyecciones múltiples
de los CAVE .
28
Fig 8. Vista de la interfase del software para alinear las proyecciones
esterescópicas múltiples en un sistema Power Wall o CAVE.
Barco’s Projector Alignment Tool For easy and fast alignment of complex
multi-screen projection systems to their maximum capabilities, Barco has
developed its own proprietary dedicated software. With an intuitive user
interface, Barco’s Polaris software is driven by multipipe, multi-channel image
generators to calculate and generate user-specified predistorted test
patterns.The user enters the dimensions and shape of the screen (flat,
cylindrical, spherical, toroidal, dome-shaped, conical) and Polaris calculates
and generates the pre-distorted geometry, gray scale and color alignment
patterns. Camera settings and parameters for each display channel can be
specified in coordinates or as field-of-view angles, either symmetrical or
asymmetrical. When applicable, patterns can be saved independently from
the graphics configuration of the image generator.
Arquitecturas
Power Wall : Este tipo de ambiente de visualización esta constituído por una sola
superficie de proyecciones simples o múltiples y puede ser plano o curvado.
29
Fig. 9 Power Wall con proyectores estereoscópicos multiples sobre una
pantalla de proyección frontal curvada .
CAVE o Cuarto Inmersivo : Es un ambiente de visualización inmersiva completa que
puede constar de 3 a 6 caras de proyección hasta conformar un cubo completo. Las
proyecciones estereoscópicas no interfieren con el /los usuarios pues se utilizan
pantallas de proyección posterior .
Fig 10. CAVE de 5 caras
30
Fig 11. En la imagen superior esquema de arquitectura de un Cave de 5 caras
usando espejos de reflexión para acortar las distancias de proyección y por ende el
área de ocupación del CAVE. En la imagen inferior fotografía del ambiente de
visualización de trabajo el cual puede llegar a servir para un grupo de 5-10 personas.
31
Fig. 12. CAVE transportable de 6 caras de la firma BARCO Systems.
El espacio concentra los dispositivos inmersivos: Visualizaciones: Cave y hardware
para simular ambiente inmersivo. El Cave esta construido con 6 pantallas refractivas
que reflejan en el interior del cave las imágenes proyectas por separado por cada
proyector estereoscópico 3d. Un computador central sincroniza la proyección de
cada una de las 12 imágenes procesadas por la unidad de procesamiento.
RM Paradigma ‘ Mixto y / o Aumentado.
Cuadro 3. Definición de los componentes de la realidad mixta o aumentada
extraídos de las discusiones de la Conferencia Cast 01.
32
Realidad Virtual.
El paradigma de la realidad mixta busca implementar la realidad virtual no solo como
un ambiente inmersivo de visualizaciones , las cuales permiten la interacción del
usuario con los agentes , avatares y mundos del contenido digital sino que al
contrario , o mas allá de lo anterior, buscan generar objetos o ambientes de realidad
virtual que pueden superponerse con los objetos y ambientes del espacio físico y
natural . En los últimos años este desarrollo de la realidad mixta tiende a
denominarse como realidad aumentada pues complementan la experiencia física de
los ambientes y espacios arquitectónicos o urbanos.
La realidad aumentada
La realidad aumentada permite introducir visión artificial en las ciudades o recintos
arquitectónicos, permite superponer simulaciones y mapas sobre objetos físicos por
medios estereoscópicos, y puede añadir facetas de interactividad al espacio
arquitectónico convencional o a objetos convencionales de uso cotidiano.
Espacio Sensible
En la realidad mixta el espacio físico se convierte en interactivo por medio de
implementaciones de hardware especialmente diseñados para acoplarse con
conjuntos, objetos o superficies del espacio físico.
“ Intermedia”. Con esta denominación propuesta en la conferencia Cast 01 de
2001, se busca expresar como una de las características del paradigma mixto o
‘aumentado’ de realidad virtual es la de ser el soporte transmisor entre varios
sistemas de medios simultáneamente.
Cuadro 4.Campos de desarrollo de las tecnologías de realidad virtual mixta o
aumentada. Estas tecnologías de desarrollo tienen aplicación en narraciones
digitales o en manufactura virtual en la actualidad.
Historia de la RM
33
Fig. 13 El artista Stelarc fue uno de los pioneros en la investigación del
cuerpo cristalino y la realidad aumentada.
34
Fig. 14 Utilización de interfaces de visualización y sensores en el cuerpo
para integrar ambientes digitales con las funciones corporales. Realidad
mixta aplicada a reconocimiento y ayuda de navegación del mundo físico.
Ejemplo presentado por Hiroshi Sasaki en la Conferencia VW 2000.
Fig. 15 Virtual Balance .Desarrollo de hardware corporal de navegación de
un ambiente virtual en un power wall o cave. El hardware consta además de
los anteojos estereoscópicos, de una balanza para usar las fuerzas
corporales dinámicas a modo de un ‘mouse’ de navegación. Implementación
desarrollada por el MARS Lab ( Monika Fleischmann directora) entre 199698.
35
Fig. 16 Consola Silla con dispositivos apticos para simulación de fuerzas y
consistencias en ambientes 3D. Plataforma de experimentación desarrollada
por los ingenieros de control electrónico en el VR Lab de la EPFL Escuela
Politécnica de Lausana en los 90s.
Fig. 17. Técnicas de Estudio Virtual Mixto aplicado a performance artísticos
36
1.1.3.Áreas de Investigación y Desarrollo en RV/ RM / RA (El
ejemplo del VR Lab )
Fig. 18 Portal Web del VR Lab e interfase de navegación hacia cada una de las
áreas de trabajo cubiertas en el Lab.
En el VR Lab las áreas de investigación son definidas como un cruce
interdisciplinario entre :
• ciencias de la computación,
37
•
•
•
•
ingeniería electrónica,
comunicación e informática,
matemáticas
ciencias de la vida. (natural y artificial).
Dentro de este contexto multidisciplinario de trabajo en el desarrollo aplicado y la
investigación en la realidad virtual, mixta y aumentada se identifican tópicos
relacionados con las narraciones digitales y la manufactura virtual.
Control de Movimiento .
The research on Motion Control being
The research on Motion Control being carried out at VRLAB covers topics ranging from animation to
simulation, and focusing on both primary motion (e.g. walk engine) and secondary motion (e.g. soft
tissues deformation). As movement is a complex and high-dimensional information, our main objective
is to propose highly efficient algorithms as well as new user-friendly interaction paradigms.
El área de trabajo se concentra en tópicos que incluyen:
Animación y simulación de movimientos :
Movimientos Primarios: ( motor de caminado)
Movimientos Secundarios: deformación de tejidos suaves (faciales)
Edicción Cualitativa de Movimiento
The aim of this research is to provide hight level control on motion synthesis to an
animator or a run-time system. Using example-based motion synthesis of humans
figures, we proposed high level control parameters including age, gender, height
and weight. Formulating the motion synthesis as a scattered data interpolation
problem, we are also proposing a fast and scalable interpolation scheme.
El objetivo de ésta área de investigación es la de usar síntesis de movimientos para un
‘animador’ con parámetros de alto nivel de control de movimiento: edad, género,
altura, peso.
La implementación se ejecuta mediante un esquema rápido y escalar de interpola de la
información requerida.
Optimización Interactiva de posturas complejas con Cinemática Inversa
Efficient IK architecture allowing a strict enforcement of multiple priority levels among the
constraints. We now evaluate it for motion retargeting. This direction of research includes
previous work on balance control and recent researches on an efficient IK architecture allowing
a strict enforcement of multiple priority levels among the constraints. We now evaluate it for
motion retargeting.
Arquitecturas de cinemáticas inversas las cuales posibilitan introducir diferentes
prioridades dentro de los condicionamientos del movimiento. Control de Balance /
Prioridades Múltiples y Retargeting
38
Fig. 19. Animación 3d de Postura compleja y movimiento.
Realidad Aumentada.
In augmented reality applications, tracking and registration of cameras and objects are required
because, to combine real and rendered scenes, we must project synthetic models at the right
location in real images. Our goal is to automate this step by integrating tracking and object
recognition into AR systems. This done, we can then implement scenarios that involve
interaction between real and virtual humans and cover a wide range of topics from creation and
animation of virtual actors to computer vision techniques for data acquisition.
En Aplicativos de Realidad Aumentada el objetivo es automatizar el seguimiento y
registro de cámaras y objetos para combinar escenas reales y procesadas
digitalmente. Con lo anterior se pueden implementar ambientes que incluyan la
interacción de usuarios humanos reales y avatares e incluir un amplio rango de
campos como la creación y animación de actores virtuales y técnicas de visión
computacional para la adquisición de información.
STAR (EU project) Service Training through Augmented Reality)/
This project aims to train technicians who need to perform service operations in industrial
installations. A virtual environment consisting of virtual humans and objects is displayed
together with the real, `through use of augmented reality techniques. The virtual humans are
mainly intended to guide the user on how a particular service operation can be accomplished.
At each step, the application provides the user with a set of choices, consisting of the actions
that the virtual human is capable of undertaking. Once the user makes his choice, the virtual
human is displayed performing the corresponding action. In this project, we are designing and
implementing an augmented reality system which allows investigation of different aspects of
the interaction between real-and virtual humans.
Este proyecto implementa actores virtuales como guías , los cuales muestran el uso
de instalaciones industriales en cada una de las operaciones de servicio. En cada
etapa el usuario puede elegir entre varias opciones relacionadas con el rango de
opciones provista por el actor virtual. Cuando el usuario ha ingresado su elección, el
actor virtual la ejecuta.
Lifeplus (EU project)
(Innovative Revival in Ancient Frescos - Paintings and Creation of Immersive Narrative Spaces
Featuring Real Scenes with Behavioral Fauna and Flora)
LIFEPLUS is an application of augmented reality and real time 3D graphics applied to
archaeological sites. Innovative technologies make possible for the visitor in Pompeii to go
back in the past and live again events and experiences that really took place. Ancient people
39
are coming back to life to meet and talk about facts and things of their time.
The system uses a standard firewire camera in order to capture images and blends the virtual
environment with them. The tracker does not require any markers allowing to setup the system
virtually anywhere. For improving the realism, a significant effort have been produced for
generating complex human animations.
Revivificación de antiguos frescos y la creación de espacios narrativos inmersivos
incluyendo escenas reales mezcladas con fauna y flora simuladas en su
comportamiento natural. Consiste en una aplicación de realidad aumentada y
ambientes 3D en tiempo real aplicada a sitios arqueológicos. El visitante de
Pompeya puede experimentar eventos que realmente ocurrieron allí.
40
Fig. 20 Aplicación de técnicas de realidad mixta y aumentada al
entrenamiento industrial usando avatares guías.
Fig. 21 Usando realidad virtual para reconstruir patrimonio histórico. Representación
por medio de avatares de escenas de la vida en sitios arqueológicos.
Visión Artificial.
41
Fig. 22 Ejemplos y demos de las areas de trabajo en Visión Artificial. Visión
de movimiento corporal y reconocimiento. Reconocimiento de caras.
Las actividades se centran en emular la capacidad humana de detectar la posición
de los objetos 3D con respecto a la posición propia . Las aplicaciones incluyen los
siguientes campos :
• Vigilancia
• Medicina
• Simulaciones en realidad aumentada ( de información corporal
humana)
• Análisis ergnómico.
• Efectos especiales para multiedia y cine
• Entretinimiento popular.
Agarrar Objetos Simulados Automáticamente para Interacción Directa.
The problem of grasping appears in several different forms. A first considered case is to model
all contact forces exchanged for the task of grasping objects (deformable or rigid) using a
dataglove with force feedback.
Correction algorithms are also considered for the case in which no force feedback devices are
attached to the dataglove and thus the need to correct grasping postures and finger
placements appears, in order to obtain visually correct results.
42
A last type of case involves a fully automatic virtual hand animation to grasp objects once the
user grasp intention has been detected. The animation of the hand reaching motion of
intelligent avatars may be also required. Some of the techniques being currently used to
approach these problems are Inverse Kinematics algorithms and also some Motion Planning
concepts
El problema de ‘tomar virtualmente’ las cosas tiene diferentes aspectos:
• Modelar todas las fuerzas del contacto de objetos rígidos o deformables
usando guantes de datos con retroalimentación de fuerzas.
• Algoritmos de corrección deben ser usados en el cual no hay dispositivos de
retroalimentación de fuerzas en el guante para corregir posturas del agarre y
lugar de los dedos con el fin de obtener resultados visualmente correctos.
• Mano virtual totalmente automática reconstruida sobre las intenciones de
tomar las cosas por parte del usuario. La animación de alacanzar las cosas
con las manos por aparte de avatares inteligentes..
Las técnicas usadas incluyen cinemática inversa, algoritmos y conceptos de
planificación de movimientos.
Animación de Caracteres.
Movimientos Reflejos para un Brazo Humano virtual.
Our goal is to create a system capable to synthesize virtual humans animation (body gestures)
in an autonomous way, and give the illusion that the artificial human being is a living creature
capable to produce a spontaneous behaviour according to its internal information and external
stimuli coming from its virtual environment. In particular, the proposed methodology is focused
on the autonomous synthesis of non-voluntary gestures such as reflexes and subtle
movements without any specific goal, which can provide a noticeable impression of realism and
naturalness. The final idea of this technique is to animate virtual humans with a more
spontaneous, non pre-programmed behaviour. For the moment, the technique is applied to the
animation reflex movements of the arm of a virtual human, in reaction to thermic stimuli.
Nevertheless, a general architecture to animate the full body is outlined. The proposed method
is a real-time, distributed control system inspired in the human nervous system, which will be
able to produce natural movements in response to external and internal stimuli.
El objetivo es crear un sistema capaz de sintetizar la animación del movimiento
corporal ( gestos corporales) de una manera autónoma para dar la sensación de
conducta espontánea de parte de una criatura humana artificial de acuerdo a
información interna y estímulos externos. La metodología propuesta se centra en la
síntesis de gestos no-voluntarios como reflejos corporales y movimientos súbitos sin
propósito específico con lo que se busca emular naturalidad y frescura.
La animación de avatares humanos no pre-programdos es el objetivo de ésta
técnica. Al momento se ha implementado en reflejos del brazo estímulos térmicos.
Una arquitectura general de animación del cuerpo ha sido bosquejada. El método
propuesto incluye un sistema de control distribuido inspirado en el sistema nervioso
humano capaz de proveer movimiento natural a estímulos externos.
43
Fig. 23 Ejemplos de animaciones de caractéres humanos en las diversas facetas:
Control y simulación de movimientos, comportamiento individual y social.,
Coordinación de Movimiento muscular mediante objetos de interacción.
44
Autonomous Virtual Musicians. The goal of this research is to provide an
interaction model in virtual world when we have some specific constraints like very
strict timeline due to the music dependence and we need a specific high level
knowledge. We are particularly interested to synthesize the right movement of the
musician according a music scorebook to simulate interactions with his music
instrument. For example, the speed, the intensity associated to motions and the
emotion of the virtual musician should be reflected in the produced sound.
El objetivos de esta investigación es proveer un modelo de interacción en un mundo
virtual cuando hay limites específicos como por ejemplo secuencia temporal estricta
dada por una partitura sonora. Se requiere sintetizar el movimiento correcto del
músico de acuerdo con la partitura para simular correctamente el movimiento con el
instrumento musical.
Objetos inteligentes y el movimiento de alcanzarlos.
Smart objects are able to give full instructions about their functionality and how virtual humans
should operate them. Our main approach is to use pre-defined plans for the synchronization of
the primitive motions required to animate the virtual human. In order to deal with complex
object manipulations, we are also particularly interested to synthesize correct reaching motions
based on planning of collision-free motions, learning of the free working space and the use of
Inverse Kinematics
Objetos inteligentes pueden dar instrucciones completas de su funcionamiento y de
como deben ser operados por los humanos. Nuestra aproximación es la de
establecer planes predefinidos para la sincronización de movimientos requeridos
para animar avatares humanos. Para resolver manipulaciones complejas de objetos
se sintetizan movimientos de alcanzar éstos basándonos en movimientos sin colisión
, area libre de operación y cinemática inversa.
Selección de Acciones de Motivación Individual
We investigate new approaches to enhance the autonomy of virtual humans. We are especially
interested in this research to use a free flow hierarchy together with a hierarchical classifier
system in order to decide the best compromise solution of dynamically varying concurrent
motivational goals. As a result, we expect to obtain a virtual human capable to realistically
decide by its own (according to its motivations and perceptions) the needed actions in a given
environment.
Se están investigando nuevas aproximaciones para mejorar la autonomía de
humanos virtuales. Se busca un fluido jerárquico libre junto con un sistema de
clasificación jerárquica con el fin de producir la mejor solución o compromiso de
acuerdo con variables y objetivos de motivación. Como resultado se espera obtener
humanos virtuales capaces de decidir de manera realista tomar decisiones propias
de acuerdo con motivaciones y percepciones en un ambiente dado.
Metodologías de Aprendizaje para Agentes Virtuales Autónomos
Our research is mainly focused on modeling and behavioral animation of Virtual Humans, and
more specifically on the simulation of Autonomous Virtual Agents (AVAs), capable of
undertaking actions themselves. The approach showed here is part of a more complex model,
which is the object of our research. The goal is to realize a Virtual Life Environment for an
Autonomous Virtual Agent including different interfaces and sensorial modalities coupled with
different learning methodologies, which can evolve.
45
Nuestra investigación está enfocada en el modelamiento y animación del
comportamiento en humanos virtuales y específicamente en la animación de (AVAS
) Agentes virtuales autónomos capaces de tomar acciones por ellos mismos. El
enfoque usado aquí es parte de un modelo más complejo, el cual es el objeto de
nuestra investigación. El objetivo es implementar un ambiente de vida artificial para
agentes virtuales autónomos incluyendo diferentes interfases y modalidades
sensoriales integradas a diferentes modalidades de aprendizaje, las cuales pueden
evolucionar.
Grupos de Comportamientos usando Agentes Sociales Autónomos
The goal of our research is to develop autonomous and socially intelligent agents, embodied as
3D believable virtual humans, in order to visually simulate human social behavior and small
group dynamics. In our approach, which is based on the psycho-sociological knowledge, group
behaviors are not centrally controlled but emerge from the agents' local interactions. In return,
the individuals' identity and behavior are directly affected by the collective system. The proper
modeling and flexible implementation of this feedback channel, which is in charge of
distributing such entities as beliefs, norms and values, will be a central issue in our work. The
degree of social control and conformity to the group's standards should be easily adjustable in
real-time, in order to be able to test different scenarios.
El objetivo es generar comportamiento social en pequeños grupos. Este se basa en
conocimiento psicosocial. El comportamiento emerge de la interacción local de los
agentes lo cual a su vez cambia la identidad individual. Se hace un modelamiento
apropiado y flexible de entidades como credo , normas y valores. El grado de control
social y conformidad individual a los estándares del grupo debe ser fácilmente
ajustable en tiempo real.
Control de Multitudes.
Our research aims at crowd simulations for interactive virtual environments such
as virtual heritage reconstructions or VR training systems. We are focusing on
complex behaviors of many virtual human agents existing in dynamic
environments with possible user interaction. Collective behavior emerges from
interaction of individuals, crowds are dynamically assembled and disassembled
and over the time they change their behavior. Our crowd is multi-agent system
with individuals' behaviors modeled by combination of rules and finite state
machines using layered approach. At the higher level complex behaviors are
selected by rules according to agent's state and the state of the virtual
environment; at the lower level these behaviors are implemented by hierarchical
finite state machines.
El objetivo es simular multitudes para ambientes virtuales para usos como el
entrenamiento para preservación de lugares de patrimonio. El objetivo esta centrado
en comportamientos complejos de muchos humanos virtuales dentro de un ambiente
dinámico y con posibilidad de interacción por un usuario. Comportamiento colectivo
emergente de los individuos , multitudes es sumado y separado y cambia con el
tiempo. Nuestro modelo de multitud es es un sistema de multi-agentes con
modelamiento del comportamiento individual por medio de combinación de reglas y
maquinas de estado finitos usando una aproximación por capas. Al nivel mas alto el
comportamiento es seleccionado de acuerdo al estado del agente y el estado del
ambiente virtual. Al nivel inferior estas acciones son implementadas por maquinas
jerárquicas de estados finitos.
46
Fig. 24 Simulación de una multitud utilizando las técnicas clásicas de
computación bio-inspirada y nuevos desarrollos experimentales.
Narraciones Digitales.
The focus of this research is to provide intuitive ways to determine the outline of a story, in
such a way that virtual humans are capable to follow the specified scenario, and at the same
time autonomously reacting to perceived events. The proposed model is mainly based on predefined plans and rules, but several related issues have been also considered: models to
simulate a simplified verbal communication between agents based on virtual sound
propagation approximations and synthetic voices, mixing of various concurrent behaviors, with
priorities and events triggering the activation/deactivation of various tasks, autonomous virtual
cameras, etc.
El objetivo de esta investigación es proveer métodos para determinar el desarrollo
de una historia en la cual humanos virtuales puedan actuar en un escenario
especificado siguiendo sus reacciones a eventos percibidos. El modelo propuesto
está basado en planes y reglas predefinidos teniendo en cuenta: modelos de
simulación de comunicación verbal entre agentes basado en la propagación virtual
del sonido y voces sintéticas, mezclando varias conductas concurrentes con eventos
prioritarios activando y desactivando tareas , cámaras virtuales autónomas etc.
Simulación Médica
VRlab Research on Medical Simulation. Specific objective: clinically validating
predictions of soft tissue deformations Our research is part of national research
network targeting Computer Aided and Image Guided Medical Interventions. We
are currently defining a generic model of the Hip joint to explore the range of
motion of this articulation. The goal is to predict the modification of this range
when altering the shape of the hip bone or the femur bone. In collaboration with
MIRAlab the generic model will be adjusted to patient data (MRI), first to validate
the simulation of range of motion for one or more normal subjects and, in a
second stage to make pre-operative simulation on abnormal cases.
47
Investigación en simulación médica. Objetivo específico: validación clínica de
deformaciones de tejidos suaves. Es parte de una investigación nacional sobre
intervenciones medicas asistidas por imágenes de computador. Se esta definiendo
en este momento un modelo genérico de articulación de las caderas para explorar el
rango de movimiento de esta articulación. El objetivo es predecir modificaciones de
este rango según modificaciones óseas. En colaboración con el Miralab el modelo se
ajustara a informaciones de pacientes para validar el rango de las simulaciones de
movimiento para uno o mas sujetos normales y luego pasar a casos anormales.
Fig. 25 Simulaciones Anatómicas para entrenamiento médico.
Interacción Multimodal
One of the investigated topics concerns the use of intelligent avatars (or
autonomous virtual assistants) to efficiently perform tasks in cooperation with the
user. In this context, natural ways of communication between the user and its
virtual assistant are being investigated within a multimodal interactive application.
Another topic of research is to define VR systems able to dynamically change the
interaction mode, adapting themselves to each situation and to the preferences
and motor skills capabilities of each user, offering personalized interaction
metaphors in order to optimize the comfort and sense of presence in interactive
VR systems. Take as example the simple problem of grabbing an object with a
dataglove: the used interaction mode may dynamically vary according to the
different motor skills and manipulation precision requirements: (1) the user must
close its virtual hand around objects to grab it, (2) the user simply places the
virtual hand near to an object an the virtual hand automatically grabs it, (3) only by
pointing to a desired virtual object will trigger an automatic animation of the virtual
hand to grab it, or (4) the user asks his "intelligent avatar" (vocal or gesture
instructions) to grab the object.
48
Se está investigando modos naturales de comunicación entre el usuario y su
asistente virtual dentro de un aplicativo multimodal. Se están investigando medios
para lograr que ambientes virtuales se modifiquen de acuerdo con las preferencias y
capacidades motoras de cada usuario ofreciendo metáforas de interacción
personalizadas para optimizar el confort y la sensación de presencia en sistemas de
realidad virtual. Por ejemplo el agarrar un objeto con un guante de datos. (1)El
usario debe cerrar su mano virtual para agarrar el objeto.(2)El usuario posa su mano
sobre un objeto y la mano virtual lo agarra automáticamente (3) Señalando el objeto
virtual deseado se activas una animación de la mano virtual , la cual lo agarra(4) El
usuario ordena a su avatar inteligente agarrar el objeto (instrucciones gestuales o
vocales)
Metáforas para aplicativos específicos.
Interaction with virtual vehicle controls in an immersive vehicle simulation system
for training and ergonomics in the scope of the European project
Proyectos de interacción en vehículos inmersivos simulados para entrenamiento y
ergonomía dentro de proyectos europeos.
•
•
Entrenamiento en ambientes virtuales para casos de emergencias.
JUST. Terapia 3D Inmersiva para curar fobias. Interacción precisa con
teclados de piano. Modos de interacción avanzados con humanos virtuales.
1.1.4.Áreas de Investigación y Desarrollo en Manufactura Virtual ( El
Ejemplo del IPK Fraunhofer Institut Berlín
Técnicas básicas
Impresión 3D: Producción de materiales sintéticos sin color o con color.
Captura 3D. Captura 3 dimensional de objetos mediante información geométrica y
de color.
Modelamiento CAD 3D. . Modelamiento interactivo 3D por medio de
dispositivo áptico. ( ver gráfica)
CAVE. Cuarto inmersivo para visualizar e interactuar con Contenido 3d mediante
visión estereoscópica y dispositivos de rastreo.
Estudio de Video . Trabajo de contenidos multimediales.
Dotación de Equipos
( Impresora 3D): Contex Designmate Cx
49
Dimension SST1200
( Scanner 3D): GOM Atos I
(Digitador Aptico): Sensable PHANToM Desktop
(Cave): Parallel Optical Research Testbed and Laboratory
Videoestudio: 3 Mac-Video editores. AV-Standards: DVD, Multinorm(S)VHS, (Mini)DV, (Digi)BETA
Software : Desarrollo, Implementación y visualización. Modelamiento 3d
Objetos 3d sin textura: STL (.stl)
Objetos con Textura :VRML 2.0/1.0 (.wrl)
Formtaos de CAD : .asc, .3ds, .prj, .max, .geo, .dwg, .dxf, .c4d, .mdl,
.plt, .igs, .iv, .lwo, .lws, .ma, .mb, .ply, .pts, .raw, .3dm, .w3d, .xsi, .stl,
.wrl, .obj
Software: Modelamiento 3D 3D Studio Max 7, Maya, Bender, VisCAM
RP 3.41, Deep Exploration, Freeform Modeling, jReality, JavaView
A diferencia del VR Lab de la EPFL relacionado con una unidad docente centrada
sobre ciencia computacional y en especial la computación grafica , el 3D Labor del
Fraunhofer Institut en Berlín esta relacionado ante todo con procesos industriales
aplicados basados en realidad virtual, mixta y aumentada o manufactura virtual.
Áreas de Desarrollo
50
Fig. 26. Stereolitografía y modelos CAD en técnicas de prototipado e
ingeniería inversa. Imágenes superiores modelo CAD . Inferior modelo
impreso 3d
We offer comprehensive and application oriented system solutions covering Virtual
Product Creation, Production and Automation Technology as well as Corporate
Management. In addition we focus our RTD-services on Security, Mobility and
Medical Technology. Our objective is to enhance and improve the competitiveness of
our customers and partners.
Together with the Institute for Machine Tools and Factory Management IWF of the Technical
University Berlin you will find us located at the Production Technology Centre in the heart of
the old Berlin industrial area at the Charlottenburg embankment of the river Spree.
ProfileThe Division of Virtual Product Creation conducts research into product creation
processes. In close cooperation with the IWF, Chair for Industrial Information Technology of the
Technology University of Berlin, which emphasises its academic research on theoretical and
methodological issues, the applied research projects carried out by Fraunhofer IPK are
oriented at transferring this know-how into prototypical solutions and industrial applications.
R&D TopicsStaying up-to-date in today’s markets means that companies in general, but small
and medium sized enterprises in particular need to establish competences in creating virtual
products. Virtual product creation decisively contributes to the performance of product
development and to the overall success of companies. The Division of Virtual Product Creation
carries out projects pertaining to information management, product modelling and product
creation processes.
Business AreasWe develop applications and solutions for automobile and transport industries,
for machine and plant engineering, for tool and mould making, for aviation and space
industries, for electronics and software engineering and for medical technology. Our partners
and customers are multinational companies as well as national and international small and
medium sized enterprises.
ServicesOur spectrum of services comprises the improvement of existing process designs as
well as the development and implementation of entirely new application systems geared to
optimize the product creation process in terms of enabling shorter development times, reducing
costs, improving quality and increasing innovative capabilities.
•
•
•
•
•
•
•
•
Production Systems
Automation Technology
Medical Technology
Business Excellence Methods
Corporate Logistics and Processes
Benchmarking
Knowledge Management
Competence Cluster Indonesia
51
•
•
•
•
•
•
•
•
•
•
Information Management
Product Modelling
Produkt Ration Processes
Manufacturing
Production Machines and System Management
Microproduction Technologies
Staff Qualification
Process Automation and Robotics Security Technology
Process Monitoring and Simulation
Optical Testing 'FUTUR'
52
Fig. 27. Cave, Digitador Aptico y simulación para entrenamiento industrial
mediante realidad mixta en el FraunHofer Institut de Berlín..
1.1.5. Otros campos de Desarrollo e Investigación
Arte Vivo
Fig. 28. Espejo digital. Arte multimedial interactivo . Mars Lab . Minika
Fleischmann , directora, 1998.
53
Fig. 29. Arte Vivo. El Pintor Artificial. Por Luigi Pagliarini. 1999. El usuario
decide el sentido de la evolución del algoritmo genético segun la imagen que
escoge. El resultado se acerca a esta elección aleatoria.
Arquitecturas Mixtas.
El Lab de la Universidad de Nottingham trabaja desde la década pasada en el
desarrollo de ‘arquitecturas mixtas’: interfases de realidad virtual incluidas dentro de
la arquitectura edilicia. Prototipos de experimentación son los museos, las oficinas,
los auditorios y el comercio.
54
1.1.6. Referencias Técnicas
B. Uribe et Alt, “A Theatre of Memory in Virtual Worlds” 2 International Conference Virtual Worlds,
Springer, 2000.
B, Johnson, “Beyond On-line Collections: Putting Objects to work”, Museums and the Web 2004
International Conference, Archives & Museums Informatics, www.archimuse.com.
T, Cinotti , et alt, “Evaluating context –Aware Mobile Applications in Museums: Experience from the
MUSE Project, ICHIM 03
W, Thomas, et Alt, “Actual/Virtual Visits: what are the Links?”, Museums and the Web 2005
Park e Inoue , “Real Image Based Virtual Studio”, 1 International Conference Virtual Worlds, Springer,
1998 .
T. Kanade et Alt , “Digitizing a varying 3D Event as is and in Real time; in “ Mixed Reality: Merging Real
and Virtual Worlds”, Springer, 1999.
W.P Cockshot, et Alt, “Interactive 3D Studio for TV, The Michelangelo Project, University of Glasgow
,2000; Park, S W et Alt; “Real Time Camera Calibration for Virtual Studio”, Academic Press , 2000
T ,Fukuya, et Alt, “An Effective Interaction Tool for performance in the Virtual Studio”, Studio Systems,
2003.
S ,Rusinkeiewicz, et Alt, “Real Time 3D Model Acquisition” Proceedings of ACM Siggraph 2002.
Kelly, “ Control de Movimientos de Robots Manipuladores”, Prentice Hall 2003.
R Craig, J, “ Introduction to Robotics Mechanics and Control”, Addison Wesly Longman, 1989
1
Portions of this software is based in part on the CyberVRML97 package written by Satoshi Konno
Roger Clarke, Digital Compression of Still Images and Video, Academic Press, 1995.
Mitchell, W.City of Bits, The MIT Press, Cambridge-London, 1996
Yates, Francis A.The Art of Memory, The University of Chicago Press, Chicago, 1966.
Rajchman, J, Constructions, The MIT Press, Cambridge-London, 1998.
Editorial Board, Telepolis, aktuelles Magazin, Heinz Heise Verlag http://www.telepolis.de.
Yates, Francis A., Theatre of the World, The University of Chicago Press, Chicago 1969.
Heudin, Jean Claude, ed, Virtual Worlds 98, Proceedings of the International Conference, Springer
Verlag, Lecture Notes on Computer Science, Berlin-Heidelberg-New York, 1998
Park, J and Inoue, I, “Real Image Based Virtual Studio”, Virtual Worlds 98, Proceedings of the
International Conference, Ibidem, 117-122.
Kimoto, H.,”Human Centered Virtual Interactiv World for Image Retrieval”, In Virtual Worlds 98, ibidem,
311-322.
Mark W. Spong, M. Vidyasagar, Robot Dynamics and Control, John Wiley & Sons, 1989
Lorenzo Sciavicco, Bruno Siciliano; Modelling and Control of Robot Manipulators (Advanced Textbooks
in Control and Signal Processing), Springer-Verlag UK, 2000
55
1.2. Fundamentos de Complejidad.
José Jesús Martínez Páez, Profesor Asociado y Especial, Departamento de Sistemas,
Facultad de Ingeniería, Universidad Nacional de Colombia
[email protected]
1,2,1. Introducción.
Introducción.
La formación actual en las ciencias y la tecnología se realiza haciendo
abstracciones de los Sistemas Complejos para poderlos trabajar como si fueran
Sistemas Lineales. Toda la matemática tradicional se ha construido para trabajar y
soportar la estructura de las abstracciones de las diferentes ciencias y tecnologías.
Sin embargo, la tecnología, especialmente la tecnología computacional, permite que
se estudien y se avance en la comprensión de los sistemas complejos.
Diariamente nos enfrentamos con situaciones que manejamos apropiadamente:
conducir un carro, tomar un bus, operar una máquina, recibir o dar una clase; en
otras palabras, ejecutar acciones a las cuales estamos acostumbrados. En general
nuestra interacción con estos sistemas esta completamente determinada, lo que nos
permite hacer proyecciones sobre nuestras acciones como por ejemplo, llegar a un
determinado lugar a cierta hora.
En otras palabras, tenemos un modelo mental simplificado de cada uno de estos
sistemas, que nos permite su interacción. Sin embargo, cuando por alguna razón las
cosas no se presentan a como estamos acostumbrados, es decir se presentan
circunstancias diferentes, aparecen nuevas facetas, generalmente desconocidas, de
los sistemas con los que interactuamos permanentemente sobre las cuales en
general no podemos hacer proyecciones, como pueden ser por ejemplo, choques,
varadas, huelgas y otras. Nos encontramos con Sistemas Complejos, para los
cuales, en ciertas circunstancias, no tenemos una forma apropiada de responder en
cuanto al tiempo que gastamos en dar una respuesta, en cuanto a las proyecciones
que podamos hacer y en cuanto a los efectos que nos puedan generar estas
situaciones.
Por otra parte nuestra actuación se rige por reglas que a veces pueden ser
discutibles. Por ejemplo, el sistema de evaluación del desempeño de un estudiante
en un curso, define porcentajes de la nota final en diferentes periodos del semestre.
En la mayoría de casos el desempeño de los estudiantes es homogéneo y la nota
refleja el conocimiento adquirido. Sin embargo, en algunos casos en la evaluación
siguiendo las reglas no hay esa relación entre nota y conocimiento adquirido.
Supongamos que las reglas definen porcentajes de 35%, 35% y 30%, y que un
profesor obtiene esos porcentajes con base en exámenes. Las notas obtenidas por
un estudiante, sobre 5.0 son 1.4, 3.0 y 4.2 respectivamente, al calcular su nota final
obtiene un 2.8, es decir pierde el curso. Otro estudiante, obtuvo las siguientes notas
sobre 5.0: 4.2, 2.8 y 1.4, obteniendo una nota final de 3.0, pasando el curso. En
estos dos casos se refleja en la nota el conocimiento de los estudiantes? A lo que se
56
llega es a que el sistema de evaluación, con base en este modelo, es bastante
discutible.
Ahora, desde el punto de vista de la fundamentación formal, la ciencia normalmente
solo considera aspectos simplificados de la realidad. Abstrae un subconjunto de
propiedades del fenómeno que estamos estudiando y desarrolla fórmulas
matemáticas, que de alguna manera modelan y predicen su comportamiento. Sin
embargo, muchos de los comportamientos que queremos estudiar no son
apropiados para este tipo de simplificación, pues surgen como el resultado de
interacciones complejas entre muchas partes individuales similares o diferentes. En
esta categoría se encuentra la vida y todos sus componentes. El campo de los
Sistemas Complejos S.C., que a continuación se trata es el de los sistemas
adaptativos complejos, concentrándonos no solo en los subsistemas, sino en sus
interacciones, la dinámica del sistema.
1.2.2. Teoría de Sistemas y Sistemas Lineales.
Teoría de Sistemas
Pero antes de iniciar el estudio de S.C. hablemos un poco de Teoría de Sistemas.
Esta teoría fue propuesta por el biólogo Ludwig von Bertalanffy en los años cuarenta
del siglo pasado, quien reaccionando contra el reduccionismo trató de revivir la
unidad de la ciencia. La idea es que los conceptos y los principios de organización
que fundamentan las diferentes disciplinas científicas permiten una base para su
unificación. Ludwig von Bertalanffy enfatizó en que los sistemas reales son abiertos
e interactúan permanentemente con el ambiente y que pueden adquirir nuevas
propiedades a través de la emergencia, resultante de la evolución continua. En
lugar de reducir las propiedades de un sistema a las propiedades de sus partes, la
teoría de sistemas se enfoca en la conformación y las relaciones entre las partes
que las conectan en un todo. Los desarrollos de la Teoría de Sistemas son diversos
y parten del concepto clásico de sistema, que incluyen las definiciones siguientes;
SISTEMA
E
N
T
R
A
D
A
S
PROCESO
AMBIENTE
S
A
L
I
D
A
S
57
Fig 1. Un sistema, sus componentes y el ambiente con el que interactúa.
Definiciones
Sistema: Conjunto organizado de partes, subsistemas, o agentes interdependientes
que interactúan. Se distinguen, para propósitos teóricos dos tipos de sistemas
cerrados y abiertos.
Sistema cerrado:Es un sistema que no recibe retroalimentación del medio
ambiente. En la realidad ningún sistema es cerrado. Se podría pensar que ciertas
máquinas son un sistema cerrado, por ejemplo un teléfono, pues no recibe
retroalimentación del medio ambiente para que se ajuste a determinados cambios.
Sistema abierto:Es un sistema que recibe retroalimentación del medio ambiente
que le permite cambiar su estructura para mejorar su comportamiento. Son sistemas
adaptativos. En el caso del teléfono, si bien el teléfono por sí mismo no cambia su
estructura, lo hace el hombre, ante los cambios en el ambiente.
Entradas:Son las excitaciones al sistema. Una de esas excitaciones puede ser la
retroalimentación del medio ambiente sobre el cual actúa el sistema.
Proceso:Recibe las excitaciones al sistema y a través de una serie de interacciones
entre los subsistemas componentes, genera una serie de comportamientos.
Salidas:Es el comportamiento del sistema cuando se le aplican las excitaciones de
entrada.
Ambiente:Es el medio dentro del cual se comporta el sistema. Posteriormente
profundizamos en esta definición.
Teleonomía:Todos los sistemas tienen un objetivo único y definido, de tal manera
que su estructura y comportamientos están en función de ese objetivo. En el caso de
una máquina su objetivo es el de satisfacer algún tipo de necesidad del hombre.
Proceso:Todas las actividades que realiza el sistema para el logro de sus objetivos
o cumplimiento de su objetivo teleonómico.
Sistemas Lineales
Nuestro comportamiento frente a las situaciones diarias responde a que nuestra
interacción se realiza en la zona lineal de un conjunto de S.Cs. Este comportamiento
comúnmente se asocia directamente con la eficiencia, tenemos así que si quiero
llegar lo más pronto a otro sitio de la ciudad debo ir más rápido, si trabajo más,
produzco más artículos, si estudio más aprendo más. Son relaciones proporcionales
que se olvidan de muchos detalles, que solamente son válidas en casos especiales:
en los que el S.C. es lineal. Comencemos entonces por definir lo que es un sistema
lineal.
Definición. Un sistema es lineal si cumple la característica de Superposición y
Homogeneidad.
Superposición. Si al excitar el sistema con una señal de entrada u1(t) se
produce una señal de salida y1(t); y si al excitar el sistema con una señal de
entrada u2(t) se produce una señal de salida y2(t); entonces cuando el
58
sistema se excita con una entrada u1(t) + u2(t), el sistema produce una salida
y1(t) + y2(t). Ver figura 2.2.
Veamos un ejemplo en términos comunes, si se trabaja en un sistema de
producción durante una hora se producen 10 artículos; si se trabaja en el mismo
sistema durante tres horas se producen 30 artículos, entonces cuando se trabaja, en
el mismo sistema de producción, durante cuatro horas se producen 40 artículos. Hay
una relación de proporcionalidad.
Homogeneidad. Si al excitar el sistema con una señal de entrada u1(t)
produce una señal salida y1(t), y si se excita el sistema con una señal de
entrada b1u1(t), donde b1 > 0 es un multiplicador, el sistema produce una
señal salida b1y1(t). Ver figura 2.3.
Continuando con el ejemplo anterior se tendría que si se trabaja en un sistema de
producción durante una hora se producen 10 artículos; si se trabaja en el mismo
sistema durante un millón de horas se producirían 10 millones de artículos. Si el
sistema de producción cumple con esto se tendría que es homogéneo. Su estructura
interna siempre responde independientemente del número de horas de trabajo. En la
práctica no existe ningún sistema homogéneo, lo que hay son ciertas regiones
donde el S.C. es homogéneo.
u1(t)
u2(t)
u1(t) +
S.L.
y1(t)
S.L.
y2(t)
S.L.
y1(t) +
Fig. 2.1 Principio de superposición de los Sistemas Lineales.
u1(t)
S.L.
y1(t)
b1u1(t
S.L.
b1y1(t)
59
Fig 2.2.. Principio de homogeneidad de los Sistemas Lineales.
En general los fenómenos de la naturaleza no son lineales. Los Sistemas Lineales
se utilizan por el desarrollo histórico de la matemática, pues la ciencia se
fundamenta en la matemática disponible. Por ejemplo, la física Newtoniana se basa
en abstracciones lineales del mundo físico, tales como: no hay fricción, la masa se
concentra en un punto, las mediciones son exactas, y otras. Con el desarrollo de la
física moderna, la aparición de la física cuántica, aparecieron fenómenos que no
satisfacían los requerimientos de los Sistemas Lineales, con lo que se comenzó un
fuerte cuestionamiento de la física clásica. Se necesitan nuevas herramientas para
el estudio de estos fenómenos.
1.2.3. Introducción a los sistemas complejos
Sistema Complejo
Un Sistema Complejo, S.C., desde el punto de vista del modelo conexionista, se
considera como una red adaptativa de subsistemas, donde cada uno de los
subsistemas se encuentra en un estado determinado, y está unido por arcos
ponderados, unidireccionales o bidireccionales, a otros subsistemas. Los
subsistemas también se conocen como nodos, elementos, o agentes. Los arcos
también se conocen como conexiones, enlaces o canales.
Esta es una definición recursiva. A cada uno de los agentes que conforman un S.C.,
se le puede aplicar la misma definición. Veamos un ejemplo: la sociedad, es un
sistema compuesto de personas, que viven en un determinado territorio,
relacionadas bajo una serie de normas o leyes. Cada persona a su vez es un
sistema compuesto de órganos, tejidos y sistemas, que obedecen una serie de leyes
físico-químicas.
1
2
4
4
Fig 3.1. Sistema Complejo y sus componentes. Es una red, compuesta de nodos, o
subsistemas, cada uno en un estado y unidos por enlaces.
Esquema
Un S.C. es cualquier sistema que incluye un número de agentes agrupados
siguiendo un esquema, que se conforma satisfaciendo las leyes correspondientes a
la naturaleza del sistema: físicas, químicas, económicas, sociales, ecológicas, y
otras. Estos esquemas siguen procesos de cambio que no se pueden describir por
una sola regla ni se pueden reducir a solo un nivel de explicación, pues incluyen la
generación de comportamientos cuya emergencia no se puede predecir a partir de
60
las características de los componentes del sistema, debido a que se presentan
diferentes interacciones entre ellos. En los seres vivos este proceso de cambio del
esquema se conoce como evolución.
Pero de qué manera evoluciona un S.C, y que tipo de leyes sigue su evolución? En
primer lugar, cada S.C. esta enfrentando permanentemente un ambiente, de esta
confrontación surge una retroalimentación. Cuando esta retroalimentación se
refuerza, afecta directamente el esquema del SC que repercute en el patrón del
S.C., esto lleva a dos visiones del sistema. Una es la visión lineal del S.C. que se
desplaza en el tiempo por una recta que va del pasado al futuro, donde el presente
es un punto de esta línea. La otra visión es la de un círculo en el cual va cambiando
el esquema del S.C. El ejemplo es la conocida cuestión de qué fue primero la gallina
o el huevo? En este caso se tiene un círculo, pues realmente no hay dirección antes
o después, Ver figura 3.2.
Huevo
Presente
Pasado
Futuro
GALLINA
a)
b)
Fig 3.2. Visiones de un Sistema Complejo. a) Lineal en el tiempo. b) Circular, en el
cambio de su esquema.
Si integramos estas dos visiones encontramos lo que realmente sucede, en el
transcurso del tiempo, el S.C. va cambiando su esquema. El S.C. de hoy no es
exactamente el S.C. de ayer, ni será exactamente el mismo S.C. de mañana. En la
figura 3.3 se presenta esta visión.
Cambio de
esquema
Pasado
Futuro
Presente
Fig 3.3. Integración de las visiones de un Sistema Complejo, lo que realmente
sucede.
En la vida real lo que percibimos del S.C. es la visión lineal, el patrón del S.C. En el
caso genético el fenotipo, la gallina o el huevo; el esquema en este caso es el
61
genotipo o código o programa de ADN de las células, que es lo que evoluciona en el
tiempo, nos parece algo abstracto, pero es tan real como el patrón.
Sin embargo, para que se pudiera llegar a conocer el esquema del S.C. gallina, es
decir la decodificación de su ADN, se ha tenido que desarrollar una tecnología muy
fuerte, y aun se desconoce mucho sobre la relación entre esquema y patrón.
Es aquí donde en general nuestra ciencia y tecnología se queda muy corta: estudiar
el esquema y la interacción entre los agentes de los S.C.s.
Emergencia
Se había visto que el cambio en el esquema del S.C. obedece a una
retroalimentación reforzada de su relación con el medio ambiente. De manera que lo
que se espera es que el cambio de patrón del S.C. de alguna manera corresponda
con esta retroalimentación. Y realmente es así, el S.C. cambia de patrón, con el fin
de que su comportamiento supere las restricciones que le presenta el ambiente o de
lo contrario desaparece. Estos nuevos comportamientos emergen del cambio de
esquema del sistema, que es como ha sucedido en el transcurso del tiempo con
todos los seres vivos.
Si vamos un poco más atrás, cuando una primera molécula se pudo replicar,
encontramos que en el cambio de esquema de los seres vivos se ha ido ganando
complejidad y han ido apareciendo nuevos comportamientos, a partir del mismo tipo
de agentes, las células. Las diferentes organizaciones y la densidad de los agentes
es lo que permite la gran diversidad de comportamientos de la biomasa existente.
Se define entonces emergencia como el comportamiento de un S.C. resultante de la
interacción de muchos subsistemas, que no se puede predecir a partir del
comportamiento de los subsistemas componentes.
Ambiente
La supervivencia de un S.C. depende de cómo su cambio de patrón le permite
afrontar adecuadamente el ambiente. En otras palabras es una cuestión de vida o
muerte. Esta es la situación permanente de un S.C., su supervivencia esta ligada a
como se reestructura para afrontar el ambiente. Pero hemos hablado de ambiente
como si fuera algo estático. Definimos el ambiente de un S.C. como su interacción
con otros S.C. El ambiente cambia permanentemente, pues así como varía un S.C.
están variando todos los S.C.s de su entorno, cambiando las interacciones. Este
cambio incluye la aparición de nuevos S.C.s y la desaparición de otros
Orden y Caos
Este cambio permanente en el esquema se considera como un ciclo que va del
orden al caos, y del caos al orden. El orden es el esquema actual y el caos el
proceso para llegar a una nuevo esquema. El orden permite que se almacene
experiencia y el caos la posibilidad de llegar a un nuevo esquema que confronte
mejor el ambiente. Se dice entonces que los S.C.s están al borde del caos, pues no
pueden ser tan ordenados porque no avanzan hacia nuevos patroness ni tan
caóticos que no puedan retener experiencia.
Volviendo a la cuestión de la gallina y el huevo, y ampliando mucho la escala de la
recta del tiempo, podemos ver cambios en el patrón de lo que hoy es la gallina,
figura 3.4. Ahora podemos resolver la cuestión qué fue primero la gallina o el huevo?
62
Fig 3.4. El cambio en el esquema no es visible, sin embargo en el tiempo se
pueden ver los cambios en el patrón. En el pasado tenemos un velociraptor,
cuya esquema se ha ido modificando para actualmente ser una gallina y no
sabemos como será el patrón en el futuro.
Si echamos una mirada a una máquina, cambia su esquema? Claro que sí,
aunque no lo hacen ellas mismas, se valen del hombre para ello. Si tomamos
por ejemplo el teléfono, tendremos una figura similar a la anterior aunque con
diferentes escalas de tiempo, figura 3.5.
Fig 3.5. El cambio en la esquema o evolución de una máquina
Las máquinas evolucionan en la medida que el hombre necesita nuevas
herramientas y desarrolla nuevas tecnologías.
Entropía
Otra forma de ver el cambio de la estructura es a través del concepto de entropía.
Este concepto, que viene de la Termodinámica y se conoce como la 2ª. Ley, en el
contexto de sistemas hace referencia al orden. En la medida que aumenta el orden
de un sistema disminuye su entropía. Al cambiar la estructura del S.C. para afrontar
el medio ambiente, hay un aumento en el orden del S.C., decir baja su entropía. En
los S.C., hay una disminución permanente de la entropía en el tiempo. La vida es un
proceso de ordenamiento permanente, hace que la entropía disminuya, negando de
alguna manera la 2ª. Ley.
Escala de Tiempo
63
En el caso de la gallina, el cambio de su estructura ha tardado del orden de 100
millones de años. El cambio de la estructura del teléfono ha tardado del orden de
100 años. Los cambios en el Sistema Inmunológico pueden tardar semanas. Cada
S.C. tiene su propia escala de tiempo, y es el parámetro básico de diferenciación de
los S.C,
Optimización en Sistemas Complejos
Complejos
El concepto de optimización que se usa en sistemas lineales no se puede aplicar a
los S.C. En los S.C. son muchos los parámetros, algunos de ellos contrapuestos,
que se deberían considerar al definir el comportamiento óptimo de un S.C. En su
lugar se define una región de buen comportamiento dentro de la cual el sistema se
comporta "bien" a diferentes estímulos del ambiente. También se puede llamar
región de viabilidad, en la cual el sistema continúa operando apropiadamente.
Fig 3.5. Región de comportamiento óptimo de un sistema complejo.
Por consiguiente la solución de un problema complejo se debe buscar en la región
de "buen" comportamiento y su solución óptima será la mejor solución encontrada
hasta ahora en esa región.
Comportamiento crítico
crítico
Hay situaciones en las que el S.C. presenta cambios gruesos en sus propiedades
macroscópicas como resultado de pequeños cambios en las interacciones locales de
sus subsistemas. También se conoce como el “efecto mariposa”, que hace
referencia a que el movimiento de las alas de una mariposa en un lugar del planeta,
por ejemplo en los Llanos Orientales, puede producir una helada en otro lugar del
planeta, por ejemplo Chicago.
Son muchos casos en los que la gente se pregunta sobre la situación crítica de los
S.C. Si se esta haciendo una montaña de arena, y los granos van cayendo uno a
uno, porque en un momento dado un solo grano puede hacer que se derrumbe la
montaña? El caso más común de un S.C. en situación critica para nosotros es el
famoso “florero de Llorente”, con el que se inicio nuestra independencia de España.
Realmente el hecho de que el Sr. Llorente no prestara el florero fuera la causa de la
independencia no tiene sentido. El sistema colonial español estaba en un estado
crítico que cualquier evento diferente hubiera disparado todos los fenómenos
sociales que se sucedieron a partir del 20 de julio de 1810. En este caso es mucho
más claro el “efecto mariposa”.
64
1.2.4.
1.2.4 Características de un S.C.
AutoAuto-Organización.
Organización
Como vimos los S.C. tienden a una mayor organización y ordenamiento de sus
estructuras, lo que se hace a través del proceso evolutivo, que lleva un S.C. de una
esquema estable a otro esquema estable. Aquí es importante analizar como se
realiza este proceso de transición. Bajo el concepto de auto-organización un S.C.
ahora se nos presenta como un conjunto de procesos, coherentes, evolutivos e
interactivos que se manifiestan temporalmente en patrones globalmente estables.
Pero cómo se organizan los S.C.? Primero se comportan como un todo, como una
entidad y además, tienen una meta que cumplir, de manera que su patrón no solo
se debe a la retroalimentación reforzada sino que incluye una causalidad interna. Un
S.C. recibe energía disponible del ambiente que lo lleva fuera de equilibrio a través
de la disipación irreversible de esa energía. Una vez la distancia a ese equilibrio
alcanza un umbral critico, el “viejo” patrón se vuelve inestable y a través de la
disipación de más energía el sistema responde con la emergencia espontánea de un
nuevo comportamiento que organiza y mantiene el nuevo patrón logrado. Por lo
tanto podemos ver la emergencia de patrones auto-organizados como una respuesta
de los S.C. para continuar cumpliendo su meta. A la larga, todo S.C. no puede
mantener la cohesión de sus componentes y desaparece. Desde otro punto de vista,
es una reconfiguración del sistema complejo, según el Principio Darwinniano de
Selección Natural, con base en leyes: físicas, químicas, biológicas, psicológicas,
sociológicas, económicas, políticas, de mercado, y otras.
Viabilidad. Es la capacidad de un sistema complejo para mantenerse y sobrevivir
dentro de ciertos límites debido a cambios ambientales. Es un resultado de la Autoorganización. En caso de que la Auto-organización no logre la viabilidad del S.C.,
desaparece.
Sinergia
Se define sinergia como el resultado de la auto-organización y la coevolución de
estructuras emergentes complejas. Aprovechan el comportamiento de los
subsistemas que los componen para producir otros comportamientos emergentes.
Por el principio de sinergia, el comportamiento del sistema no se puede predecir a
partir del comportamiento de sus elementos. En términos familiares, se dice que en
un sistema 2 + 2 > 4. Es por esto que los S.C. se deben estudiar y analizar
globalmente (holísticamente) para conocer su comportamiento. Como campo de
investigación la sinergia esta orientada a la búsqueda de patrones generales para la
formación de nuevas estructuras.
65
Fig 4.1. En la parte izquierda, los componentes de un carro. En la parte derecha, el
carro. Las funciones de los componentes son completamente diferentes al del
sistema formado por ellos.
Redes Adaptativas No Lineales, RANs,
RANs
Los S.C. conforman Redes Adaptativas No Lineales, RANs. El concepto de
adaptación hace referencia a aprendizaje. El S.C. para mantenerse y sobrevivir
dentro de un conjunto de ambientes diversos, debe aprender, es decir recordar
experiencias anteriores e internalizarlas para comportarse adecuadamente ante los
cambios del ambiente. Se auto-organizan, para mantenerse frente a los ambientes
cambiantes. En otras palabras, se deben reorganizar internamente, como resultado
de su aprendizaje, para continuar siendo viables.
Las RANs tienen las siguientes características:
• Gran número de elementos
• Procesamiento paralelo y distribuido
• Interacción no lineal y competitiva
• Ausencia de autoridad central, aunque las relaciones de algunos
nodos tengan más peso que otros
• Hay operadores que modifican los elementos y sus interacciones
• Presentan una adaptación progresiva del sistema.
N
N
A
N
N
Fig 4.2. RAN, Red Adaptativa No Lineal.
A partir de esta consideración, un S.C. se puede definir con base en: un conjunto de
nodos N, cada uno en un estado; una arquitectura del grafo; un conjunto de
ambientes A; y pesos de conexión entre los nodos, W i, j. Además incluye una
dinámica del S.C. definida por: reglas de transición, para cambios de estado de los
66
nodos; operadores de aprendizaje, o cambios en W i, j; y reglas de modificación del
grafo.
Para realizar el aprendizaje, en un S.C. se pueden considerar dos clases de autoorganización: vertical y horizontal. La Auto-organización
vertical se puede
considerar como un proceso evolutivo bastante lento, por lo que no lo consideramos.
La que aquí nos interesa es la auto-organización horizontal.
Auto-organización horizontal. En este tipo de auto-organización se presenta una
competencia entre los nodos o elementos del sistema complejo, que lleva a la
formación de clases. Estos elementos, a través de una co-adaptación, van detrás de
una “Retribución”.
Fig 4.3. Auto-organización horizontal. Competencia y formación de clases.
Aprendizaje. Para la interacción del sistema complejo con el medio, este incluye
mecanismos que le permiten almacenar información de las experiencias anteriores
con el ambiente. Esto implica que muchas de las respuestas a los mismos estímulos
pueden ser diferentes. No hay ni superposición ni homogeneidad. Se presentan dos
esquemas de aprendizaje: aprendizaje rápido (Ciclo externo) y aprendizaje lento
(Ciclo interno).
Aprendizaje rápido (Ciclo externo). Guarda experiencias de su interacción con el
ambiente, que le permiten incluso realizar ensayos y disminuir los errores en las
siguientes interacciones. Los cambios en el sistema complejo que le permiten
almacenar las experiencias se traducen en cambios en las ponderaciones de los
pesos de las conexiones entre los nodos. Se le conoce también como de ciclo
externo por que obedece a estímulos directos del ambiente. Se puede considerar
como un aprendizaje para dar respuestas mecánicas, en un ambiente operativo.
Aprendizaje lento (Ciclo interno). Es un aprendizaje que desarrolla por sí mismo el
sistema complejo. No espera señales del ambiente, se prepara para sus posibles
cambios. Son deducciones o abstracciones alrededor de las experiencias
almacenadas. Este aprendizaje se manifiesta en el sistema por la reestructuración
de las relaciones entre grupos de componentes del sistema.
1.2.5. Bases para el análisis de Sistemas Complejos
John Holland, padre de los Algoritmos Genéticos, en su libro Hidden Order: How
Adaptation Builds Complexity, Reading, Mass.: Addison-Wesley, 1995, explora
formas en las cuales nuestras ideas sobre los S.C. se traducen en una comprensión
más profunda. Para lograr esta comprensión define siete bases que consisten de
cuatro propiedades y tres mecanismos, comunes a todos los S.C. A continuación se
presentan estas bases.
67
Agregación, Propiedad
Consiste en agregar o desagregar un componente a un S.C. Se considera en dos
sentidos.
1. Desagregación. Cuando nos encontramos ante una situación completamente
nueva, la desagregamos en los componentes que conocemos y en los que no
conocemos. Luego estudiamos en detalle que componentes no conocemos y así
obtenemos un conocimiento más cercano del S.C.
2. Agregación. Hace referencia a la emergencia de comportamientos de una escala
mayor a partir de agregaciones de componentes menos complejos. Los agregados
así formados pueden a su vez ser componentes de S.C. de mayor jerarquía.
Fig 5.1. Escultura de toro alado con cabeza humana de la cultura Asiría.
Comprendemos la escultura desagregando sus partes. Museo de Louvre.
http://es.wikipedia.org/wiki/Escultura_asiria
Rotulación, Mecanismo
Es el mecanismo por medio del cual se facilita la formación de agregados. El
ejemplo más común es la bandera que se usa para congregar personas de una
misma nacionalidad. La rotulación permite ignorar ciertos detalles para
concentrarnos en otros y delimitar un S.C. Los patrones visuales, las feromonas, las
marcas, los logos, los iconos, los himnos, son ejemplos de este mecanismo.
Cuando se examina más de cerca la marcación, se encuentra que los S.C. la usan
para manipular simetrías. Nosotros también la usamos de manera inconsciente, para
analizar nuestras situaciones cotidianas.
68
Fig 5.2. Marcha realizada en Porto Alegre, Brasil en 2003, en el III Foro Social
Mundial. Hay delegaciones de diferentes países, que se identifican con sus
banderas. www.observatorio.org.ar/FSM/marcha.jpg
No Linealidad, Propiedad
Como ya se ha dicho, las herramientas matemáticas desarrolladas hasta ahora
como el algebra, el cálculo, etc, son lineales, de manera que la formación de las
personas en las profesiones y las disciplinas se ha acomodado a las herramientas
matemáticas disponibles.
Fig 5.3. Errores en el tiempo de proyecciones sobre el clima global.
Es por esto que todas las proyecciones que se hacen: económicas, políticas,
industriales y otras, funcionan únicamente en la parte lineal de estos S.C., es decir
cuando el ambiente no registra cambios, o cuando el nivel de resolución es muy
bajo. Es por esto que las proyecciones las podemos aceptar solamente como
posibles tendencias. En la figura 5.3, se puede apreciar como crece el error en el
tiempo en una proyección del clima global.
Flujos, Propiedad
En nuestro discurrir diario hablamos del flujo de vehículos, del flujo de bienes, del
flujo de capital entre países, de flujos de datos. Yéndonos a nuestra definición de
S.C. hablamos de flujos entre los nodos o agentes, donde el agente emisor se puede
considerar como fuente, el nodo donde llega el flujo como destino, y el canal como el
69
conector. Estas triadas, emisor, conector, fuente, son comunes en muchos S.C. En
los procesos de adaptación estas triadas cambian, aparecen nuevas o desaparecen
otras.
Hay dos propiedades de los flujos, conocidas en economía que son comunes a
todos los S.C.: efecto multiplicador y el efecto reciclaje que representan cuando
se inyectan recursos adicionales al mismo nodo. Normalmente estos recursos pasan
de un nodo a otro, posiblemente transformándose a lo largo del transcurso del flujo
por los componentes del S.C.
Constructo
$100
$20
$800
Comida,
alojamient
$51
Obreros,
$64
$16
$12
Fig 5.4. Distribución de la inversión en los nodos de la cadena. Efecto multiplicador.
Efecto multiplicador. Se presenta cuando se inyectan recursos a un nodo El
ejemplo común es el contrato para construir una casa. Usted contrata al constructor
por una cantidad, supongamos $1000, quien se gana el 20%. El a su vez contrata
los obreros por $800, quienes a su vez se ganan el 20%. Ellos pagan por su comida,
habitación, educación y entretenimiento, $680, quienes a su vez compran alimentos
y han hecho una inversión para dar educación y entretenimiento, $554. Y así
sucesivamente. Ver figura 5.4.
Generalizando, si se considera constante el porcentaje de ganancia en cada paso,
en el ejemplo el 20%, entonces r es la inversión en cada paso, se puede calcular el
efecto total:
1 + r + r2+ r3 + … = 1/(1 – r)
Como en nuestro caso r = 0.8, el efecto multiplicador es 5.
Este efecto surge sin considerar la naturaleza particular del tipo de flujo, sean
bienes, dinero, o mensajes y se puede utilizar para analizar el efecto de cualquier
recurso, teniendo en cuenta eso sí, que siempre hay cambios en el ambiente y en el
mismo S.C. a estudiar.
70
Reciclaje, es el efecto de los ciclos en las redes. Considere una red que incluye tres
nodos: un proveedor de materia prima o pulpa, un productor de papel y un
periódico/lector.
1.0
Pulpa
Papel
0.2
0.8
Periódico
0.16
0.64
Fig 5.5. Nodos emisores y destinos sin reciclaje. Los valores hacen referencia a las
perdidas del flujo del 20% en cada nodo.
En la figura 5.5. se tiene que en cada nodo hay una perdida del 20%, teniendo así
que del 100% de pulpa que entra nodo fabricante de papel solo se utiliza el 64%, en
periódicos.
Veamos ahora un ciclo. Si se mantiene el mismo porcentaje de perdida del 20% en
cada nodo y se hace un reciclaje del 25% del papel periódico, se produce un
aumento del 16% en la producción de periódicos. Como se ve en la figura 5.6.
1.0
Pulpa
Papel
0.55
0.25
0.80
0.2
0.25
Periódico
1.0
Fig 5.6. Reciclaje, nodos emisores y destinos conectados.
En más detalle. Si se recicla el 25%, se tendría que a la fabrica de papel le entran
1.25 unidades. Como desperdicia el 20%, en este caso 0.25, envía al nodo
periódico/lector 1.0 unidades. En el proceso se desperdicia 0.2 y se producen 0.8
unidades de periódico. De esas 0.8 unidades de periódico se recicla el 25%, es decir
71
0.25 unidades, que cierran el ciclo pues se envían al nodo fabrica de papel. En este
caso se tiene una utilización de la materia prima del 80%. El reciclaje produce más
recursos en cada nodo.
Por otra parte, al hacer un análisis cuando hay reciclaje, el efecto multiplicador es
mucho mayor.
Diversidad, Propiedad
El caso más exitoso de reciclaje se encuentra en los bosques húmedos tropicales,
donde la diversidad de la biomasa es bastante elevada. La diversidad de agentes se
logra por procesos evolutivos que aprovechan cada nicho de posibilidades que
brindan los subproductos en el proceso de descomposición de la materia orgánica.
Pues los agentes viven de reciclar los desechos que se generan en cada uno de los
nichos.
Nuestro cerebro consiste de una parafernalia de morfologías de neuronas
organizadas en una jerarquía elaborada de núcleos y regiones; las grandes ciudades
del mundo consisten de miles de distintas clases de personas, vendedores
mayoristas, minoristas, estudiantes, profesionales. En cada S.C. hay diversidad de
agentes.
Fig 5.7. El bosque húmedo mantiene una
listera.org/photos/data/pic/2001/07/01/03%20-...
gran
diversidad
biológica.
La persistencia de un agente individual, ya sea organismo, neurona o firma, depende
del contexto suministrado por los otros agentes. Generalmente, cada clase de
agente llena un nicho que esta definido por las interacciones centradas sobre ese
agente. Si se elimina una clase de agente del sistema, dejando un “hueco”, el
sistema normalmente responde con una cascada de adaptaciones resultando en un
nuevo agente que “llena el hueco”. Normalmente, el nuevo agente ocupa el mismo
nicho como el agente eliminado y suministra la mayoría de las interacciones
faltantes. Sin embargo, es importante tener en cuenta que el sistema tiene una
escala de tiempo, y que la generación de ese nuevo agente que “llena el hueco”
tarda un tiempo propio de esa escala de tiempo del S.C. Es el caso de los sistemas
ecológicos, que la devastación y su escala de tiempo son tan altas que no alcanza a
generar los nuevos agentes para “llenar el hueco”, en términos de la escala de
tiempo del hombre.
Por otra parte la misma función la pueden desarrollar estructuras diferentes. Los
casos clásicos son los ojos y las alas. Los ojos llenan los mismos nichos en
72
fisiologías diferentes, un nicho determinado por las interacciones que deben
suministrar los ojos. Las interacciones del ecosistema se recrean ampliamente,
aunque los agentes sean diferentes.
La diversidad también surge cuando la difusión de un agente abre un nuevo nicho,
que da la oportunidad de nuevas interacciones, que se pueden explotar por
modificaciones de otros agentes. Veamos por ejemplo el caso de Internet, que ha
presionado por la aparición de nuevas tecnologías de comunicación, nuevas
herramientas de software, nuevos empleos, y otros muchos.
El mimetismo es un fenómeno que se produce en ambientes con alta diversidad.
Supongamos que hay una población de individuos compuesta solamente de
halcones y palomas. Obviamente los halcones acabarían muy rápidamente con las
palomas, llevando rápidamente a su propia desaparición al no tener que predar.
Luego habrá palomas que mimetizan halcones, y halcones que mimetizan palomas
para mantener la población. Este juego en una complejidad mucho mayor es el que
se presenta en la naturaleza. Las orquídeas mimetizan muchos polinizadores tan
bien que, como en el caso de la orquídea abeja, inducen movimientos copulativos
como un medio para cubrir el insecto con el polen. Cada nueva especie abre
posibilidades de nuevas interacciones y especialización, con aun más diversidad.
Modelos Internos, Mecanismo
El mimetismo busca confundir a los predadores, hace que ejecute las mismas reglas
de comportamiento como si fuera el agente que se mimetiza. Son muy variadas las
formas de mimetismo que se presentan en los S.C., debido a la gran diversidad de
agentes y comportamientos. Veamos el caso de la mariposa Monarca y la mariposa
Virrey. Cuando un pájaro se traga una mariposa Monarca nunca más se vuelve a
comer otra dado que su sabor es muy amargo. La mariposa Virrey tiene los mismos
patrones de colores y vuelo de la mariposa Monarca, de manera que para los
pájaros tiene el mismo problema de la mariposa Monarca, por lo que no la atacan.
Fig 5.8. A la izquierda mariposa Monarca, a la derecha mariposa Virrey. Los pájaros
las
confunden.
www.iit.edu/~scanedw/BUTTER2.GIF
y
www.virtualmuseum.ca/.../NAC_21199.jpg
La experiencia del sabor amargo es tan fuerte que los pájaros guardan en su
memoria el patrón de vuelo y sus colores, de manera que cuando se les presenta el
mismo patrón lo ignoran, suponen que se trata de la mariposa Monarca. El pájaro,
dado el patrón anticipa el sabor amargo, ha desarrollado un modelo interno que le
permite anticiparse.
Los S.C. desarrollan modelos de los agentes de su entorno que les permite anticipar
el resultado de su interacción. Nuestra sociedad usa modelos, cada vez más
sofisticados para anticiparse y predecir diferentes modelos.
La técnica básica para la construcción de modelos se indicó cuando se habló de la
agregación: eliminar los detalles no determinantes para enfatizar en los detalles de
73
interés. Como los detalles de interés son internos del agente, debe filtrarlos de la
cantidad de información que recibe permanentemente, encontrar el patrón y
comportarse en consecuencia. Cuando el patrón no funciona, debe realizar cambios
en su estructura, y adaptar el modelo que le permita al agente anticipar las
consecuencias que siguen cuando se encuentre nuevamente con ese patrón o uno
similar. Las agentes que fallan pierden recursos que favorecen a los exitosos.
Suponemos que los únicos que se anticipan o predicen son los “mamíferos
superiores” cuando es una propiedad de todos los organismos. Así, una bacteria se
mueve en dirección de un gradiente químico, prediciendo que la comida se
encuentra en esa dirección. En el caso de animales con cerebro, los modelos
dependen de la experiencia sensorial del agente. Ya vimos el caso de los pájaros
con la mariposa Monarca. El lobo basa sus movimientos sobre anticipaciones
generadas por un mapa mental que incorpora mojones y olores. Los primeros
humanos construyeron Stonehenge como un modelo explicito, externo que predice
equinoccios.
Fig 5.9. El pájaro observa la mariposa y su modelo mental anticipa el sabor de la
mariposa.
El computador, con su gran capacidad numérica, realiza simulaciones de máquinas
y fenómenos complejos para predecir comportamientos y situaciones. Muchos de
los desarrollo de la ciencia actual están orientados hacia la construcción de modelos
de predicción, que buscan cada vez mas exactitud en su predicción.
Bloques Construct
Constructivos,
ivos, Mecanismo
Los modelos internos de los S.C., basan su predicción, en las muestras limitadas del
ambiente que siempre esta variando. Sin embargo, las predicciones necesariamente
siguen siendo válidas. Pero cómo se logra esto?
Ya se había observado que el mecanismo de desagregación nos permite reconocer
en una escena desconocida componentes que nos son familiares. Se tiene entonces
que en cualquier situación siempre encontramos un gran número de componentes
conocidos, que
se organizan de diferentes maneras para producir nuevos
escenarios, se usan y reusan en una gran variedad de combinaciones, como el
conjunto de bloques constructores de un mecano. Componentes que se han
probado muchas veces por su uso, selección natural y aprendizaje.
Un ejemplo sencillo es la conformación de la cara de un sospechoso, con base en la
forma de la cara, del pelo, de las cejas y de los ojos. Si se tienen 10 opciones para
cada uno de estos componentes se pueden formar 10.000 caras diferentes. Si se
74
tienen 10 componentes cada uno con 10 opciones se pueden construir 1010 caras
distintas Podemos generar experiencia a través del uso repetido de bloques
constructores, con solo 100 bloques constructores. Casi cualquier cara que
encontremos puede describirse por una escogencia apropiada del conjunto de 100
bloques constructores.
Fig 5.10. Tabla de los 20 aminoácidos que forman todas las proteínas que
conforman todos los seres vivos. Son los bloques constructores que se repiten una y
otra vez en diferentes configuraciones. www.unlu.edu.ar/~qui10192/qi0020901b.jpg
En al figura 5.10, se presentan los 20 aminoácidos que conforman todos los seres
vivos del planeta, que se repiten una y otra vez en diferentes formas de
organización. El código genético de toda la biomasa del planeta esta conformado de
los cuatro nucleótidos: adenina, citosina, tiamina y guanina, que se repiten y
organizan de diferentes maneras para mantener la información de cada ser viviente.
Los transistores se repiten y organizan para crear diversidad de componentes
electrónicos: computadores, calculadoras, aparatos de sonido, de video, etc. Donde
quiera que veamos los bloques constructores nos ayudan a comprender el mundo
complejo.
En general cualquier encuentro con nuevas situaciones siempre estará conformado
por bloques constructores conocidos. Aunque no hay una regla de comportamiento
75
para cada situación, siempre se presentan acciones posibles de ejecutar en
situaciones desconocidas. Cuando uno se encuentra en una nueva situación
aparentemente desconocida, uno combina bloques de construcción ya probados que
de alguna manera modelan esa situación y nos permite seguir acciones apropiada
1.2.6..Bibliografía
1. Dimitrov D., Woog R., Kuhn-White L., The Divergence Syndrome in Social Systems.
2. HASSOUN M., 1995, Fundamentals of ARTIFICIAL NETWORKS, The MIT Press,
Cambridge, Massachusetts.
3. HOLLAND J., 1995, Hidden Order: How Adaptation Builds Complexity, Reading, Mass.:
Addison-Wesley.
4. Kirshbaum D., Introduction to Complex Systems : http://www.calresco.org/search.html ,
http://members.aol.com/calresco2/comments.html
5. MARTINEZ, J., ROJAS S. 1999, Informática Evolutiva, Facultad de Ingeniería, Universidad
Nacional, Bogotá.
6. Principia Cybernetica Web http://pespmc1.vub.ac.be/
7. PAGELS, H., 1991. Los Sueños de la Razón, Editorial Gedisa, Barcelona.
8. RENDERS, J-M., Algorithmes génétiques et réseaux de neurones, Hermes Perís,1995
76
1.3. Fundamentos de Vida Artificial.
José Jesús Martínez Páez, Profesor Asociado y Especial, Departamento de Sistemas,
Facultad de Ingeniería, Universidad Nacional de Colombia
[email protected]
1.3.1.Introducción.
La vida es un concepto trascendente dado que nosotros somos vida, y estamos
atados a todos sus procesos. El término Vida Artificial, VA, nos pone en guardia
contra un acervo de credos y sentimientos que han acompañado al ser humano a lo
largo de toda su existencia. Sin embargo, la ciencia y la tecnología han comenzado
a debelar sus misterios y es ahora cuando se empiezan a usar en forma pragmática
a través de herramientas bio-inspiradas en la producción de nuevos bienes y
servicios para el supuesto bienestar del hombre. Para una mayor compresión de
dichas herramientas, se inicia con un estudio sobre la Vida Natural desde el punto
de vista del proceso evolutivo que la ha creado. Luego se hace un breve desarrollo
histórico de la VA, y posteriormente se presentan las herramientas bio-inspiradas.
Evolución de la Vida Natural.
La evolución de los seres orgánicos por medio de la selección natural es una de las
teorías más importantes de todos los tiempos, pues es la única explicación científica
e integral a la existencia y a las características del fenómeno más complejo con que
el ser humano se ha encontrado en su largo camino de logros y descubrimientos: la
vida en nuestro planeta. Se fortalece con las bases físicas de la herencia brindadas
por la teoría molecular del código genético respecto a la estructura química del
material hereditario y de la información que contiene, además de los mecanismos de
expresión de dicha información.
Ahora, al analizarla desde la teoría de sistemas, la teoría de la evolución presenta un
nuevo aspecto que permite prever fuertes implicaciones de naturaleza teórica y
práctica. Desde este punto de vista, las realizaciones de la vida se consideran como
sistemas complejos adaptativos, es decir, sistemas no lineales definidos por medio
de la interacción de un gran número de agentes capaces de adaptarse a su
ambiente dinámico. Todos los seres vivos resultado de este proceso adaptativo,
comparten tres propiedades básicas: invariancia reproductiva, teleonomía y
morfogénesis autónoma.
Invariancia reproductiva.
reproductiva
Es la característica más fácil de medir en forma cuantitativa, ya que se trata de la
capacidad de reproducir una estructura con un alto grado de orden, es decir, de
información. De esta forma, el contenido de invariancia reproductiva de una especie
es igual a la cantidad de información que se transmite de una generación a otra para
conservar la norma estructural específica que determina sus características. Esta
propiedad se destaca por su carácter paradójico, dado que la conservación,
77
reproducción y multiplicación de estructuras altamente ordenadas
incompatible con el segundo principio de la termodinámica, la entropía.
parece
En su estructura básica, todos los seres vivos están constituidos por las mismas dos
clases de macromoléculas, las proteínas y los ácidos nucleicos. Además, estas
macromoléculas están formadas por los mismos radicales, veinte (20) aminoácidos
para las proteínas y cuatro (4) tipos de nucleótidos para los ácidos nucleicos. En
cuanto a su funcionamiento, se utilizan las mismas secuencias de reacciones en
todos los organismos para las operaciones químicas esenciales.
De esta forma se constituye el equivalente a un alfabeto escrito en los nucleótidos y
los aminoácidos, que determina las funciones asociativas específicas de las
proteínas. Con este alfabeto se puede escribir toda la diversidad de estructuras y
comportamientos existentes en la biosfera. Además, la reproducción,
cuasiconstante en cada generación celular del texto escrito bajo la forma de
secuencia de nucleótidos en el ADN, asegura la invariancia de la especie.
Teleonomia.
Todas las adaptaciones funcionales que presentan los seres vivos, así como todos
los dispositivos configurados por ellos, cumplen proyectos particulares que se
pueden considerar como aspectos o fragmentos de un objetivo primitivo único, que
es la conservación y multiplicación de la especie. Por tanto, debe ser claro que no
se trata sólo de actividades ligadas directamente a la reproducción, sino de todas
aquellas que contribuyan, aunque muy indirectamente a la supervivencia y
multiplicación de la especie. Así, todas las estructuras, todos los comportamientos y
todas las actividades que contribuyan al logro del objetivo esencial se denominan
teleonómicas.
Se puede entonces considerar que las estructuras y comportamientos teleonómicos
corresponden a una determinada cantidad de información que se debe transmitir de
generación en generación para que se realicen tales estructuras y se cumplan tales
comportamientos. Dicha cantidad de información se puede considerar como un nivel
teleonómico propio de cada especie y que se debe transferir a cada individuo para
asegurar la transmisión a la siguiente generación del contenido específico de
invariancia reproductiva.
Morfogénesis autónoma.
autónoma.
La estructura de todo ser vivo, desde la forma general hasta el menor detalle,
se debe completamente a interacciones morfogenéticas internas al ser
mismo; esta estructura define un determinismo autónomo, preciso y riguroso
que implica una "libertad" casi total respecto a los agentes o condiciones
externas, capaces de trastornar ese desarrollo pero no de dirigirlo o de
imponer al organismo viviente una nueva organización.
Este determinismo autónomo asegura la formación de las estructuras
extremadamente complejas, con una considerable cantidad de información,
de los seres vivos. Este proceso de morfogénesis autónoma y espontánea,
se basa en última instancia en las propiedades de reconocimiento
estereoespecífico de las proteínas, donde se encuentra el secreto de la
construcción de los sistemas vivientes.
78
Las proteínas son moléculas muy grandes, con un peso molecular entre
100.000 y 1’000.000 o más, constituidas por la polimerización secuencial de
compuestos de peso molecular cercano a 100, pertenecientes a los
aminoácidos. Sin embargo, estos numerosísimos radicales sólo pertenecen
a 20 especies químicas diferentes que se encuentran en todos los seres
vivos, desde la bacteria hasta el hombre. Esta composición monótona
constituye una sorprendente ilustración de que la prodigiosa diversidad de
estructuras a nivel macroscópico de los seres vivos está basada en una
unidad de composición y estructura microscópica.
Cada una de las millares de reacciones químicas que contribuyen al
desarrollo de un organismo es provocada por una proteína-enzima particular,
en forma doblemente equivalente, es decir, cada enzima no cataliza sino un
solo tipo de reacción y, aunque en el organismo hay muchos objetos
susceptibles de sufrir ese tipo de reacción, por regla general la enzima sólo
se activa con respecto a uno de ellos.
Cada enzima es una unidad funcional independiente de los demás objetos y
procesos que suceden en la maquinaria química de la célula, de forma que al
considerar la suma de todas las actividades enzimáticas sólo se puede
esperar el caos o, en caso contrario, la existencia de ordenamiento que
conforme un sistema coherente.
La función de ordenamiento la asumen el sistema nervioso y el sistema endocrino,
los cuales aseguran la coordinación entre las células que forman los órganos y los
tejidos. Así surge la diferenciación estructural con la adquisición de funciones a
partir de una mezcla de moléculas que individualmente carecen de propiedades
diferentes a la de reconocer sus compañeras.
Traducción del código genético.
El código genético, es decir, las instrucciones escritas en el ADN que regulan el
desarrollo y funciones de los organismos, se convierte en sustancia proteínica por
medio de un proceso de traducción en el que los ribosomas elaboran una cadena
con un alfabeto de veinte letras a partir de una secuencia con un alfabeto de cuatro
letras.
Inicialmente, utilizando una enzima se copia un gen del ADN en un Ácido
Ribonucleíco (ARN) mensajero que transporta el mensaje desde el núcleo hasta el
citoplasma, donde se encuentran los ribosomas que fabrican proteínas.
La copia del gen se introduce en el ribosoma, el cual lee la secuencia de
nucleótidos y produce una proteína mediante la unión, por medio de enzimas
especiales, de aminoácidos a moléculas específicas de ARN, de acuerdo a
las relaciones naturales de apareamiento de nucleótidos. El siguiente ARN (y
por tanto el siguiente aminoácido) lo selecciona el ribosoma en función
del mensaje que está leyendo en el momento. Los conjuntos de nucleótidos
del mensajero se acoplan perfectamente con el grupo de apareamiento de
nucleótidos del ARN, de modo que cada aminoácido que entra al ribosoma,
queda químicamente ligado a aquel que lo precede.
79
1
Fig 1. Clasificación de los cromosomas humanos según su tamaño y forma
La realización continua de este proceso de enlace de eslabones crea la
cadena proteínica que se libera cuando finaliza la lectura de la cadena del
mensajero. Cada nueva proteína está determinada en forma exacta por un
gen del ADN, así, el ADN contiene tantos genes como proteínas distintas hay
en las células (en los humanos alrededor de 50.000).
Los genes se organizan linealmente sobre un cromosoma. Los cromosomas
contienen la información genética del organismo. Cada tipo de organismo
tiene un número de cromosomas determinado; en la especie humana, por
ejemplo, hay 23 pares de cromosomas organizados en 8 grupos según el
tamaño y la forma (ver figura 1.). La mitad de los cromosomas de un ser
humano, proceden del padre y la otra mitad de la madre. Las diferencias
entre individuos reflejan la recombinación genética de estos juegos de
cromosomas al pasar de una generación a otra.
Mutaciones.
Pese al alto grado de precisión de la labor realizada por los ribosomas,
ocasionalmente suceden mutaciones o intercambios en uno o más de los cuatro (4)
nucleótidos que constituyen los eslabones del ADN. Un cambio de estos altera una
letra del mensaje original que copia el ARN mensajero, modificando a su vez la
formación y función de la proteína generada. Una característica importante de las
mutaciones es que se copian junto con el ADN, propagándose a todas las
siguientes generaciones de células, persistiendo la mutación.
Las radiaciones naturales y determinados productos químicos de fabricación
humana causan las mutaciones por que alteran, dañan o incluso suprimen
los nucleótidos, aunque existen enzimas muy precisas que reparan el ADN
ante estos cambios, sin embargo, algunos alcanzan a superar este control. El
1
Tomado de Enciclopedia Microsoft® Encarta® 98 ©
80
carácter fortuito de las mutaciones no permite saber qué eslabones quedarán
afectados ni en qué momento.
Sin embargo, si la mutación se produce en una célula sexual, que produce
espermatozoides u óvulos para conformar un nuevo programa genético o
zigoto, dicha mutación pasará al huevo fecundado. Cuando éste se divide,
todas las células descendientes que formarán el organismo resultante
conservarán la mutación, incluyendo sus respectivas células sexuales.
Se considera que las mutaciones son perjudiciales, ya que la información que
poseen los seres vivos ha sido acumulada a lo largo de tres mil quinientos millones
de años de evolución y es remota la posibilidad que un cambio fortuito mejore el
resultado. Se detectan fácilmente como una enfermedad, un defecto o una debilidad.
Ocasionalmente dichos cambios confieren al organismo una ventaja en su
relación con el medio ambiente, proporcionando a la criatura viviente
proteínas ligeramente mejoradas que realizan mejor su función, aunque por
regla general son difíciles de detectar. Las mutaciones son los instrumentos
esenciales del mecanismo evolutivo.
Mezcla sexual del ADN.
ADN
A diferencia de las mutaciones, la combinación del ADN con otro distinto, lo modifica
sin dañarlo, puesto que el fragmento de ADN introducido ya ha demostrado su
carácter benéfico.
Este fenómeno debió haber tenido lugar por primera vez en el pasado remoto del
ADN, como un tipo de unión de dos células en el cual la envoltura membranosa de
las células se rompía permitiendo la mezcla de contenidos. Las características de la
célula resultante estaban definidas por proteínas de ambas células. Este proceso se
puede considerar el nacimiento del sexo, que dio su siguiente paso con la aparición
de rasgos complementarios que facilitan el contacto, naciendo dos poblaciones con
características elementales de masculinidad y feminidad.
El apareamiento sexual de las bacterias, tal como actualmente se puede
estudiar en el laboratorio ocurre de una forma muy similar probablemente a
como se dio en las primeras etapas evolutivas. Algunas células presentan la
característica de masculinidad o de donantes y otras la de feminidad o
receptoras, sus superficies membranosas son complementarias y, por lo
tanto, mutuamente atractivas. Cuando se juntan células de sexos opuestos
se establece un túnel a través de las membranas en contacto y la bacteria
masculina proyecta su ADN a la hembra.
Este tipo primitivo de mezcla del ADN únicamente es adecuado para
organismos con un nivel de complejidad bajo. En los seres superiores se
acentúan las características sexuales, aparecen órganos especiales, ovarios
y testículos, que producen células especializadas que al encontrarse se unen,
figura 4 El óvulo fecundado por el espermatozoide es una única célula, el
cigoto. Es importante anotar que las células especializadas espermatozoide y
óvulo presentan la mitad de la cantidad de ADN que las demás del
81
organismo, de modo que al fusionarse, el cigoto tiene dos y no cuatro
dotaciones completas de material genético.
Fig 2. Unión de las células sexuales humanas
2
Adaptación.
Adaptación
Los conceptos anteriores son las bases para entender la forma en que la
evolución produce organismos cada vez más aptos en ambientes que para
un individuo son altamente inciertos.
Los problemas de adaptación son difíciles por la complejidad y la incertidumbre
encontradas en la búsqueda de lo óptimo. La complejidad hace que el objetivo, lo
óptimo, sea lejano o incluso inalcanzable, de modo que es necesario explorar en
cada paso, en cada ambiente presente, las mejores opciones. Además, la
incertidumbre debe reducirse con rapidez, permitiendo el aumento de opciones con
comportamiento "deseable", es decir, la información se debe explotar durante el
proceso mismo de la optimización.
La combinación constante y repetitiva, a lo largo de generaciones, de los
procesos de cruce, mutación y selección, conducen el desarrollo de las
especies hacia su objetivo específico: sobrevivir, es decir, conservar la
especie.
Una vez registrada en la estructura genética del ADN, toda alteración
accidental, y aleatoria, del código se replica y se traslada a los ejemplares
descendientes, la selección es producto del azar pero opera bajo las
exigencias del ambiente con rigor férreo. Dichas exigencias brindan las
orientaciones u objetivos que permiten los logros sucesivos de los seres
vivos. La noción de la biología contemporánea es precisa: las únicas
alteraciones aceptables son aquellas que no reducen la coherencia del
aparato teleonómico, sino que más bien lo refuerzan en la orientación ya
adoptada o, sin duda más raramente, lo enriquecen con nuevas
posibilidades.
1.3.2.Características de la Vida.
2
Tomado de Enciclopedia Microsoft® Encarta® 98 ©
82
Con base en la descripción que se ha hecho del proceso evolutivo se pueden
sacar algunas características de la vida natural:
La vida es información que se propaga de padres a hijos.
La vida es información, información que se trasmite e información
que se interpreta.
La información que se propaga puede tener defectos.
La auto-organización determina la viabilidad de la estructura de la
información alterada.
La selección determina la propagación de la nueva información.
El proceso de evolución es un proceso permanente de filtrado e
incremento de información genética.
La vida es un sistema complejo adaptativo.
Introducción a la VA.
Hace 2000 años aproximadamente, Aristóteles hizo la observación que “posesión de
vida”, implica que “una cosa puede nutrirse y decaer”. También consideró que la
capacidad de auto-reproducción es una condición necesaria para la vida. De esa
época a hoy, las opiniones han variado.
Autómatas
Durante todo ese lapso, y muy posiblemente casi desde el origen del hombre
la vida ha sido asociada como un don sobrenatural. La física newtoniana, la
revolución industrial y las leyes de la termodinámica empezaron a extender
el dominio de la ciencia, y el reino biológico se hizo menos místico. La visión
Newtoniana del mundo permitió predecir la posición de los cuerpos
celestiales en determinado momento ¿no sería la vida igualmente
predecible? Emergió una nueva escuela de pensamiento, que consideraba la
vida como un proceso mecánico. Así, la vida era literalmente un autómata.
¿Se podría entonces duplicar?. Mecanicistas como Descartes y Leibnitz
pensaron que había posibilidad de hacerlo. Algunos se atrevieron, y
construyeron una clase especial de autómatas, dispositivos mecánicos que
mostraban un comportamiento realista.
El más famoso fue un pato artificial hecho de cobre dorado, que bebía, comía,
graznaba, aleteaba sobre el agua y digería su comida, elaborado por Jacques de
Vaucanson, quien en 1738 lo presentó en París, y luego lo paseó por Europa. El
pato confundió la audiencia, su complejidad era prodigiosa, con aproximadamente
400 piezas movibles en un ala.
Pero las diferencias obvias entre el modelo
mecánico y su inspiración natural, solo acentuaba la dificultad de la creación de la
vida. Se seguía considerando el don sobrenatural, el vitalismo, la llamada fuerza
vital, élan vital, como el proveedor de vida.
83
Fig 3. (a) Autómata dibujante de H. Maillardert, construido en 1805. (b) Dibujo
producido por el autómata en cinco minutos.
En la segunda mitad del siglo XVIII, fue bastante productivo en la construcción de
estos autómatas como el de la figura 3, hecho por Henry Maillardet, donde la
memoria esta hecha con base en engranajes.
Máquinas de Turing
Hasta 1936 todos los mecanismos de autómatas conocidos eran de propósito
particular, es decir, que todo mecanismo o autómata construido o ideado hasta esa
fecha, se hizo para realizar una tarea determinada. Sin embargo, la idea de
autómata tal y como se utiliza hoy día, y que da lugar a la teoría de autómatas,
aparece con la formulación de la “Máquina de Turing3”.
Del conocido como
segundo problema de Hilbert, que dice que los axiomas de la aritmética común son
consistentes entre sí, se paso a uno más general: el problema de la decisión;
descubrir un método general para determinar si una formula de lógica formal podía o
no satisfacerse o declararse verdadera. Estudiando este problema, en 1936, Alan
Turing
se planteó cómo definir con precisión un método que solucionara este
problema.
3
DEWDNEY A. K., The Turing Omnibus, 1989.
84
Para ello, primero definió intuitivamente algoritmo como un procedimiento que se
puede ejecutar mecánicamente. Luego definió el cómputo, como aquel proceso en
el que un algoritmo se descompone en una secuencia de pasos atómicos simples, y
concluyó que el sistema resultante es una construcción lógica, hoy en día conocida
como Máquina de Turing.
Turing también supuso que nuestro universo es granular; esto es, que se mueve a
pasos discretos en el tiempo, aunque pueden ser tan pequeños como uno se
imagine. En cada uno de estos instantes, una MEF (Máquina de Estado Finito) está
en algún estado que se puede describir. La descripción puede ser muy complicada o
muy simple; la única limitación es que el conjunto de posibles estados sea finito (el
número puede ser muy grande pero no infinito). Entre el instante actual y el
siguiente, la MEF, por medio de algún sensor puede tomar la información del
ambiente que la rodea. Entonces con base en una "tabla de reglas" que controla su
comportamiento, la MEF puede tener en cuenta ambos datos, su estado interno y la
entrada externa, para determinar su comportamiento, es decir el estado interno que
la máquina debe tomar en el próximo paso.
Formalmente se puede definir una máquina de Turing como la tupla:
A = ( X , Q,{I , D, P}, f )
X: Conjunto finito de entradas Xi
Q: Conjunto finito de estados Qk
f : Qx X → Qx X x {I , D, P}
I: Movimiento del autómata una posición a la izquierda sobre
la cinta
D: Movimiento del autómata una posición a la derecha sobre
la cinta
P: Parada del autómata en la posición actual de la cinta
La Máquina de Turing se puede visualizar como una grabadora sofisticada, con una
cinta arbitrariamente extensible. La cinta esta marcada por cuadros y cada cuadro
contiene un bit de información. La cabeza lectora, lee los bits y si es necesario borra
lo que hay en el cuadro y/o graba encima. Hay también un mecanismo de control,
el cual dice que hacer, al leer cada bit de información.
En la Tabla 1 se describe la Máquina de Turing para la suma de dos números,
expresados en formato (i +1) unos, es decir, que el 3 se representa como 1111.
Figura 4 se muestra el desarrollo de la suma de los números 2 y 1.
ESTADOS
q1
q2
q3
q4
q5
q6
ENTRADAS
““
1
q1 / d
q2 / d
q3 / 1
q2 / d
q4 / iz q3 / d
q5 / “ “
q5 / iz q6 / “ “
q6 / p
q6 / p
Tabla 1. Definición de la Máquina de Turing para la suma de dos números. /
d, indica que la cabeza lectora se desplaza una posición a la derecha; / izq,
85
desplazamiento una posición a la izquierda; / p, parada; / “ “, escribe un
blanco en la cinta.
Los símbolos del conjunto X son {“ “, 1}. El autómata comienza en q1, leyendo el “ “ a
la izquierda del primer número. Esto lo lleva al estado q2, y a desplazarse una
posición a la izquierda. Estando en q2 y lee un 1, el autómata sigue en q2 y se
desplaza una posición a la derecha. Estando en q2 y lee un “ “, graba en esa posición
un 1 y pasa a q3. Estando en q3 y lee un 1, el autómata sigue en q3 y se desplaza
una posición a la derecha. Estando en q3 y lee un “ “, se desplaza una posición a la
izquierda y pasa a q4. En el estado q4 no puede encontrar un “ “, luego
necesariamente aparece un 1, que hace que la máquina pase al estado q5 y graba
en esa posición un “ “. Estando en q5 y lee un “ “, el autómata sigue en q5 y se
desplaza una posición a la izquierda. Estando en q5 y lee un 1, graba en esa
posición un “ “, pasa a q6 . Al llegar al estado q6, independientemente de la entrada,
la máquina se para.
1
1
q1
1
1
q2
1
1
1
1
1
q2
1
1
1
q3
1
1
q3
1
1
1
1
q4
1
1
1
1
1
q5
1
q5
1
q4
1
q6
86
q6
Fig 4. Máquina de Turing para sumar los números 3 y 1, en formato i+1) unos.
Consideremos que las reglas del autómata son un programa, mientras que
las cadenas de símbolos en la cinta de memoria son los datos iniciales sobre
los que opera dicho programa. Al cambiar las reglas que conforman el
programa, encontramos diferentes salidas para los mismos datos iniciales, y
entonces diremos que los programas son diferentes o que las máquinas son
diferentes. Pero que pasa si el programa lo almacenamos en otra Máquina de
Turing, que tendría un conjunto mayor de símbolos de entrada; incluso
podríamos modificar las reglas, y tendríamos un programa diferente, con
otras salidas.
Entonces llegamos a que las reglas que rigen el comportamiento de una
Máquina de Turing, se puede simular en otra Máquina de Turing, con
diferentes reglas y símbolos de entrada. Siempre se puede encontrar una
Máquina de Turing, que con determinadas reglas, simule otra (es decir,
produzca la misma salida o estado final que otra), con tal que dispongamos
de la cadena de símbolos adecuada. Esto es, siempre existe una Máquina de
Turing con un programa P1 tal que, para cualquier otra Máquina de Turing
con otro programa P2 y cualquier cadena de caracteres C2, podemos
encontrar una cadena de caracteres C1 que hace que P1 (C1) = P2 (C2). De
modo que, si proponemos un esquema básico de reglas para un autómata,
podemos interpretar que la cadena de símbolos que hemos llamado datos
iniciales, no solo contiene los datos sobre los que las reglas deben operar,
sino que también contiene las reglas.
Ahora se denomina Máquina de Turing Particular ( MTP) a aquella que con
un esquema de interacciones básico, posee también una cadena de símbolos
como entrada y/o programa. Y llamaremos Máquina de Turing Universal (
MTU) a una sin tal lista de símbolos y por tanto, dispuesta a recibir cualquier
programa que le podamos proporcionar.
Fácilmente se comprende su potencialidad y el siguiente principio: toda MTU
se puede programar para que opere (simule) una MTP. De manera que las
propiedades de una MTU no se pueden deducir de las propiedades de una
determinada MTP, sino de las propiedades del conjunto potencial de todas
las MTP. Este conjunto es el que forman todas las posibles máquinas con
cinta de tamaño 1, 2, 3, etc.
Lo que hace que la MTU sea extremadamente poderosa es la capacidad de
almacenamiento de su cinta. Con la información adecuada en esta cinta, la
MTU puede emular las acciones de diferentes máquinas. Turing probó que la
máquina Universal de Turing puede también ser un computador universal.
Esto significa que dándole el tiempo suficiente, puede emular cualquier
máquina cuyo comportamiento se pueda describir completamente. Turing y el
87
filósofo Alonso Church, presentaron la hipótesis de Church-Turing la cual
dice que una MTU puede no solo duplicar las funciones de las máquinas
matemáticas, sino también las funciones de la naturaleza. Esto tiene sentido
cuando se mira el mundo a través del sentido de Turing. Desde este punto de
vista, casi todo se puede analizar como una MEF. Lo que determina el
comportamiento de cualquier máquina, es lo que tiene dentro (su estado) y lo
que toma de su ambiente (información de la cinta ).
La hipótesis de Church-Turing se puede entonces aplicar a la mente humana,
si se admite que el número de estados de la mente es finito. En cualquier
instante una mente se encuentra en un posible estado. Antes del próximo
instante, pueden llegar datos de
entradas sensoriales. La información
ambiental, en combinación con el estado inicial, determina el próximo estado
de la mente. Turing aseveraba que la mente, como una MEF, seguía un
protocolo lógico, esencialmente, una tabla de reglas determinada por fuerzas
físicas y biológicas, para llegar a ese estado próximo.
AUTÓMATA AUTOREPRODUCTO
AUTOREPRODUCTOR
R DE VON NEWMANN.
NEWMANN
Von Newmann estaba interesado en lo que en lo se conocería como la Vida
Artificial, (VA), concentrándose en la auto-reproducción. Se maravilló con las
similitudes entre los computadores, y el trabajo de la naturaleza. Cuando
habló de la construcción del primer computador electrónico, investigó sobre
dispositivos basados en operaciones lógicas. Admitió que los organismos
biológicos eran complejos, más complicados que cualquier estructura artificial
que el hombre hubiera examinado y que la vida estaba basada en la lógica,
consideraba la vida misma como una concatenación reconstruible de eventos
e interacciones.
A finales de los 40, fue invitado a dar una serie de conferencias, la más
famosa en Pasadena, California, la tituló “Teoría Lógica y General de los
Autómatas”. Por “autómata” von Newmann se refiere a máquinas autooperativas; una máquina cuyo comportamiento se podía definir en términos
matemáticos.
Von Newmann no vio ninguna razón por la cual los
organismos, desde las bacterias hasta los seres humanos, no se pudieran ver
como máquinas, y viceversa. Si se entienden los autómatas, entonces, no
solamente se entienden mejor las máquinas, se entiende la vida. Lo más
importante era el concepto de auto-reproducción. Puede una máquina
artificial producir una copia de sí misma, ¿estaría en capacidad de crear más
copias?
En 1943 von Newmann leyó el articulo de W. McCulloch y W. Pitts, titulado
"A Logical Calculus of the Ideas Immanent in Nervous Activity", donde
presentan un modelo para emular las funciones del sistema nervioso: una
red neuronal artificial. Von Newmann asoció este desarrollo con la
aseveración de Turing, que una MTU puede emular cualquier sistema de
computación. Aquí estaba un sistema que sugería que los organismos vivos,
88
en sí mismos, tenían un sistema de computación innato, cuya salida
determinaba su comportamiento.
De esta manera, un computador universal puede semejar las funciones
mentales de cualquier criatura viviente. No se necesita construir la máquina
real para entender el mensaje: la vida es una clase de autómata. Von
Newmann se dio cuenta que la biología ofrecía el sistema de procesamiento
de información más poderoso disponible y su emulación sería la llave hacia
sistemas artificiales poderosos. Diseñó una criatura artificial, que asumiría la
función más compleja de la biología, la auto-reproducción.
Inicialmente conformó una lista completa de partes empleadas y el plano de
construcción del autómata, y las copió en una cinta D. El hábitat del Autómata
autoreproductor era un
depósito de componentes de los cuales estaba
hecho. Se constituía de tres subsistemas principales. El subsistema A, una
especie de fábrica,
que podía tomar componentes del depósito y
ensamblarlas según las instrucciones (D). El subsistema B funcionaba como
una fotocopiadora: su trabajo era copiar las instrucciones D. El subsistema
C, el mecanismo de control, instruía a A para construir el autómata descrito
por D, y ordenaba que B sacara una copia de D, y la insertara en el autómata
que acababa de construir A.
UC
Cinta
Descendiente
UC
Cinta
Padre
Fig 5. Autómata autoreproductor de Von Newmann.
En la mente de Von Newman se inició la auto-reproducción, y el autómata
tomó vida, por la lectura de las instrucciones de la cinta. El componente C
leyó las instrucciones, las suministró al duplicador el cual las copió y dio las
instrucciones duplicadas a la fábrica, mientras almacenaba las originales.
No solo estos autómatas se reproducían como nosotros, sino que con el paso
del tiempo, tenían la capacidad de desarrollarse hacia algo más complejo que
su estado original. Pues es posible que en el proceso de copiado de D, a
través de muchas generaciones y muchos autómatas, se produjeran defectos
en D, que impedirían la reproducción de los autómatas que los incluyeran o
beneficiaran a otros haciéndolos más competitivos.
89
Este primer autómata tenia un defecto fatal, incluía muchas cajas negras.
Algunos matemáticos y físicos dejaron de lado el problema de la caja negra,
dedicándose a trabajar en estructuras auto-reproductivas menos ambiciosas.
Estas construcciones, mucho más modestas tenían la ventaja de existir. En
este punto von Newmann de nuevo anticipó el fenómeno. Su estudio de
sistemas naturales lo llevó a considerar instintivamente a que la vida estaba
fundamentada no solo en información sino también en complejidad. El
ejemplo máximo es el camino de la evolución, la cual progresó de
organismos unicelulares relativamente simples hacia otros mucho más
complicados como los mamíferos.
Von Newmann no estaba satisfecho con su modelo por el problema de las
cajas negras. Hasta para él era un dilema, y la solución provino de una
sugerencia de un colega, el matemático Stanislaw Ulam.
Ulam sugirió, inspirado en el fenómeno del crecimiento de un cristal, un
ambiente diferente: una rejilla infinita, como un tablero de damas. Cada
cuadro de la rejilla se podría ver como una “celda”. Cada celda en la malla
seria esencialmente una MEF separada, actuando sobre un conjunto de
reglas compartidas. Cada celda guardaría información que seria conocida
como su estado, y en cada intervalo de tiempo observaría las celdas a su
alrededor y consultaría la tabla de reglas para determinar su estado en el
próximo paso. La colección de celdas de la rejilla se podría ver como un
organismo.
Esta idea llamó la atención de von Newmann. El organismo viviente en este
espacio seria una criatura de lógica pura. Cualquier cosa sobre ella podría
expresarse matemáticamente. Podría existir. A partir de la sugerencia de
Ulam, Von Newmann rediseñó su autómata auto-reproductor hacia lo que se
conocería como el primer autómata celular4 (AC).
El modelo celular de von Newmann, para un autómata auto-reproductor,
empezó con un tablero de damas sin fronteras, con cada celda, en un
estado de reposo o inactivo.
Cada celda tenía veintinueve estados
diferentes. La combinación precisa de esas celdas y sus estados dados era lo
que indicaba a la criatura como comportarse, y realmente lo que definía la
criatura. Cada celda individual, como una MEF, empezaría a seguir la regla
que se le aplicara. El efecto de estos comportamientos locales provocaría la
emergencia de un comportamiento global: la estructura auto-reproductora.
Interactuando con las celdas vecinas y cambiando algunos de sus estados,
se transformaría a sí misma en los materiales, en términos de los estados
de la celda, que formaban el organismo original. Con los 29 estados posibles
para cada celda, el proceso era razonablemente complicado.
Esencialmente la máquina trabajaría en una forma similar a su primo
cinemático. La cola de la celda contenía instrucciones para el cuerpo de la
criatura, cuya colección de celdas, dependiendo de su estado, actuaba como
4
NEWMANN Von. Theory of Self-Reproducing Automata, editado por Arthur Burks, 1966
90
un computador, una fábrica o un duplicador. Eventualmente, siguiendo las
reglas de transición que von Newmann redactó, el organismo hallaría el modo
de crear un duplicado de su cuerpo principal. La información se pasada a
través de una especie de cordón umbilical. Dos criaturas idénticas, ambas
capaces de auto-reproducirse, estarían ahora en el tablero sin fin. Por estos
desarrollos se considera a von Newmann como el padre de la Vida Artificial.
Definición y Características de la VA.
VA
Del capítulo anterior, teníamos que la vida es información, información que se
trasmite e información que se interpreta. Que dicha información se basa en
un alfabeto de 4 nucleótidos, que al ser interpretada por los ribosomas crean
proteínas con base en 20 aminoácidos. En otras palabras, la interpretación
de la información genética es un proceso de producción y ensamble de los 20
aminoácidos, para la conformación de los organismos, de todos los
organismos existentes.
Bien, ahora pasemos a las disponibilidades tecnológicas de nuestros días. En
primer lugar disponemos del computador, herramienta que trabaja con un
código binario y en la cual es muy sencilla la replicación de información.
También podemos desarrollar sistemas de software auto-reproductores a
través de programas muy sencillos. En otras palabras, en teoría podríamos
desarrollar “vida” en el silicio. Además contamos con muchos componentes
con los cuales podríamos pensar en formas más “concretas”.
Todo esto llevó a muchos investigadores a desarrollos que se llamaron a
presentar en la primera reunión sobre Vida Artificial en Septiembre de
1987, en Los Alamos, Nuevo México. Lugar a donde muchos llevaron los
sueños, de un esfuerzo colectivo, para crear nuevas formas de vida. El
físico James Doyne Farmer hizo la siguiente predicción :
“ Dentro de 50 a 100 años probablemente emergerá una nueva clase de
organismos. Estos organismos serán artificiales en el sentido en que
originalmente serán diseñados por el hombre. De cualquier modo, ellos
se reproducirán y transformaran en otros diferentes a su forma original;
estarán vivos, bajo una definición razonable de la palabra... La llegada
de la Vida Artificial será el evento histórico más significativo desde la
aparición de los seres humanos . . . ”5
La Vida Artificial, es una nueva ciencia cuyo objeto
es el estudio y la
creación de entes que parecen vivos en sistemas construidos por el hombre.
La materia prima de esta vida es materia inorgánica y su esencia es la
información. Es aquí donde los computadores aparecen como la fuente de la
cual emergen estos “organismos”.
El grado en que se pueden considerar reales es variable; muchos
experimentadores admiten que sus creaciones de laboratorio son
simulaciones de aspectos de la vida. La meta de estos practicantes de Vida
Artificial ‘débil’ es entender más claramente la vida, que existe en la tierra y
5
FARMER James Doyne y BELLIN Alleta d’A. Artificial Life: The Coming Evolution en A-Life
II, pág. 815.
91
posiblemente en cualquier otro lugar. Esperando que los mismos ordenes de
comportamiento de la naturaleza surjan espontáneamente de las
simulaciones, algunas veces los científicos se arriesgan a modelar
directamente las características de los procesos de los sistemas vivientes.
Algunos biólogos tratan estos sistemas artificiales como si fueran animales
de laboratorio, pues sus características permiten sacar conclusiones de
ciertos rasgos de organismos vivos conocidos. Como su composición es
transparente, son mucho más fáciles de analizar que las ratas o las plantas.
Los físicos se dedican a la VA en espera de que la síntesis de la vida den
luces sobre la comprensión de todos los sistemas complejos no lineales, los
cuales, se piensa, están gobernados por fuerzas universales no
comprendidas todavía.
Desde el punto de vista de la ingeniería, la VA nos ofrece posibilidades de ser
creativos en el desarrollo de nuevos productos y servicios, y estos aspectos
los trataremos más adelante con detalle.
Los practicantes más osados se comprometen con la Vida Artificial ‘fuerte’.
Se enfocan hacia el desarrollo a largo plazo, de seres similares a los actuales
organismos vivientes.
Se podrá dar cuerpo a estas criaturas en formas
corporales, robots de Vida Artificial, o podrán vivir dentro de un computador.
¿Cómo podría algo dentro de un computador considerarse vivo? ¿Podría
algo sintetizado, por humanos, aspirar a tal clasificación? ¿No debería el
término “vida” estar restringido al dominio de la naturaleza ?.
La VA es muy diferente a la ingeniería genética, que usa vida completamente
desarrollada como su punto de partida. Los científicos de VA
están
estudiando cómo los sistemas vivientes actuales se pueden analizar,
desarrollar y generar. Es un esfuerzo para ingeniar el curso de la evolución y
ampliar el rango de los sistemas vivientes en el planeta tierra y más allá. De
este gran experimento, podrían surgir finalmente, un entendimiento más
profundo de la vida misma, una habilidad para usar sus mecanismos en
nuestro desarrollo, y tal vez, el descubrimiento de leyes poderosas de la
naturaleza que gobiernan no solamente los sistemas biológicos sino también
una serie de interacciones auto-organizantes complejas no lineales.
Chris Langton define Vida Artificial como:
“...Es el estudio de sistemas hechos por el hombre que presenta
características de comportamiento de sistemas naturales vivos. Complementa
las ciencias biológicas tradicionales concernientes con el análisis de
organismos vivos al tratar de sintetizar comportamientos similares a la vida
dentro de computadores y otros medios artificiales. Ampliando la
fundamentación empírica bajo la cual se basa la biología más allá de la vida
en cadenas de carbono que ha evolucionado en la tierra, la Vida Artificial
puede contribuir a la biología teórica localizando la vida como la conocemos
6
dentro de un gran cuadro de cómo debe ser la vida”.
6
LANGTON Chris. Vida Artificial. 1989
92
Modelo POE.
Este modelo desarrollado por un grupo de investigadores entre ellos varios
colombianos de la en Suiza, hace una abstracción de la vida en la tierra en
tres niveles de organización: el nivel filogenético que concierne al proceso de
evolución de los programas genéticos; el nivel ontogenético concierne al
proceso de desarrollo de un solo organismo multicelular; y el nivel
epigenético que trata con los procesos de aprendizaje durante el tiempo de
vida de un organismo.
Filogenético(
P)
Ontogenético(O
)
Epigénesis(E
Fig. 6 Modelo POE
Ejes del Modelo POE. A continuación se detallan los ejes del modelo POE
desde el punto de vista de la biología, para luego hacer su analogía desde el
punto de vista de VA.
Filogenésis. Este eje corresponde al proceso evolutivo en nuestro planeta
con una duración aproximada de 3.500 millones de años, que estudiamos en
el capítulo 2, para la conformación de un genoma o programa genético. A
partir de la primera molécula que pudo auto-reproducirse este proceso ha
llegado, hasta ahora, a la conformación de programas genéticos más
complejos, pasando por toda la diversidad de especies la gran mayoría ya
extintas. La existencia de los organismos se explica por la reproducción del
programa genético en su descendencia, sujeta a una tasa extremadamente
baja de error. La introducción de errores, en la transferencia de información
de una generación a otra, en general conlleva errores en el programa que
impiden su propagación a las generaciones siguientes. En casos muy
especiales es posible que el error implique una mejora de ese programa con
respecto a los demás, dándole mayor posibilidad de que su propagación a las
generaciones siguientes sea más alta. La intermitente aplicación de
operadores genéticos da origen a la emergencia de nuevos organismos. Este
es un mecanismo estocástico.
93
Ontogenésis. Una vez se ha conformado un nuevo programa genético,
genoma o zigoto, a partir de la recombinación de información de sus padres,
comienzan sus divisiones sucesivas, sin interacciones ambientales. Cada
nueva célula posee una copia del genoma original, pero dependiendo de su
posición física, se inicia un proceso de especialización que se puede
comenzar a observar a partir de un número muy bajo de células, alrededor de
8, fase que se conoce como de diferenciación celular. La ontogenia es el
proceso de desarrollo de un organismo. Es un proceso esencialmente
determinístico.
Epigénesis. La cantidad de información del programa genético humano es
del orden de 3 x 109 nucleótidos, secuencias de bases A, C, T, G. Esta
cantidad de información representa la descripción completa de un organismo
humano. Sin embargo, esta sola descripción no le permite a un ser humano
interactuar con su entorno. Luego para que un organismo pueda manejar la
complejjdad del ambiente se requieren otros medios de almacenamiento de
información no genéticos, más elásticos. Así, en el proceso de desarrollo del
individuo aparecen procesos que le permiten integrar una gran cantidad de
interacciones con el ambiente. Estos procesos están soportados por los sistemas
nervioso, inmune y endocrino. Con estos sistemas se tiene una información mucho
elástica pues la información genética, en general, no cambia. La epigénesis es un
proceso de aprendizaje del individuo.
Dentro del espacio de definido por estos tres ejes encontramos toda la diversidad de
seres que constituyen la biomasa en nuestro planeta. Todos compartiendo el mismo
código y los mismos componentes elementales.
1.3.3.Modelo de VA.
Con base en lo anterior, y en analogía con la naturaleza, podemos definir el espacio
de los sistemas de VA, conformado por los mismos tres ejes: Filogénesis,
Ontogenésis, y Epigénesis; pero con otra connotación. Ahora la Filogénesis, la
llamamos Evolución, o informática evolutiva, ya que sus procesos simulan el
proceso evolutivo natural; la Ontogenésis, la llamamos Replicación, pues generan
comportamientos holísticos con base en reglas determinísticas que siguen todas las
células artificiales; y la Epigénesis que llamamos Aprendizaje, en este caso
tenemos Redes Neuronales Artificiales y Sistemas Inmunológicos Artificiales.
Evolución
Hace referencia a las herramientas que podemos agrupar como Informática
Evolutiva, El tema central es la aplicación de los conceptos de selección
basados en la aptitud de una población de estructuras de datos en la
memoria del computador. Estas estructuras se reproducen de una manera
tal que el contenido genético de sus descendientes está relacionado de
alguna forma con el contenido genético de los padres; de la misma forma la
aptitud de los hijos está relacionada, pero es diferente a la aptitud de sus
padres.
94
Desde el punto de vista de la vida natural, en este eje, estamos usando la
característica de teleonomia. El objetivo último de los seres artificiales es
satisfacer lo mejor posible la función de aptitud definida por el programador.
En muchos casos, la función de aptitud que se usa en la informática evolutiva
no se orienta directamente hacia la reproducción. A los individuos de la
población se les permite su reproducción en diferentes cantidades basada en
la función de aptitud diseñada por el programador.
Son varios los estilos que se han desarrollado en la informática evolutiva. Su
distinción se encuentra en los tipos de estructuras que comprenden los
individuos en la población y los énfasis en los operadores genéticos
empleados.
Estas diferencias caracterizan a los individuos y hacen
permisible la variación genética. También hay diferencias en los operadores
que crean la descendencia, así como en los métodos de selección y otros
detalles menos significativos.
Estrategia evolucionaria. Define un estilo asociado frecuentemente con
problemas de optimización en ingeniería. Las estructuras que están bajo
adaptación normalmente son conjuntos de variables objetivo con valores
reales que se asocian con variables estratégicas con valores reales en un
individuo. La aptitud está determinada por la ejecución de algoritmos y
rutinas específicos que usan variables objetivo como parámetros. Las
variables estratégicas controlan la forma en que la mutación varía cada
variable objetivo durante la producción de nuevos individuos.
La
recombinación (o cruce) se utiliza tanto para las variables objetivo como para
las variables estratégicas.
95
Programación Evolucionaria. Opera sobre una variedad de estructuras de
representación, frecuentemente variables objetivo con valor real aunque con
estructuras más complejas. Nuevamente, las variables objetivo funcionan
como argumentos para algoritmos y rutinas específicos diseñados para
solucionar problemas de interés. El único operador empleado es la mutación,
con una estrategia construida a través del algoritmo, para dirigirla en una
dirección computacionalmente provechosa.
Algoritmos Genéticos. Operan frecuentemente con cadenas de caracteres
de longitud fija, generalmente binaria. La aptitud se determina ejecutando
algoritmos y rutinas específicos, usando una interpretación de las cadenas de
caracteres como el conjunto de parámetros. La recombinación sexual o
cruce es el principal operador genético empleado, junto con la mutación,
comúnmente como un operador de importancia secundaria.
Programación Genética. Es un retoño de los Algoritmos Genéticos, en el
cual las estructuras de datos, árboles, que sufren la adaptación son en sí
mismas programas de computador.
Se usan operadores genéticos
especializados que generalizan la recombinación sexual y la mutación, para
los programas de computador estructurados en árbol que están bajo
adaptación.
Replicación.
Este proceso se puede resumir como crecimiento o construcción, con base
en reglas determinísticas, que define el genoma y que comparten todas las
células, conllevan la producción de comportamientos emergentes. Hay
que diferenciar entre replicación y auto-reproducción. Aquí se usa replicación
como aplicar el mismo programa a todas las células, mientras que autoreproducción consiste en la producción de un nuevo genoma, a partir de otros
genomas con la misma estructura.
Desde el punto de vista de la vida natural, en este eje, estamos usando la
característica de morfogénesis autónoma. Cada una de las células
dependiendo de su posición y estado ejecuta el mismo programa, el genoma.
En algunos casos los sistemas replicantes tienen la habilidad de autorepararse cuando sufren determinados daños. La herramienta básica en este
eje son los Autómatas Celulares, AC, que veremos posteriormente.
Aprendizaje.
Este eje tiene que ver con el aprendizaje que debe realizar cada organismo
individual para interactuar con el mundo real. También lo podemos definir
como aprendizaje elástico, pues en general puede variar con el tiempo, en
contraposición con el aprendizaje genético que realizan poblaciones
completas de seres en largos periodos de tiempo, que el individuo no puede
variar en el transcurso de su vida. Su proceso depende directamente del
medio ambiente. En este eje tenemos las Redes Neuronales Artificiales RNA
96
y los Sistemas Inmunológicos Artificiales. Posteriormente se ampliará en
cierto detalle las RNA.
Dentro de este espacio definido por los ejes E (Evolución), R (Replicación), y
A (Aprendizaje), podemos situar cualquier ente desarrollado por el hombre
con características de ser vivo.
1.3.4.Herramientas bioinspiradas.
A continuación se detallan las principales herramientas bioinspiradas que
soportan los ejes del Modelo de VA. Estas herramientas se han utilizado
individualmente en forma directa para la solución de problemas con una
complejidad relativamente alta, generalmente superando las herramientas
matemáticas numéricas disponibles. En la segunda parte del libro, se
detallan, como herramientas clásicas, los Algoritmos Genéticos, la
Programación Genética, los Autómatas Celulares y las Redes Neuronales
Artificiales.
Herramientas clásicas
Algoritmos Genéticos.
Genéticos
Los Algoritmos Genéticos, AG, son la herramienta que más se acerca al
proceso de evolución natural. El problema que se pretende solucionar con el
AG se presenta como una función de aptitud que debe satisfacer una o varias
condiciones. El AG trabaja muchas posibles soluciones en forma paralela.
Estas posibles soluciones se conocen como individuos o cromosomas. El
número de individuos se conoce como el tamaño de la población.
Inicialmente estos individuos se generan aleatoriamente, de los cuales
necesariamente algunos serán mejores que otros enfrentando el problema
planteado. A través de un proceso de selección, se busca llevar los mejores
individuos a la siguiente generación. Una vez conformada la nueva
generación se seleccionan de a dos para su apareamiento, con el fin de
compartir información para la producción de descendientes. A estos
descendientes, dependiendo de una probabilidad generalmente baja, se les
hace una mutación. Este proceso, evaluación, selección, cruce y mutación,
se repite hasta que se satisface un criterio de evaluación o se llega a un
número determinado de iteraciones que se conoce como número de
generaciones. En este punto se tiene una solución buena o muy buena que
satisface las condiciones del problema.
Los individuos se representan por una cadena finita de símbolos que se
conoce como el cromosoma. En el caso del Algoritmo Genético simple que es
el que se detalla a continuación, los símbolos son 0 y 1. La estructura del
cromosoma debe representar todas las posibles soluciones del problema, es
decir, define el espacio de búsqueda del AG. Por lo tanto, un cromosoma es
un punto en el espacio de búsqueda de soluciones candidatas. Cada posición
de la cadena finita que conforma el cromosoma se conoce como gen. El
problema que se pretende solucionar junto con sus restricciones se define
como la función de aptitud.
97
El AG procesa sucesivamente la población corriente de cromosomas,
reemplazando una población por otra a medida que avanzan las
generaciones, con base en el comportamiento de los individuos con respecto
a la función de aptitud. La aptitud de un cromosoma depende de qué tan bien
esta solución resuelva el problema.
Operadores Genéticos
Los AG trabajan con tres operadores genéticos básicos: selección, cruce y
mutación. A continuación se da una explicación de cada uno.
Selección: Este operador simula la selección natural, define los criterios que
permiten que los cromosomas de una población pasen a la siguiente
generación, es decir, se reproduzcan. Esta selección se basa tanto en la
aptitud de cada cromosoma al enfrentar el problema como en la aptitud global
de la población. Entre más apto sea un cromosoma con respecto a la
población, tiene mayor probabilidad de ser seleccionado, es decir, contribuir
con uno o más descendientes en la siguiente generación. Este operador se
aplica atodos los individuos.
Cruce: Este operador permite combinar información de padres exitosos para
la producción de descendencia supuestamente más exitosa que sus padres.
En el caso del AG simple, se toman dos padres y se selecciona
aleatoriamente una posición, a partir de la cual se intercambia la
subsecuencia antes y después de la posición, entre los dos cromosomas
padres para crear dos hijos. Este operador se aplica a los individuos con una
probabilidad pc generalmente alta.
Mutación: Este operador cambia aleatoriamente el valor de uno de los
genes de un cromosoma. Comúnmente este operador se aplica luego del
cruce. Permite hacer una exploración a otras partes del espacio de búsqueda
para evitar que la solución sea un óptimo local. Otra forma de verlo es que
aumenta la diversidad genética, posibilitando mejores soluciones. Este
operador se aplica a los individuos con una probabilidad pm, generalmente
baja.
DESCRIPCIÓN DEL ALGORITMO
ALGORITMO GENETICO SIMPLE
A continuación se presenta una descripción del AG simple, para ir avanzando
en su presentación. Vamos a definir los principales parámetros. M, es el
número de generaciones; K, la población, o número de individuos de cada
generación; l, el número de bits o genes que conforma un cromosoma o
individuo; x, es el valor que representa un cromosoma, se obtiene a través de
un proceso de decodificación, es el punto en el espacio; f(x) es la función de
aptitud aplicada en el punto x. El AG siempre trabaja de la siguiente forma:
1. Inicialmente genera la primera población aleatoriamente. Crea K
cromosomas con l bits de longitud.
98
1. Calcula la aptitud f(x) de cada cromosoma x de la población, encuentra la
aptitud global de la población, y la aptitud con que contribuye cada
cromosoma.
2. Repite M veces los siguientes pasos, o el número de v}eces que sea
necesario para satisfacer alguna otra condición:
• Para cada cromosoma de la población actual se efectúa un proceso de
selección que define si tendrá o no descendientes en la siguiente
generación. Este es un proceso probabilístico en que a mayor
contribución a la aptitud global, mayor probabilidad de selección del
cromosoma para tener descendencia. La selección se hace sin
reemplazo, es decir, que un cromosoma puede seleccionarse más de una
vez para ser padre.
• Se escoge un par de cromosomas de la población de padres, con una
probabilidad de cruce pc. Se cruzan el par de cromosomas en un punto
escogido aleatoriamente (escogido con una probabilidad uniforme) para
formar dos hijos.
• De acuerdo con una probabilidad de mutación pm, se elige sustituir un
símbolo de un gen que forma la cadena de un cromosoma. Una vez
aplicados estos operadores se tiene la nueva población.
3. Reemplaza la población actual por la población nueva.
4. Regresa al paso 2.
Debido a que la aleatoriedad juega un papel importante en cada ejecución,
dos ejecuciones con diferentes semillas en la generación de los números
aleatorios generalmente pueden producir comportamientos diferentes en las
primeras generaciones, para hacia al final converger a las mismas respuesta
o respuestas muy cercanas. . Los reportes estadísticos, como aptitud
promedio de la población, generación en la cual se encontró el individuo con
la mejor aptitud, son en promedio iguales para diferentes ejecuciones del AG
sobre el mismo problema.
A continuación se describe en seudolenguaje, el Algoritmo Genético, con
todas sus subrutinas básicas, que se pueden traducir muy fácilmente a
cualquier otro lenguaje de programación.
ALGORITMO G
GENETICO
ENETICO
Rutina principal
Corresponde a la descripción que acabamos de estudiar. El ciclo principal de
la rutina se ejecuta M-1 veces. La variable i se emplea como índice de las
iteraciones. La estructura Pob_nueva guarda los K cromosomas de longitud l
que se generan inicialmente. Una vez se ha evaluado esta población se
convierte en Pob_vieja.
Procedure Inicio()
begin
genera(Pob_nueva);
evalua(Pob_nueva);
for i:=2 to M do
begin
99
Pob_vieja=Pob_nueva;
seleccion(Pob_vieja);
cruce(Pob_nueva);
mutacion(Pob_nueva);
evalua(Pob_nueva);
end;
end;
Rutina General
Esta rutina simula
aleatoriamente un bit.
se obtiene simulando
cadenas de 1’s y 0’s.
[´0, 1].
el lanzamiento de una moneda, para generar
La variable i corresponde al cromosoma i, cuyo gen j
el lanzamiento de una moneda. Así se forman las
Aleat guarda en tipo real un resultado aleatorio entre
Procedure genera(Pob_nueva)
begin
randomize;
for i:=1 to k do
begin
for j:=0 to l do
begin
aleat:=random;
if (aleat>0.5) then
cromosoma[i].gen[j]:='1';
else cromosoma[i].gen[j[:='0';
end;
Pob_nueva[i]:=cromosoma[i];
end;
end;
Rutina evalúa
Una vez se tiene la primera generación, se debe evaluar el comportamiento
de cada individuo con respecto a la función de aptitud. Luego encontrar cual
es su aporte a la aptitud global de la población para saber qué tan bueno es
con respecto a los demás. La aptitud total de la población se guarda en
Tot_apt, la aptitud del cromosoma i que guarda en el vector asociado
cromosoma[i].aptitud. La aptitud con que contribuye el cromosoma i a la
aptitud global, en porcentaje se guarda en el vector asociado
cromosoma[i].porcent.
Procedure evalua(Pob_nueva)
begin
Tot_apt:=0;
for i:=1 to k do
begin
t:=F_aptitud(cromosoma[i]);
cromosoma[i].aptitud:=t;
Tot_apt:=Tot_apt+cromosoma[i].aptitud;
end;
for i:=1 to k do
100
begin
t:=(cromosoma
[i].aptitud/Tot_apt)*100;
cromosoma[i].porcent:=t;
end;
end;
Función F_aptitud
Esta función que devuelve un valor real, es la encargada de evaluar la aptitud
del cromosoma i de la rutina anterior, la cadena x en esta función. Para
ilustrar mejor el algoritmo, tomamos como ejemplo maximizar una función
real arbitraria: (f(x) = x + |32*Seno(x)|. Llama a la función decodifica, que
convierte el valor entero binario x en un valor del espacio de soluciones.
Function F_aptitud(x)
begin
valor_x:=decodifica(x);
F_aptitud:=valor_x + abs(32*sin(valor_x));
end
Función Decodifica
Esta función convierte el valor binario del cromosoma en un valor real, dentro
del espacio de soluciones. Cómo existen diversas formas de representar el
espacio de soluciones en la estructura del cromosoma, para cada una de
esas formas hay un esquema propio de codificación. La función decodifica
es la que realmente hace que el AG sea universal, ya que con solo
modificarla se pueden representar una amplia variedad de problemas. La
variable rango define el intervalo en el cual puede estar el valor real del
cromosoma, para el ejemplo rango es [0, π]. En valor se calcula el valor del
cromosoma en binario.
Function decodifica(x)
Begin
valor:=0;
for i:=1 to l do
valor:=(valor+cromosoma[x].gen[i])*power(2,li);
decodifica:=(valor/(power(2,l)-1))*rango;
end;
end;
Procedimiento Selección
Este procedimiento es la versión artificial de la selección natural, la cual
busca un superviviente darwiniano entre los individuos (cromosomas) más
aptos; en las poblaciones naturales la aptitud está definida por la habilidad
del individuo para sobrevivir a predadores, pestes y otras situaciones que
101
reducen la posibilidad de que el individuo llegue a adulto y pueda
reproducirse. El ciclo externo se debe a que se trabaja con población
constante y se deben seleccionar k individuos. El ciclo interno es la búsqueda
de los mejores individuos dentro de la población, que se debe repetir hasta
completar los k, por eso los mejores individuos se seleccionan varias veces.
Llama la función reproducción.
Procedure selección(Pob_vieja)
begin
seres:=0;
repeat
begin
for i:=1 to k do
begin
f:=reproduccion(i);
if (f<>0) And (seres<k) then
begin
seres:=seres+1;
Pob_nueva[i]:=cromosoma[i];
end;
end;
end;
until seres=k;
end;
Función Reproducción
En general, la función objetivo es la que determina la vida o la muerte de los
individuos, por ser la que define cual es su aptitud; aquí, la función reproducción
es la implementación del método de selección proporcional, el método de ruleta
basado en la aptitud del cromosoma con respecto a la población. Esta rutina podría
ser reemplazada por otros métodos de reproducción. Aleatorio es un número
aleatorio entre [0, 1].
Function reproduccion(i)
begin
j:=aleatorio*100;
if (cromosoma[i].porcent>j)
then reproduccion:=1;
else reproduccion:=0;
end;
Procedimiento de Cruce
Este procedimiento no utiliza la probabilidad de cruce, que se puede implementar
fácilmente, sino simplemente selecciona dos parejas consecutivas de la población
seleccionada y las cruza en un punto escogido aleatoriamente. n es el punto para el
cruce y es una posición aleatoria entre 2 y l - 1. Este es el cruce más elemental, se
pueden hacer cruces multipunto, lo que mejora el comportamiento del algoritmo
pues elimina sesgos en la población.
102
Procedure cruce(Pob_nueva)
begin
i:=1;
while (i<k) do
begin
n:= Trunc((( l-1)*random)+1);
for j:=n to l do
begin
bit:=cromosoma[i].gen[j];
cromosoma[i].gen[j]:=cromosoma[i+1].gen[j];
cromosoma[i+1].gen[j]:=bit;
end;
Pob_nueva[i]:=cromosoma[i];
Pob_nueva[i+1]:=cromosoma[i+1];
i:=i+2;
end;
end;
Procedimiento de Mutación
Con el fin de ahorrar tiempo de proceso, se toma la probabilidad de mutación, que
en general es muy baja, cuyo inverso es el número de bits de toda la población
dentro del cual se selecciona uno para invertir. Por ejemplo, si la pm es 0.001, se
divide la población en segmentos de 1000 bits y en cada segmento se selecciona un
bit y se invierte. Se supone que la población dividida por el número de segmento es
un entero, n.
procedure mutacion(Pob_nueva,pm)
begin
totalbits := k * l;
segmento := 1/pm;
n := totalbits/segmento;
for i := 1 to n do
begin
m := (aleatorio*segmento)+((n -1) * segmento);
i:= Trunc((k/m)+1);
j:= m - ((i*k)- 1);
if (cromosoma[i].gen[j]=’0’)
then cromosoma[i].gen[j]:='1'
else cromosoma[i].gen[j]:='0';
end;
end;
Otras funciones
Dependiendo del nivel de sofisticación del programa, se pueden incluir rutinas
para la impresión de las cadenas, dependiendo de las necesidades de
análisis del algoritmo. En caso de no llegar a una convergencia, se puede
replantear la codificación de las variables, o la evaluación de la función, o el
método de selección o la longitud de la cadena.
Asimismo se puede almacenar el mejor individuo (cromosoma) que se obtuvo
durante todas las generaciones del proceso. En las investigaciones actuales
sobre búsqueda genética, en determinados tipos de problemas, se pueden
103
variar y aumentar los operadores de cruce y mutación, y también es posible
la creación de nuevos operadores genéticos.
CONCLUSIONES
Los procedimientos para implementar un AG son extremadamente sencillos,
y lo que es más sorprendente es que, efectivamente, el método evolutivo
(que en principio no se entiende como un método formal de optimización
matemática) conduce a soluciones idóneas para el problema en cuestión. En
este capítulo se presentó una descripción genérica de cómo funciona un AG,
con el ánimo de introducir el tema mediante ejemplos sencillos. Pero,
hablando en términos generales, la aplicación de AG a problemas más
complejos, continúa preservando la misma estructura simple (población inicial
y a continuación la iteración de operadores genéticos hasta hallar un óptimo).
Esta es una de sus características más llamativas. Inclusive, ya existen
librerías orientadas por objetos para la implementación de AG de “propósito
general”, lo cual permite al ingeniero dedicar su esfuerzo al análisis de la
función de aptitud y los operadores particulares para su problema, dado que
ya puede contar con las funcionalidad básica, entre otros, generación de la
población inicial, selección, cruce, mutación, números aleatorios, etc. (una de
estas librerías es el GALib, descrita en el Apéndice B).
El potencial de aplicación de estos algoritmos es inmenso, y aparece como
un campo de investigación interesante en muchas áreas del conocimiento. El
reto principal para poder utilizarlos en problemas específicos, lo constituye la
búsqueda de la representación de la solución mediante cromosomas binarios,
y la definición apropiada de los operadores de selección, cruce y mutación, y
de la función de aptitud. Después de esto, solo basta implementarlo en el
computador, y observar como “misteriosamente”, el AG evoluciona hasta
encontrar la solución. En lo que respecta a las ciencias computacionales, la
investigación está abierta para la búsqueda de nuevos operadores, y la
asimilación de nuevos conceptos estudiados en la teoría genética y evolutiva,
con el ánimo de enriquecer este nuevo enfoque de solución de problemas de
ingeniería.
Redes Neuronales Artificiales (RNA)
Son una emulación del sistema nervioso de los animales multicelulares, que
les permite controlar su organismo, interactuar con el ambiente y asociar
hechos. Estas acciones son más complejas en la medida en que aumenta la
cantidad de células nerviosas o neuronas y sus conexiones. Si se examinan
con atención problemas, cuya descripción algorítmica es muy compleja,
como identificar en fracciones de segundo a una persona entre una multitud,
su solución desde la óptica de la ingeniería,
tienen una característica
común: la experiencia. Los animales superiores, como el hombre, son
capaces de resolver estas situaciones acudiendo a la experiencia acumulada.
Así, parece razonable que una forma de aproximarse a la solución de éste
tipo de problemas consiste en la construcción de sistemas que sean capaces
de simular esta característica.
104
La observación anterior fue considerada por los científicos de las ciencias del
computador en lo que se ha denominado Neurocomputación área cuyo objeto
de estudio se denomina las Redes Neuronales Artificiales, que no son más
que un modelo artificial y simplificado del cerebro de los animales superiores.
Así una red neuronal es un sistema para el procesamicnto de información,
cuya unidad básica de procesamiento está inspirada en la neurona.
RED NEURONAL NATURAL
Una red neuronal natural está conformada por un gran número neuronas,
que se encuentran interconectadas masivamente. Una neurona consta
esencialmente, como se ilustra esquemáticamente en la Figura l, de un
cuerpo, denominado soma, al cual están conectadas unas fibras nerviosas,
llamadas dendritas, y un axón, una fibra delgada y larga, dividida en su
extremo en una serie de fibras terminales.
La neurona recibe señales de entrada provenientes de otras neuronas, a
través de las dendritas, que se conectan con las dendritas de las células
emisoras en un proceso que se conoce con el nombre de sinapsis, durante el
cual se lleva a cabo un intercambio electroquímico entre las partes. Las
uniones de una neurona con otra pueden ser excitatorias o inhibitorias.
Cuando la suma de las intensidades de todas las entradas supera un umbral
determinado, la neurona transmite una señal a través de su axón a las demás
neuronas conectadas a ella.
De acuerdo con algunos resultados de la neurofisiología, la buena capacidad
de cómputo de las redes neuronales radica en su estructura masivamente
paralela pues, aunque la velocidad de conmutación de una neurona biológica
es mucho menor que la de ciertos componentes electrónicos actuales,
mediante los métodos de computación tradicionales es prácticamente
imposible resolver ciertos problemas de la vida cotidiana que sí son
fácilmente solubles por el cerebro humano.
Una neurona artificial es un modelo matemático, en ocasiones denominado
autómata, que recibe una señal (valor) de entrada, asume un estado (valor) y
produce una señal respuesta
De esta manera, una Red Neuronal Artificial, como la mostrada en la Figura 2
Esquema de una Red Neuronal Artificial, consiste de una colección de
neuronas artificiales, las cuales están interconectadas mediante relaciones
con ponderaciones asociadas, es decir, valores vinculados a cada conexión.
Cada unidad tiene un estado que es un valor real continuo entre cero y uno y
retorna este estado a las unidades con las cuales está conectada. El estado
de una neurona artificial se actualiza continuamente de la siguiente manera:
El nuevo estado es una función de la suma de ponderaciones de sus
entradas y usualmente esta función es una sigmiode.
Como se observa, algunas de las neuronas son designadas como neuronas
de entrada, es decir, su estado es puesto por el ambiente y otras son
designadas como neuromas de salida, es decir, su estado es enviado al
ambiente. El aprendizaje se da por cambio de las ponderaciones de las
conexiones y este cambio depende del error, es decir, la diferencia entre la
salida actual y la salida deseada de la red, dada la entrada. Este es un
105
ejemplo de aprendizaje supervisado puesto que se requiere un profesor quien
provee la salida deseada.
En contrate, existe el aprendizaje por refuerzo que es un ejemplo de
aprendizaje no supervisado. La salida de la red se evalúa como favorable o
desfavorable por el ambiente y esta evaluación es realimentada como una
señal de refuerzo positiva o negativa a la red. No hay necesidad de un
profesor quien provea la salida deseada. Adicionalmente, ésta realimentación
puede ser retardada, es decir, la señal de salida puede usarse como refuerzo
en un tiempo futuro. De esta manera, la aplicabilidacl del aprendizaje por
refuerzo es mucho más amplio que el aprendizaje supervisado.
De otro lado, el modelo de neurocomputación más simple es el que relacioua
la salida de una neurona con las entradas ponderadas a través de una
función de activación (Figura 3), este modelo, denominado perceptrón simple,
permite resolver problemas de diferenciación entre patrones sólo si estos son
linealmente separables, esto es si puede construirse una función lineal que
divida el espacio de ocurrencia de los patrones en regiones mutuamente
excluyentes, de tal forma que patrones diferentes se encuentren localizados
en regiones.
DISCUSIONES Y CONCLUSIONES: Además de permitir la resolución de una gran
variedad de problemas, Las redes Neuronales Artificiales poseen también
desventajas. Una de las desventajas está en que requieren la deiïnición de muchos
parámetros antes de poder aplicar la metodología. Por ejemplo hay que decidir la
topología de la red más apropiada, el número de capas de neuronas ocultas, el
número de neuronas por capa, las interconexiones, la función de transformación, etc
Otra desventaja de las Redes Neuronales es que no ofrecen una interpretación fácil
como sí lo hace, por ejemplo, un algoritmo que calcule una regresión lineal. Con
todo, a pesar de éstas desventajas, las redes neuronales han resultado una
excelente y única alternativa en la resolución de problemas que por métodos
algorítmicos y secuenciales, eran difícil, si no imposible, de modelar y
solucionar.
EVOLUCION ARTIFICIAL
La idea de aplicar los principios biológicos de la evolución natural a los
sistemas artificiales introducida hace más de tres décadas ha crecido
notablemente en los últimos años. Usualmente agrupados en el término
algoritmos evolucionarios o computación evolucionaria, se encuentra el
dominio de los algoritmos genéticos, estrategias evolutivas, programación
evolutiva y programación genética. Como un ejemplo de evolución artificial se
consideran los algoritmos genéticos.
CIRCUITOS PROGRAMABLES A GRAN ESCALA
Un circuito integrado es llamado programable cuando el usuario puede configurar su
función por programación. El circuito es distribuido después de ser producido en un
estado genérico y el usuario puede adaptarlo programándole una función particular.
En este documento se consideran solo los circuitos lógicos programables, donde la
función programada es un uno (1) lógico, dentro del rango de funciones booleanas
simples hasta máquinas de estado complejo. La función programada es codificada
como una cadena de bits representando la configuración del circuito. Se debe hacer
notar que esta es una diferencia entre programación de un chip microprocesador
estándar y programación de un circuito programable— el primero involucra la
106
especificación de una secuencia de acciones, o instrucciones, mientras que el último
involucra una configuración de la máquina misma.
El primer circuito programable permitió la implementación de circuitos lógicos que
fueran expresados como una suma lógica de productos. Existen PDL’s (Dispositivos
lógicos programables), cuya versión más popular es el PAL (Arreglo lógico
programable). Más recientemente nueva tecnología ha emergido, proporcionando
mayor flexibilidad y funcionalidad más compleja: el FPGA (field-programmable array
logic). Un FPGA es un arreglo de celdas lógicas ubicadas en una infraestructura de
interconexiones, la cual puede ser programada en tres distintos niveles: (1)la función
de las celdas lógicas, (2) las interconexiones entre celdas, y (3) las entradas y
salidas. Los tres niveles son configurados con una cadena de bits que es cargada de
un recurso externo, solo una vez. En el último caso el FPGA es considerado
reconfigurable.
Los FPGA’s son dispositivos altamente versátiles que ofrecen al diseñador un amplio
rango de alternativas de diseño. Sin embargo, este potencial necesita un conjunto de
herramientas en el diseño de un sistema. Esencialmente, esto genera la
configuración de cadena de bits, dadas las entradas como un diagrama lógico o una
descripción funcional de alto nivel.
Interconexiones
Configurables
Funciones
Configurables
Cadena de
Configuración
Lógicas
celdas
celdas E/S
Fig. 8 Diagrama esquemático de un
1.3.5. Software & Hardware Evolutivo
El hardware evolutivo es un subdominio de la evolución artificial, donde la
meta final es la síntesis de un circuito electrónico. El trabajo de Koza incluye
la aplicación de programación genética a la evolución de un multiplexor de
tres variables y un sumador de dos bits. El principal objetivo es demostrar las
107
capacidades de la metodología de la programación genética, antes que
diseñar circuitos actuales.
El hardware evolutivo es tomado como una metodología de diseño, que
ofrece una mayor ventaja sobre los métodos tradicionales. El trabajo del
diseñador se reduce a construir la base evolucionaria, la cual se encarga
específicamente de los requerimientos del circuito, los elementos básicos, y
el esquema de prueba para asignar la aptitud (esta última fase es
frecuentemente la más difícil). Si este ha sido diseñado correctamente, la
evolución puede entonces (automáticamente) generar el circuito deseado.
Actualmente han sido desarrollados más diseños digitales que son menos
óptimos con respecto a las metodologías tradicionales; sin embargo mejores
resultados han sido demostrados. Se puede derivar una clasificación
aproximada del hardware evolutivo actual, de acuerdo con la codificación del
genoma (por ejemplo la descripción del circuito), y el cálculo de la aptitud de
un circuito.
Codificación del genoma:
Lenguajes de alto nivel. Usando un lenguaje de alto nivel par codificar los
circuitos, significa que la solución final puede ser transformada para obtener
un circuito real. La solución desarrollada es un programa que describe el
multiplexor (deseado) o sumador, antes que un diagrama de interconexión de
elementos lógicos (la representación de hardware actual). Hemmi usó un
lenguaje de alto nivel para representar el genoma en la descripción del
hardware. Koza y Kitano usaron una operación de reescritura, adicional al
cruce y la mutación, para habilitar la formación de una estructura jerárquica.
Lenguajes de bajo nivel: La idea es incorporar directamente dentro del
genoma la cadena de bits que representan la configuración de un circuito
programable. El uso de una descripción del circuito de bajo nivel es un paso
importante puesto que potencialmente permite colocar directamente el
genoma en el circuito real.
Sin embargo, los FPGA introdujeron su propia forma de compartir los
problemas.
La longitud del genoma era del orden de miles de bits haciendo la evolución
prácticamente imposible con la técnica corriente.
Aún el genoma se tiene en un esquema lógico, fase para la cual no existen
métodos automáticos.
Dentro del espacio de circuitos que consiste de todos los circuitos
representativos, algunos son inválidos.
Cálculo de la Aptitud: Hardware Offline. El uso de un lenguaje de alto nivel
para representar el genoma significa que uno tiene que transformar el
sistema codificado para evaluar su aptitud. Esto se hace por simulación,
implementando la única solución.
Hardware Online. La representación del genoma en bajo nivel permite una
configuración directa del circuito, vinculando así la posibilidad de usar
hardware real durante el proceso evolutivo.
108
CARACTERÍSTICAS COMUNES DE HARDWARE FILOGENETICO ACTUAL
El trabajo hecho hasta ahora permite observar algunas características
comunes que difieren de la evolución biológica.Sigue una meta definida: el
diseño de un circuito electrónico, sujeto a especificaciones precisas. Una vez
encontrado el circuito deseado el proceso evolucionario continúa. La
población no tiene existencia material. A lo más lo que se ha llamado
evolución ONLINE, hay un circuito disponible, sobre el cual se cargan los
individuos de la población “uno a la vez”, para evaluar su aptitud.
La ausencia de una población real en la cual los individuos coexistan
simultáneamente presenta dificultades notables entre “organismos”. Esto
lleva a un cálculo de aptitud completamente independiente, contrario a la
naturaleza que presenta un escenario coevolucionario.Si uno trata de
solucionar un problema bien definido, que incluye la búsqueda de un sistema
lógico específico combinacional o secuencial, no hay aproximaciones
intermedias. El cálculo de la aptitud se lleva acabo consultando una tabla que
es una descripción completa del circuito.
Los mecanismos evolucionarios se ejecutan externamente del circuito
resultante. Esto incluye los operadores genéticos así como también el cálculo
de la aptitud.Las diferentes fases de la evolución se desarrollan
secuencialmente, controladas por una unidad central de software.
CATEGORIZACIÓN ACTUAL Y HARDWARE EVOLUTIVO FUTURO
El eje filogenético admite cuatro subdivisiones cualitativas:
EJE
Todas las operaciones genéticas en Hardware Evolución cerrada
O
Todas las operaciones en línea en Hardware Evolución no
cerrada
N
L
I
Circuito Real
O
F
F
L
I
Mayoría de operaciones en Software
Diseño de Circuitos evolucionarios
Todas las operaciones genéticas en Software
Fig. 9 El eje filogenético admite 4 subdivisiones.
109
operaciones se realizan en software, donde la solución resultante se carga
posiblemente en un circuito real. Aunque es una metodología potencialmente
útil, ésta falla dentro de la realidad de las técnicas tradicionales.
Luego se encuentra en que se usa un circuito real durante el proceso
evolutivo, aunque la mayoría de operaciones aún se realizan en software, hay
algunos ejemplos donde el cálculo de la aptitud se efectúa sobre un circuito
real.
Thompson evolucionó un hardware para controlar un robot móvil con dos
motores, que tenía un comportamiento simple para eludir obstáculos. Usó un
Algoritmo Genético Simple para representar una máquina de estado.
Thompson evolucionó un FPGA de 10 x 10 celdas, para discriminar entre
ondas cuadradas de 1Khz y 10Khz presentados como entradas. Nuevamente
usó un Algoritmo Genético Simple para representar un posible circuito. En
ambos casos sólo tenía un FPGA disponible.
Un aspecto interesante es que no hay restricciones en el uso del hardware.
En otro caso, uno de los principales problemas fue superar el tamaño del
genoma.
Para esto se propusieron dos soluciones:
Algoritmos Genéticos con longitud del cromosoma variable AGV, donde el
genoma no representa directamente la cadena de bits de configuración sino
codifica las posibles operaciones lógicas y conexiones.
Es necesario entonces un decodificador para traducir el genoma en cadenas
de configuración de FPGA. Este decodificador es más sencillo que el VHDL,
así que se reduce el tamaño del genoma sin aumentar el costo
computacional.
Evolución a nivel de función, donde las unidades básicas no son
componentes lógicas elementales sino funciones de mayor nivel
(multiplicador, generador de ondas, etc.). No hay actualmente esa
herramienta.
Otro nivel en el eje, en el cual se encuentran sistemas en que todas las
operaciones se hacen en línea en hardware. No es cerrada, no hay una meta
predefinida ni un ambiente dinámico, se trata de un sistema celular evolutivo
en donde tiene lugar la evolución completamente en línea. Se basa en un
modelo de Autómatas Celulares que efectúa cálculos en forma distribuida y
extendida especialmente en la grilla.
Basado en un algoritmo evolucionario de programación celular implementado
en un Autómata Celular no uniforme unidimensional, cada una de las 56
celdas de estado binario contiene un genoma que representa su tabla de
reglas. Estos genomas se inicializan al azar, y se dejan evolucionar.
El sistema especifica la resolución de una tarea de sincronización global: a
partir de una configuración inicial aleatoria de estados celulares, el sistema
debe alcanzar, después de un número de pasos una configuración donde los
estados de las celdas oscilen entre todos ceros y todos unos.
Esto se puede comparar con luciérnagas, miles de ellas alumbran al unísono,
después de comenzar completamente descoordinadas. Cada insecto tiene su
propio ritmo que cambia por interacciones con las luces de sus vecinos.
110
Debido a la conectividad local del sistema, este comportamiento global
incluye toda la grilla lo cual comprende una tarea difícil. Sin embargo,
aplicando el proceso evolucionario se soluciona tal tarea.
El sistema celular evolutivo descrito presenta una evolución completa en
línea, todas las operaciones se realizan en línea en hardware sin hacer
referencia a un computador externo.
La ultima subdivisión incluye una población de entidades de hardware que
evolucionan en un ambiente cerrado. Cuando se impone un criterio de aptitud
de acuerdo con la tarea que se va a solucionar (la regla con técnicas de
evolución artificial), se tiene una forma de evolución guiada o dirigida, en
contraste con la evolución abierta que ocurre en la naturaleza, que no admite
criterios de aptitud impuestos externamente, en lugar de uno implícito,
emergente, dinámico, que se podría resumir como supervivencia.
La evolución abierta no dirigida es la única forma conocida de producir
dispositivos como ojos, alas y sistemas nerviosos y dar surgimiento a la
formación de especies. La no direccionalidad se aplicaría a la evolución
artificial si quisiéramos observar la emergencia de sistemas completamente
nuevos. Esta ultima categoría se puede realmente considerar hardware
evolucionante meta que por ahora se elude.
Un área de aplicación natural para tales sistemas esta en el campo de robot
autónomos, que incluye máquinas capaces de operar en ambientes
desconocidos sin intervención humana.
EL EJE ONTOGENÉTICO: HARDWARE REPLICANTE Y REGENERANTE.
El eje ontogenético incluye el desarrollo de un solo individuo a partir de su
propio material genético, esencialmente sin interacciones ambientales. Como
se puede ver en la figura 5 el eje ontogenético se puede considerar ortogonal
al eje filogenético. El proceso principal del eje ontogenético se puede resumir
como crecimiento o construcción.
El hardware ontogenético presenta tales características como replicación y
regeneración que encuentran su uso en muchas aplicaciones. Por ejemplo
los sistemas replicantes tienen la habilidad de autorepararse cuando sufren
un daño grave, y se han propuesto como un medio económico de exploración
espacial. En efecto la replicación se puede considerar como un caso especial
de crecimiento, este proceso incluye la creación de un organismo idéntico
duplicando el material genético de una entidad madre en una hija creando así
un clon exacto. Es importante distinguir entre dos términos diferentes:
replicación y reproducción, que generalmente se consideran sinónimos. La
replicación es un proceso de desarrollo ontogenético que no incluye
operadores genéticos resultando en un duplicado exacto del organismo
padre.
La reproducción por otro lado es un proceso filogenético, que incluye
operadores genéticos como cruce y mutación, llevando a la diversidad y
finalmente a la evolución.
GENOTIPO 1
Proceso Reproductivo
Proceso de desarrollo
FENOTIPO 2
111
La figura muestra dos generaciones precedidas y seguidas por un indefinido
número de generaciones. La ontogenética incluye el desarrollo del fenotipo
en una generación dada (flechas horizontales), mientras que la filogenética
incluye la sucesión de generaciones a través de la reproducción del genotipo
(flechas verticales). Los genes. Constituyentes básicos del genoma actúan en
dos diferentes niveles, participan en el proceso de desarrollo, influenciando el
desarrollo del fenotipo en una generación dada, y participan en la genética,
teniendo copia de las generaciones (reproducción).
La investigación sobre sistemas ontogenéticos comenzó con el trabajo de
Von Neumann en su trabajo de autómatas auto-replicantes a final de los 40’s.
Posteriormente este trabajo se amplió y más recientemente ha visto la
emergencia de sistemas que presentan división celular y diferenciación
celular. Esta línea de investigación se ha dividido en cuatro fases, ubicados a
lo largo del eje ontogenético. Von Neumman y sus sucesores Banks, Burks y
Codd desarrollaron un autómata auto-replicante capaz de realizar cómputo
universal (capaz de simular una máquina de Turing universal). Mientras la
complejidad de este autómata es tal que la implementación física completa
aún no ha sido posible, las celdas de Von Neumman han sido recientemente
implementadas en hardware. Langton y su sucesor Byl, Reggia y Morita e
Imai desarrollaron un autómata auto-replicante, el cual es más simple y ha
sido simulado completamente. Sin embargo estas máquinas carecen de
capacidades de cómputo y construcción. Tempesti y Perrier desarrollaron un
autómata auto-replicante inspirado en el trabajo de Langston, dotado con
capacidades computacionales finitas o universales. Una de las características
definidas de una celda biológica se refiere como la parte pequeña del inicio
de la vida, la cual lleva consigo el plan completo del inicio, que es el genoma.
Respecto a esto, los autómatas auto-replicantes son organismos
unicelulares: hay un genoma particular que describe la máquina completa.
Parecía que una vez que estaba en movimiento el ciclo de vida de la onda, las
ondas nacientes y sus progenitoras formaban, lo que podía llamarse una colonia,
poblando su territorio en una forma similar a cierta vida marina como un coral.
Cuando la primera onda dio a luz, tanto la madre como la hija comenzaron la
112
reproducción, la madre formando una prole hacia el norte y la hija comenzando una
tercera generación hacia el oriente. Pero en la medida en que se crearon nuevas
ondas, alguna de las más antiguas quedaron desesperadamente rodeadas por
descendientes no pudieron extender sus colas hacia fuera para reproducirse de
nuevo. Las reglas de Langton permitieron en estos casos que se borraran las
señales que fluían a lo largo de las celdas del núcleo, dejando una onda vacía,
muertas. En la medida en que continuaba el proceso reproductor, más y más
ondas muertas permanecían en el centro, mientras que una comunidad vital daba
nacimiento a nuevas generaciones en niveles externos, muy parecido a un arrecife
de coral.
Era el comportamiento de la biología que surgía espontáneo de las reglas de la
simulación de Autómatas Celulares . Para Langton el experimento era una
venganza: las fuerzas de la biología puede reproducirse en las máquinas. El
fenómeno de la cultura se aplica por fuera de la experiencia humana. Las
estructuras basadas en las reglas, pueden mantener las claves para reproducir los
seres y todo el universo Las piezas del rompecabezas estaban en su sitio.
1.3.6. PERSPECTIVAS DE LA VIDA ARTIFICIAL
Investigación en herramientas.Son muchos las herramientas o técnicas
que se deben combinar para obtener productos de Vida Artificial. Estas
herramientas también están en investigación. Entre ellas se encuentran:
•
•
•
•
•
•
•
•
•
•
•
Redes Neuronales Artificiales.
Algoritmos Evolutivos.
Autómatas Celulares.
Aprendizaje de Máquinas.
Teoría de Agentes.
Simulación.
Etología Artificial
Memética.
Química Artificial.
Teoría de la Auto-organización.
Computación Molecular.
Además de una revisión de la Termodinámica y de la Teoría de la Información,
a la luz de los nuevos desarrollos. Actualmente se usan estas herramientas
para solución de problemas de ingeniería, especialmente en optimización.
Investigación en Vida Artificial. Los modelos de vida Artificial que se han
construido para el estudio de problemas en biología., se clasifican por el medio
en que se trabajan: Hardware, Software, y “Wetware” (húmedo); y por el nivel
de organización: molecular, celular, de organismo, o de población.
113
Nivel molecular: sistemas wetware. Los sistemas de vida Artificial wetware
son los más similares a la vida natural y en efecto actualmente se derivan de
ella. La mayoría de los experimentos se relacionan con procesos artificiales de
evolución, alrededor de la producción de moléculas de ácido ribonucléico (RNA)
con propiedades catalíticas específicas.
Nivel celular: sistema software. Estas investigaciones están dirigidas al
entendimiento de como un ensamble multicelular diferenciado
puede
replicarse a sí mismo, y cómo se desarrolla tal replicación. Como vimos, Von
Newmann fue el primero en caracterizar condiciones de autoreplicación en
sistemas de AC. Se han hecho estudios de cómo las células individuales
pueden reproducirse para formar el próximo nivel de organización. El nivel
celular de vida está en el área donde podría parecer que los estudios de la Vida
Artificial están solo comenzando.
Nivel de organismo: sistemas hardware. Para modelar comportamientos de
cosas vivientes en el nivel de organismo, por ejemplo, de insectos, se deben
modelar el sistema nervioso y sensorial del organismo, su cuerpo, y su medio
ambiente. Aunque pensamos que el sistema nervioso es lo más complejo,
tendemos a ignorar el hecho de que los cuerpos de los animales son altamente
complejos, su geometría su mecánica, dinámica sus propiedades térmicas, la
imitación de energía, su crecimiento, su comportamiento dinámico, etc., son
todos altamente complejos. En principio todos estos componentes se pueden
simular
por software, aunque en la práctica, la cantidad de computación
requerida sobrepasa la capacidad de tecnológica actual.. Sin embargo, ahora
es posible modelar en el medio físico, y representar los animales y sus
interacciones
usando pequeños robots autónomos móviles. Con esta
tecnología, podemos modelar organismos que logran la interacción de varias
modalidades perceptuales, como navegar en el espacio,
controlar sus
sensores y músculos, como hacen todas las cosas en tiempo real.
Nivel de población: modelos de ecuaciones vs modelos de Vida
Artificial.Los modelos de comportamiento de poblaciones, tradicionalmente se
han expresado generalmente como sistemas de ecuaciones diferenciales.
Desafortunadamente, estos modelos están sujetos a muchas limitaciones.
Uno de los éxitos de la vida Artificial ha sido el desarrollo de una alternativa
que modela la población como un conjunto de programas de computador
coejecutándose, uno por cada célula o uno por cada organismo. Estos modelos
ofrecen la ventaja de codificar el comportamiento de un organismo como un
programa. Además, el código hace que los modelos sean más fáciles de
usar y modificar.
1.3.7.Notas finales
114
Son muchas las posibilidades que nos presenta este nuevo paradigma,
posibilidades en investigación y en aplicación.
Si bien es cierto que hay
niveles
que requieren una infraestructura muy grande, también hay
niveles donde podemos trabajar con solvencia. Desde nuestro punto de vista
de ingeniería, debemos investigar para el diseño de sistemas que tengan
algunos de los mecanismos de los sistemas naturales: autoreparación,
autoadaptación, reproducción, flexibilidad, eficiencia, tolerancia a fallas, etc.
En la Universidad hay varias personas trabajando en esta área,
especialmente el
Grupo de Sistemas Complejos y Bioinformática,
conformado por Profesores de Biología, Matemáticas e Ingeniería. Entre las
actividades más importantes desarrolladas por este grupo están: Seminario
de Bioinformática, que lleva más de 5 años. Congreso Colombiano de
Neurocomputación, que se ha efectuado en dos oportunidades. Línea de
profundización en Sistemas Complejos y Bioinformática, que ofrece tres
cursos a la carrera de Ingeniería de Sistemas. Proyectos de Grado, se han
desarrollado del orden de 20 proyectos de grado en el área.
1.3.8.BIBLIOGRAFÍA
9. ADAMI, C. 1998, Introduction to Artificial Life. Springer-Verlag, TELOS.
10. FRANCO O., ESCALLON S. 1995, Estudio Básico de Vida Artificial, Proyecto de Grado,
Facultad de Ingeniería, Universidad Nacional, Bogotá.
11. PAGELS, H., 1991. Los Sueños de la Razón, Editorial Gedisa, Barcelona,..
12. TAYLOR C., JEFFERSON D., 1995, Artificial Life as a Tool for Biological Inquiry, Artificial
Life an Overview, MIT Press.
13. TOFFOLI, T., MARGOLUS, N., 1987, Cellular Automata Machines: a new environment for
modelling., MIT Press.
115
1.4. El aceite y el agua si se mezclan:Intersecciones entre las
Ciencias Sociales y la Ingeniería hacia una perspectiva
transdisciplinaria sobre Mundos Virtuales
Javier Salazar, MSc.
Tohoku Gakuin University . Human Informatics Division
[email protected]
Resumen
Los estudios sobre Mundos Virtuales y su diseño ya constituyen uno de los tantos
campos de estudio bien establecidos dentro de las Ciencias e Ingenierías de la
Computación. Igualmente, dentro de las Ciencias Sociales existe también un cuerpo
creciente de investigaciones relacionadas con los aspectos humanos de los Mundos
Virtuales, tales como: la cognición humana como base para la Inteligencia Artificial,
modelamiento de sistemas sociales , redes sociales y formación de grupos,
identidades virtuales, cibereconomías y ciberculturas; entre otros. En este articulo
me dedico a presentar una breves reseña sobre estos temas, con la intención de
proveer al lector de una introducción acerca de cómo los Mundos Virtuales podrían
ser estudiados bajo una perspectiva transdisciplinaria en la cual tanto las Ciencias
Sociales como la Ingeniería puedan coexistir hacia la facilitación de una
comprensión holistica del fenómeno.
116
1.4.1. Introducción: interdisciplinariedad y transdiciplinariedad
La motivación para escribir este artículo surgió en el año 2004 cuando asistí a una
de las conferencias sobre “Cyberworlds”, que en aquella oportunidad se llevo a cabo
en Tokio, Japón. Para aquel entonces, mis intereses en investigación ya gravitaban
en torno a los Mundos Virtuales, específicamente en torno a la gran variedad de
fenómenos sociales complejos que ocurren dentro de ellos. Sin embargo, dado que
mi “background” académico esta relacionado con Psicología Social y Antropología
Cultural, la conferencia Cyberworlds 2004 me enfrentó con una serie de tópicos
muy diferentes a los que yo estaba acostumbrado a estudiar dentro de mi campo de
estudio: arquitecturas de servidores, programación de Inteligencia Artificial (I.A.),
métodos para el modelamiento y creación de personajes en 3D, sistemas de
seguridad criptográficos, entre muchos otros. Para mi sorpresa, descubrí que la
mayoría de estos temas, si bien distantes de mi propia área de conocimiento;
estaban tan intrínsecamente relacionados con mis propios temas de investigación
que hubiera sido una gran omisión de mi parte el no tomarlos en cuenta. Cuando se
estudian fenómenos sociales en los Mundos Virtuales, el investigador debería
siempre de tomar en cuenta los aspectos técnicos de hardware y software al igual
que las características de diseño del ambiente virtual dado. La razón de ello es que
estos aspectos a la final siempre contribuirán en la caracterización de la serie de
formaciones socioculturales que emergerán en dicho Mundo Virtual. Esta es la
principal razón por la cual intente absorber tanto conocimiento como pude de la
conferencia Cyberworlds 2004; y de hecho el hacerlo me dio su fruto: mi proyecto
de investigación actual consiste en la simulación de patrones de (re)producción de
identidades sociales en juegos online de multiusuarios y para lo cual necesito
emplear tanto métodos de las Ciencias Sociales ( como por ejemplo la Etnografía)
como métodos y procedimientos de la Ingeniería y Ciencias de la Computación (
como por ejemplo, simulación computarizada de sistemas complejos de multi
agentes y programación de I.A.). El hecho de que mi quehacer académico actual
incluya el estudio de temas y el uso de técnicas y métodos derivados de las
“ciencias duras” (y que en un principio yo hubiera pensado que no tenían nada que
ver con Psicología Social ni Antropología Cultural) es debido, en parte, a que tuve la
buena fortuna de entrar en contacto con investigadores de otras disciplinas y
campos de estudio que me permitieron ver la relevancia que tenia lo que sus áreas
de conocimiento podían decir sobre mi objeto de estudio.
Este tipo de posibilidades en las que las ciencias duras se encuentran con las
ciencias blandas son precisamente el tema en el que pretendo enfocar este artículo.
Históricamente, la relación entre las Ciencias Sociales y las disciplinas de la
Ingeniería han sido análogas al viejo adagio que aprendimos en la escuela y que
dice: el aceite y el agua no se mezclan. Hablando en términos metafóricos, así tal
cual como nos enseñaron que el aceite tiene una “fuerza hidrofóbica de largo
alcance” que causa que partículas el aceite dispersas en agua se atraigan las unas a
las otras [1], los círculos académicos pareciesen responder a un principio muy
similar. Por ejemplo, las conferencias en Ingeniería generalmente solo atraen
ingenieros y no a científicos sociales, y viceversa. Igualmente, en la mayoría de las
universidades los departamentos de Humanidades o Ciencias Sociales usualmente
están separados no solo físicamente, sino incluso a veces ideológicamente, de
aquellos de la Ingeniería. Como es de suponer, el hecho de que las “ciencias
blandas” y las “ciencias duras” estudien distintos espectros de la realidad humana
implica que un cierto grado de separación sea inevitable. No obstante, también
existen muchos puntos de intersección entre ambos tipos de ciencias, y de hecho, la
“interdisciplinariedad” tiene una larga tradición en la Ciencia [2]. Incluso, existen
algunas disciplinas que son consideradas “interdisciplinarias” debido a la naturaleza
117
transversal de sus objetos de estudio, tales como la Ciencia Cognitiva, Psicología
Evolutiva, Ingeniería Ambiental, entre otras.
Sin embargo, la “interdisciplinariedad” solo implica una “semblanza” de fusión entre
las disciplinas, pues se refiere a traer al encuentro disciplinas distintas con el fin de
tratar problemas complejos; pero manteniendo claramente los limites entre estas
disciplinas. Hablando en términos metafóricos de nuevo, esta situación es similar al
tipo de emulsiones que se producen si batimos con suficiente fuerza un recipiente
que contenga agua y aceite. Tal y cual como ocurre cuando batimos un aderezo
italiano para ensaladas, la emulsión producida daría una “semblanza” de mezcla por
un tiempo, pero luego el ingrediente aceitoso eventualmente se separará y quedará
depositado al fondo del recipiente. Lo mismo ocurre en un debate interdisciplinario.
Supongamos que se invite a un epidemiólogo y a un politólogo a discutir y dar sus
opiniones sobre la pandemia del SIDA. Lo mas probable que ocurra es que por un
lado el primero hable sobre virología y proyectos para buscar una cura, mientras que
el otro hable sobre la necesidad de implementación de políticas de salud publica dos puntos de vista que, a pesar de que podrían ser igualmente relevantes,
representan opiniones que tratan aspectos y quehaceres separados, no siempre
fusionados.
En este artículo, mi intención es dar un paso más allá de la “interdisciplinariedad” y
proponer una perspectiva alterna de “transdisciplinariedad” en lo que concierne a
Mundos Virtuales. En vez de poner una disciplina al lado de la otra tal y cual como lo
haría un enfoque “interdisciplinario”; la “transdisciplinariedad” implica mas bien una
yuxtaposición de disciplinas, en la cual hay una clara trasgresión entre los limites
disciplinarios [3]. En términos prácticos, una investigación “interdisciplinaria”
normalmente convocaría a investigadores de diferentes disciplinas para estudiar y/o
analizar un problema dado, pero a la final cada investigador contribuiría desde su
campo teórico y metódico compartamentalizado; mientras que un investigador
orientado hacia la “transdisciplinariedad” iría mas allá de los limites de su propia
disciplina e intentaría aprehender al menos una comprensión básica del lenguaje,
teorías y métodos de disciplinas lejanas a la propia, con el fin de llegar a una
comprensión holística del problema.
Aunque pueda parecer una quimera, esta suerte de fusión utópica entre las
“ciencias blandas” y “las ciencias duras”, por muy difícil que pueda parecer, es de
hecho, posible. Consideremos por un momento que descubrimientos recientes sobre
la interacción entre el agua desgasificada y el aceite han demostrado que, luego de
siglos de creer lo contrario, existen pruebas irrefutables de que el agua y el aceite si
se pueden mezclar 7. Por lo tanto, si luego de haber creído por años que “el aceite y
el agua no se mezclan” resulta que “de hecho, el aceite y el agua si se mezclan”,
¿por que razón hemos de creer que las Ciencias Sociales y las Ingenierías no se
pueden mezclar?
Esta es precisamente la premisa en la cual este articulo esta basado, y su principal
propósito es hacer un llamado a la reflexión sobre la necesidad de un cambio
paradigmático que oriente hacia la “transdisciplinariedad” en lo que concierne al
estudio de los Mundos Virtuales. Para cumplir este propósito, en primer lugar me
avocaré a la explicación de las propiedades sociales de los Mundos Virtuales y la
necesidad de que profesionales del área de la Ingeniería y Ciencias de la
Computación los entiendan como ante todo, “Mundos Sociales”. Seguidamente,
propondré al lector un esquema analítico por medio del cual dicha perspectiva
transdisciplinaria podría ser alcanzada.
7
En 2003, el químico Richard Pashley de la Universidad Nacional Australiana demostró por
medio de una serie de experimentos que, al remover las minúsculas partículas de oxigeno y
nitrógeno que se dan naturalmente en el agua, el aceite se mezcla espontáneamente con el
agua y puede permanecer mezclado asi por un tiempo indefinido. Para mayor información
ver [1]
118
1.4.2.Mundos Virtuales como Mundos Sociales.
Los Mundos Virtuales son ambientes persistentes moderados por computadoras [4]
los cuales fueron creados en ciberespacios o espacios computacionales de manera
intencional o espontánea , basados en un diseño premeditado o no [5]. Una de las
características principales de algunos de los Mundos Virtuales (tales como los
juegos online, espacios de encuentro virtual tales como centros comerciales
virtuales, comunidades virtuales, ambientes para el e-trade o comercio electrónico,
etc) es que a través de ellos varios individuos pueden interactuar recíprocamente de
manera simultánea. Siendo el hombre un ser social por naturaleza, este tipo de
Mundos Virtuales claramente se basan en la necesidad humana básica de
interactuar con otros. De allí que una de las principales razones por la cual la gente
participa en ellos es porque estos ambientes de una manera u otra habilitan y
permiten las sociabilidad del usuario como individuo.
No obstante, no todos los Mundos Virtuales posibilitan la sociabilidad de seres
humanos de carne y hueso, algunos de ellos son sólo simulaciones de agentes que
interactúan en un ambiente virtual dado. Incluso en estos casos, los Mundos
Virtuales aun exhiben propiedades sociales: los agentes (bien sea su apariencia y/o
su comportamiento programado por I.A.) son frecuentemente el resultado del
modelamiento de ciertos aspectos de seres humanos reales o imaginarios. En
efecto, para que un agente simule creíblemente a un ser humano, es necesario que
este pueda imitar, por lo menos hasta cierto grado, comportamientos sociales
típicamente humanos. Mas aun, no solamente los humanos y los agentes que
habitan estos Mundos Virtuales exhiben propiedades sociales, sino que también el
ambiente o espacio virtual propiamente dicho suele ser un modelo o una especie de
maqueta construida a semejanza de ambientes o espacios de la vida real [5,6], los
mismos espacios en los cuales los humanos vivimos en sociedad.
En virtud de esto, los Mundos Virtuales casi siempre conllevan una naturaleza social
implícita, bien sea porque sus diseñadores o creadores los dotan de propiedades
sociales o porque los individuos que los habitan son recipientes de sociabilidad
[7,10,11].
De allí que cuando un ingeniero o un especialista en ciencias de la computación
discute, diseña o desarrolla Mundos Virtuales usualmente se ve en la necesidad de
pensar en términos análogos a como, por ejemplo, un Alcalde debería de pensar. En
este sentido, si un programador que este diseñando un Mundo Virtual se pregunta a
si mismo “ ¿Que pasaría si le pongo este o aquel Interfaz Grafico de Usuario
(Graphical User Interface o GUI) para la comunicación entre usuarios?, dicha
pregunta es análoga a la que un Alcalde se haría si piensa “ ¿Que pasaría si la
Alcaldía pasa una nueva ordenanza que restrinja el uso de telefonía celular en tal o
cual área de la ciudad?”. En este caso, tanto el programador como el alcalde
estarían tomando una decisión que tiene repercusiones en la vida social de otros
individuos. De hecho, “ los ingenieros se transforman a si mismos en sociólogos,
moralistas o politólogos en precisamente esos momentos en los que están mas
concentrados en asuntos técnicos” [9], sobretodo porque la mayoría de los aspectos
técnicos que un Mundo Virtual podría contener a la final tendrán influencia en el tipo
de configuración social que este podría tener.
Bajo este contexto, a continuación presentaré un esquema analítico en el cual se
presenta una descripción estratificada de algunos de los aspectos esenciales a nivel
psicológico, social, cultural, político y económico que deben ser tomados en cuenta
cuando se diseña, discute y desarrolla un Mundo Virtual.
119
1.4.3. Niveles de Análisis para el estudio de transdisciplinario de
Mundos Virtuales.
Uno de los principales problemas que surgen cuando se intenta analizar los
Mundos Virtuales bajo una óptica transdisciplinaria es darle respuesta a las
siguientes preguntas: ¿Cuales elementos de los Mundos Virtuales son relevantes
para cuales disciplinas? ¿Con respecto a cual de las varias disciplinas están
relacionados? A mi entender este es un problema que concierne a niveles de
análisis, y una de las maneras de enfrentarlo es comprometiéndose con una serie de
categorías analíticas estratificadas que ayudarían al investigador a organizar y a
localizar los elementos a estudiar. En este sentido, en este articulo utilizaré una
adaptación del “Leveled Program for Cyberspace Research” (Programa Estratificado
para la Investigación del Ciberespacio ) de Hakken [10] a manera de esquema
analítico en el cual las subsiguientes secciones de este articulo estarán basadas
[Tabla 1].
Entidades
Niveles
Ontológico
Identitario
Microsocial
Mesosocial
Macrosocial
PolíticoEconomico
Habitantes del Mundo
Virtual (agentes y
usuarios)
Ambiente
Características
Características
esenciales, de los
esenciales del
usuarios y agentes, etc.
ambiente virtual
Identidad del usuario y la
Variables
el nivel de “self
ambientales para la
awareness” de los
auto identificación ,
agentes
etc
Relaciones diádicas entre
Propiedades sociales
los usuarios y los
del ambiente;
agentes, patrones de
interfases de
interacción humana
interacción entre
programación de la
usuario-usuario,
interacción por I.A.
agente-agente y
usuario-agente etc.
Formacion de grupos y
emergencia de redes
sociales, etc.
Modelamiento de mundos reales, formaciones
ciberculturales, relaciones nacionales y
transnacionales de intercambio entre usuarios,
impacto de los mundos virtuales en el mundo real,
etc.
Las estructuras político-economicas en la cual
estan enmarcados los mundos virtuales al igual
que las que estos producen., etc
Tabla 1. Niveles de análisis para el estudio transdisciplinario de los Mundos Virtuales.
Cuando se estudian mundos virtuales y su diseño, el investigador no
necesariamente debe intentar abarcar todos y cada uno de los tópicos mostrados en
la Tabla 1. El poder analítico de este esquema reside en el hecho de que el
contenido de cada celda de la matriz puede ser enfocado tanto desde las disciplinas
de la Ingeniería y Ciencias de la Computación como de las Ciencias Sociales. Por lo
tanto, dado que los temas claves que dicho esquema presenta podrían ser de
relevancia para ambas disciplinas en cuestión, constituye una alternativa para la
localización de puntos de intersección entre las “ciencias duras” y las “ciencias
blandas” en lo que concierne a los Mundos Virtuales.
En las siguientes páginas explicaré por separado cada uno de estos niveles de
análisis y al final presentaré un caso de estudio que ejemplifica el tipo de
interrelaciones complejas que existen entre ellos. Es importante señalar que dado
que las áreas de formación de los probables lectores de este articulo sean la
Ingeniería y Ciencias de la Computación, intentaré concentrar la discusión en la
120
identificación de algunos de los aspectos subjetivos, psicológicos, sociales,
culturales, políticos y económicos claves para el estudio de los Mundos Virtuales,
con la intención de despertar un verdadero interés transdisciplinario en dichos
lectores. En todo caso, esta reseña debe ser leída mas como una guía sobre la gran
variedad de aspectos humanos de los Mundos Virtuales; no como una descripción
exhaustiva de cada uno de ellos.
El Nivel Ontológico.
ntológico
El termino “ontología” usualmente refiere a las características esenciales, a las
definiciones y componentes constituyentes de un objeto dado. En los Mundos
Virtuales existen dos tipos de entidades esenciales que los constituyen; estas son
sus Habitantes (usuarios y agentes) y el Ambiente ( el cual comprende el espacio
computacional propiamente dicho del Mundo Virtual al igual que la plataforma de
software y hardware en la cual este está sustentado). Aspectos tales como las
definiciones de estas identidades (por ejemplo: “Que es un agente?”, “Que es un
Mundo Virtual?”) pertenecen a este nivel de análisis, al igual que la determinación de
las características esenciales de estas entidades.
En este sentido, cuando se discuten las propiedades o características de
lenguajes de programación, herramientas de software, sistemas de hardware, etc.,
se esta hablando de la ontología del ambiente virtual. Desde el punto de vista de las
Ciencias Sociales, tal y cual como ya se explico anteriormente, los Mundos Virtuales
son conceptualizados en esencia como “espacios sociales” que están localizados
dentro de un espacio computacional. Esto implica que los usuarios actúan dentro del
Mundo Virtual en un “como si” de los lugares en los cuales nosotros los humanos
habitamos físicamente. Mas aun, los usuarios le atribuyen un significado social a
este espacio digital en el cual socializan con otros, dando forma en efecto al
panorama social que constituye la esencia misma de la sociabilidad dentro
del Mundo Virtual [7,11].
En lo que se refiere al estatus ontológico de los agentes, la Ciencia
Cognitiva ya cuenta con una larga tradición en esta área al ser la base para la
programación de agentes; un campo de estudio que comúnmente se conoce
como “Vida Artificial”. Los agentes en los Mundos Virtuales frecuentemente
son definidos ontológicamente de acuerdo al tipo de objetivos, competencias
y roles para los cuales fueron programados. Para una descripción exhaustiva
del tipo de cualidades sociales que las distintas ontologías de agente intentan
imitar, ver Iglesias & Luengo [12] y Gilbert & Troitzsch [13].
El Nivel
Nivel Identitario.
El Nivel Identitario esta relacionado con los aspectos subjetivos y psicológicos de los
usuarios y las identidades que estos asumen dentro de los Mundos Virtuales, con la
programación de “self awareness” en los agentes y con las características
ambientales con las que los agentes y usuarios se autoidentifican al formar parte de
Mundo Virtual.
Desde las Ciencias Sociales, el estudio de los aspectos subjetivos e identitarios de
lo usuarios tiende a gravitar en torno al fenómeno de la “Identidad Virtual”. La
Identidad Virtual es básicamente la Identidad que un individuo asume en el
Ciberespacio. Las investigaciones de Turkle [7] constituyen uno de los primeros
estudios a profundidad sobre las identidades virtuales y, en concordancia con los
postulados de otros investigadores tales como Suler15], sostiene que cuando un
usuario se conecta online, este asume una “persona online”. La fonética del término
“persona” proviene del latín “per/sonare” y refiere al hecho de que, en las obras
teatrales de las civilización griega clásica, este termino estaba asociado a la
121
“mascara” que los actores asumían para interpretar los diferentes roles de la obra.
En este sentido, la “persona online” es una especia de mascara que el usuario usa
cuando este se conecta al ciberespacio. Puede asumir la forma de un “nick” o
“nickname” (sobrenombre), un “login” o un “avatar” o “character” que representa
usuario dentro del ambiente virtual. El usuario luego proyecta contenidos subjetivos
y psicológicos tanto concientes como inconscientes en esta “persona online” y es a
partir de este ser virtual que el usuario se relaciona con los otros virtuales. Los
estudios de Turkle son prolíficos en ejemplos del cómo los individuos proyectan
contenidos psicológicos en sus personas online: a veces sirven tanto para explorar
aspectos del si mismo, lo cual podría conllevar a una integración mental saludable,
reactuar aspectos neuróticos o simplemente descubrir aspectos del si mismo de los
cuales el individuo no tenia plena conciencia. Las posibilidades son infinitas cuando
se trata de la Identidad Virtual: las personas pueden ser lo que ellos quieran ser,
bien sea en forma saludable o disruptiva.
Es por ello que es importante que los diseñadores de Mundos Virtuales entiendan
las bases de la Identidad Virtual : la comprensión de la gran variedad de formas en
las cuales un ambiente virtual dado puede transfigurar y/o reafirmar la personalidad
e identidad de los usuarios podría ayudar a entender sus comportamientos y a
actuar en consecuencia.
Con respecto a los agentes, lo que en Ciencia Cognitiva y Vida Artificial es conocido
como “amenabilidad” (una de las propiedades que un dado agente podría tener, y
que consiste en un nivel de auto conciencia o “self awareness” de su propia
condición de agente e incluye la habilidad para adaptar su comportamiento al
ambiente, auto monitoreo en el logro de objetivos, aprendizaje, comportamiento
operante, entre otras ) es un buen ejemplo de cómo los agentes pueden ser
analizados en el nivel identitario. Todo lo relacionado con los alcances y limites de
la amenabilidad de los agentes, al igual que las implicaciones que estos tienen con
respecto al los propósitos y usos de un Mundo Virtual dado, constituye un punto de
intersección obvio entre temas tradicionalmente pertenecientes a las Ciencias
Sociales ( tales como niveles de agencia o operancia de un individuo dentro de un
grupo social ) y las bases de programación de agentes dentro de las Ciencias de la
Computación,
El ambiente virtual también tiene una influencia directa en el modo cómo los
usuarios se perciben a si los mismos dentro del Mundo Virtual y en la manera cómo
los agentes aprenderían a adaptarse al mismo. Desde un punto de vista de las
Ciencias Sociales, los usuarios tenderán a identificarse con aquellos elementos del
ambiente virtual que sean congruentes con su propia personalidad o que de alguna
manera u otra atraigan su interés. Los usuarios son lo que son y se comportan de
la manera que se comportan en Mundos Virtuales en concordancia con las
características, regulaciones y limitaciones impuestas por el ambiente [15]. En virtud
de esto, la identidad del usuario esta siempre en una constante relación dialéctica
con el ambiente del Mundo Virtual. Por ejemplo, Klastrup y Tosca [16] hacen un
interesante análisis del cómo los aspectos narrativos de ciertos Mundos Virtuales no
solo están directamente relacionados con el tipo de experiencias que los usuarios
tienen en ellos, sino también del como algunos conceptos de planificación de
contenidos, narrativa y “storytelling” pueden convertirse en herramientas útiles para
el diseño de Mundos Virtuales. Esto implica que, para un computista o ingeniero
orientado hacia la transdisciplinariedad y que se encuentre diseñando un Mundo
Virtual, la creación de contenidos inspirados por una comprensión básica de Teoría
de la Narrativa Literaria y/o la comprensión de las bases psicológicas en la creación
de identidades podría ayudarle a responder preguntas tales como : “ ¿Cómo hacer
que mi Mundo Virtual sea de interés sus potenciales usuarios?”, o “ ¿Cuáles
variables ambientales debería de considerar como catalizadoras en la interacción
usuario-agente?”.
122
El Nivel Microsocial .
Las principales áreas de estudio de este nivel de análisis son las interacciones entre
los usuarios y/o agentes al igual que los interfases provistos por el Mundo Virtual
para este fin.
En lo que concierne a los agentes, la Ciencia Cognitiva es de nuevo útil para
comprender el cómo se puede dotar de sociabilidad a los agentes a partir de sus
patrones de interacción con los usuarios y otros agentes. Esto incluye la imitación
del cómo los humanos tendemos a establecer relaciones dialógicas, díadas y triadas
de interacción social, etc.
Lo mismo aplica a las entidades de usuarios, dado que los usuarios suelen intentar
reproducir patrones de interacción de la vida real dentro de los Mundos Virtuales.
Cuando se desarrollan Mundos Virtuales, los diseñadores deberían de ser muy
cuidadosos en incluir dentro del mismo cierto tipo de interfases sociales que faciliten
estos patrones en vez de truncarlos. De hecho, este es probablemente uno de los
aspectos que ha recibido mayor grado de atención en lo que respecta al estudio de
la comunicación mediada por computador a través de una perspectiva
interdisciplinaria e incluso transdisciplinaria. Por ejemplo, empresas como Microsoft
y Apple constantemente invierten en la investigación de las maneras como los
humanos interactuamos los unos con los otros y el modo como organizamos y
recordamos la información; con la intención de diseñar sus GUI en concordancia con
estos principios. En las Ciencias de la Computación existen incluso ejemplos mucho
mas ilustrativos, como por ejemplo el campo de estudio llamado “Social Computing”
(Computación Social), el cual promueve el diseño de interfases sociales basados en
la recopilación de datos etnográficos (un método que tradicionalmente proviene de la
Antropología) sobre el modo en el cual los usuarios interactúan los unos con los
otros y con el interfase; con la intención de garantizar su “usability” (usabilidad) y su
efectividad en la facilitación de la comunicación.
A manera de ilustración de la importancia de este aspecto, consideremos los
siguientes ejemplos de una interfase social fracasado en oposición a una
interfase social exitoso:
a) ¿Cuantas veces Ud. ha recibido email “spam” proveniente de alguien que Ud. no
conoce ni del cual ha oído hablar nada en absoluto, pidiéndole que forme parte
de su grupo de amigos? Mas importante aun, ¿Cuantas veces ha respondido Ud.
positivamente a dicho tipo de mensajes? Este es un buen ejemplo de un interfaz
social fracasado: en la vida real, la gente no esta usualmente acostumbrada a
incluir en su circulo de amigos a alguien que “sale de la nada” pidiéndoselo.
b) ¿Ha notado usted la creciente popularidad que la mensajeria telefónica por
teléfono móvil ha adquirido en los últimos años? ¿Especialmente entre
adolescentes? Pregúntese a si mismo el porqué alguien quisiera escribir un
mensaje desde un aparato que puede ser usado efectivamente para hablar con la
persona con la que se quiere interactuar. Podrían existir varias razones para ello.
Tal vez es mejor escribirle un mensaje a un amigo a las 3 am de la madrugada en
vez de arriesgarse a despertarlo; o tal vez algunas personas son menos inhibidas
cuando están tipeando que cuando están hablando (por ejemplo, pareciese que
hoy en día es mas cómodo para un chico adolescente invitar a una chica a salir a
una cita a través de un mensaje de texto que a través de una llamada). Este es
un buen ejemplo de un interfaz social exitoso.
El ejemplo “a” ilustra un interfaz social diseñado sin prestar atención en lo
absoluto a como los humanos interactuamos los unos con los otros mientras que
el ejemplo “b” ilustra un interfase social diseñado con la intención de atender
necesidades especificas de interacción humana. Una importante lección que
123
aprender de todo esto es que una innovación técnica no necesariamente debe
ser implantada en un Mundo Virtual solo porque sea “innovativa”, “funcional” o
“high tech”. Por el contrario, dado que muchos Mundos Virtuales tienen
específicamente el propósito de facilitar y/o potenciar la interacción humana, la
mayoría de sus características o innovaciones técnicas deberían de ser
pensadas en términos de hasta que punto tales innovaciones son congruentes o
no con la psique humana. Consecuentemente, un diseñador de Mundos
Virtuales orientado hacia la transdisciplinariedad debería de intentar al menos de
comprender en un nivel básico lo que las Ciencias Sociales tienen que decir
sobre el lado humano de la comunicación mediada por computador.
El Nivel Mesosocial.
El nivel mesosocial analiza también las facetas de la interacción humana, pero
desde un espectro mucho más amplio. Cuando un grupo de usuarios y/o agentes
habitan un mismo Mundo Virtual, fenómenos de emergencia de grupos y redes
sociales tienden a emerger. Sobre la base de la gran variedad y la multiplicidad de
interacciones posibles entre los usuarios; se tienden a formar grupos, comunidades,
y otras instituciones sociales. A partir de las relaciones sociales que se establecen
entre los usuarios se da lugar a la emergencia subsiguiente de “redes sociales”, las
cuales constituyen una compleja malla de nexos relacionales entre los usuarios, que
usualmente están superpuestas y/o atadas las unas a las otras. Con el pasar del
tiempo este sistema de relaciones se desarrolla lentamente al mismo tiempo que los
grupos de usuarios contribuyen en la creación y el mantenimiento de normas y
tradiciones grupales, de manera en que se convierten en co-constructores del
Mundo Virtual del cual forman parte. Normalmente, la contribución especifica de un
individuo en la formación de estas redes sociales es casi siempre invisible, de allí
que deben ser vistas mas como sistemas complejos indivisibles, en vez de como
una serie de individuos ligados los unos a los otros [17, 18]. Las redes sociales entre
agentes también podrían ser analizadas en términos similares, y las ya explicadas
propiedades sociales del Mundo Virtual al igual que los interfases sociales incluidos
en los mismos son factores clave para facilitar los procesos que dan origen a estas
redes sociales. Preece [19] insiste que el monitoreo de aspectos de las redes
sociales tales como su comportamiento, patrones de distribución y su masa critica
son de la mayor importancia en lo que concierne a la determinación de los
prospectos de supervivencia que un Mundo Virtual podría tener (como por ejemplo,
determinar la posibilidad de ocurrencia de que un Mundo Virtual dado sea
clausurado porque no tiene suficientes usuarios o porque el grupo social que lo
constituye no es lo suficientemente ameno o atractivo para garantizar la
permanencia de sus miembros). Mas aun, otro tipo de instituciones tales como
identidades sociales, estructuras de liderazgo, patrones de división de tareas, entre
otras, son también indicadores importantes del como los usuarios y los agentes
interactúan con las propiedades sociales del ambiente. En virtud de ello, la
comprensión de estos tópicos informada por conocimientos en Sociología y
Psicología Social podría ser muy útil en el estudio transdiciplinario de los Mundos
Virtuales, especialmente en lo que respecta a la valoración y determinación de qué
tan prolífico este podría llegar a ser.
El Nivel Macrosocial.
124
Usualmente, los Mundos Virtuales son construidos como modelos de mundos reales
o imaginarios, por lo tanto, son construcciones sociales que están contextualizadas
por macro estructuras que los enmarcan.
De hecho, los mundos virtuales comúnmente exhiben características que pertenecen
al background cultural de sus diseñadores y/o usuarios. Por ejemplo, los Massive
Multiplayer Online Role Playing Games -MMORPGs o juegos online de rol
multiusuarios- diseñados en Asia , tales como Lineage o Final Fantasy XI, tienen
una estética visual característicamente distinta a la de otros MMORPGs americanos
u europeos tales como Star Wars Galaxies.
Además, dentro de los mundos virtuales también emerge lo que en Antropología
Cultural se denominan“formaciones ciberculturales” las cuales refieren al hecho de
que los usuarios tienden a desarrollar practicas culturales que son especificas al
Mundo virtual en cuestión, tales como costumbres, rituales e incluso dialectos
usados para designar o significar elementos específicos de las
“ciberexperiencias”[17,21]. Bajo este contexto, Escobar [21] define el termino
“cibercultura” como “las construcciones y reconstrucciones culturales sobre las
cuales las nuevas tecnologías están basadas al igual que las que a su vez, son
producto de tales tecnologías”. El autor sostiene que artefactos tecnológicos tales
como los Mundos Virtuales son, básicamente, invenciones culturales en el sentido
en que son tecnologías que dan lugar a nuevos espacios en los que ciertos
contenidos culturales pueden ser (re)producidos. Los Mundos Virtuales emergen
dentro de un marco cultural y estos a su vez, dan origen a nuevas situaciones
culturales y sociales dentro de ellos. Es por ello que es necesario considerar el
background cultural de los usuarios que potencialmente habitarán el Mundo Virtual;
pues las características del Mundo Virtual en si mismo y el grado de atracción que
este pueda ejercer sobre sus usuarios son elementos que no pueden estar aislados
en lo absoluto de las macro estructuras culturales, nacionales y trasnacionales que
les sirven de contexto.
Otro tipo de consideraciones macrosociales refieren al impacto que un Mundo Virtual
dado pueda tener sobre la realidad humana. En este sentido, Kunii [5] hace una
seria advertencia acerca del peligro de desatender esta área. El autor afirma que los
Mundos virtuales “pueden llegar a un estado caótico y fuera de control, poniendo en
peligro el mundo real … este creciente impacto que tiene los mundos virtuales pone
en evidencia la necesidad de construir una firme disciplina en torno a ellos”. Mi
opinión al respecto es que la transdiciplinariedad es una vía valida para crear no
necesariamente una nueva disciplina en si misma, pero por lo menos para llegar a
una comprensión holística sobre los efectos que los Mundos Virtuales puedan tener
sobre los mundos reales. Además de la comprensión de los aspectos técnicos de los
Mundos Virtuales, también es esencial tener una firme comprensión de sus
implicaciones históricas, culturales, sociológicas y psicológicas si se quiere tener
algún grado de agencia o control sobre el impacto de los mundos virtuales en la
realidad humana.
El Nivel PolíticoPolítico-Economico.
En estrecha relación con el tema anterior, este nivel de análisis esta relacionado con
las estructuras políticas y económicas que los Mundos Virtuales (re)producen y
dentro de las cuales estos están constreñidos. Esto incluye los marcos legales que
los sostienen y regulan, los modelos de negocios en los cuales están basados
(sobre todo en lo que respecta a Mundos Virtuales con fines comerciales), las
estructuras corporativas, institucionales o gubernamentales dentro de las cuales
existen, al igual que las economías virtuales que florecen en ellos.
Estos tópicos dependen en gran medida del tipo de mundo virtual al igual que de las
características particulares del entorno político económico en el cual están
125
contextualizados, hasta el punto de que no es tarea fácil presentar siquiera una
breve reseña general de este nivel de análisis. En virtud de ello, en la siguiente
sección de este articulo presentaré un ejemplo de estudio de casos en el que el
lector podrá vislumbrar como no sólo este nivel de análisis, sino todos los demás ya
explicados están entrecruzados los unos con los otros.
Caso:
Caso: el sentido de propiedad en los MMORPGs.
Recientemente, las disciplinas que estudian la legislatura y las leyes han venido
desarrollado un creciente interés en los ¨Massive Multiplayer Online Role Playing
Games” ( Juegos Online de Rol Multiusuario o simplemente, MMORPGs), tales
como “World of Warcraft” o “Star Wars Galaxies”, en parte debido a un tema
importado directamente del mundo real: el sentido de propiedad.
Los MMORPGs son espacios complejos, cuya complejidad puede incluso a veces
asemejarse de manera sorprendente a la complejidad el mundo real. En este
sentido, Castronova [22] es bien conocido al haber escrito muchas paginas sobre
las similitudes entre las economías del mundo real y sus homologas virtuales; hasta
el punto de sugerir que los MMORPGs pueden ser vistos como si tuvieran
economías reales poseedoras de indicadores estadísticos que cubren actividades
tales como la producción, mano de obra, ingresos y egresos, inflación, comercio
foráneo y tasa de cambio. Por lo tanto, a pesar de que los MMORPGs son tan solo
juegos destinados a la recreación del usuario, estos juegos igualmente poseen
economías complejas potenciadas por sus usuarios, en las cuales las bases de los
principios capitalistas son aplicados con el fin de distribuir recursos y riquezas.
En virtud de esto, en un mundo en el cual existen de hecho “divisas” para el
comercio de bienes (incluso, también ocurren practicas comerciales milenarias
tales como el intercambio de bienes) es natural que sus usuarios empiecen a sentir
que son ¨dueños¨ de todo lo que han comprado con dinero digital. Mas aun, si se
puede comerciar con lo que “se es dueño” dentro del Mundo Virtual, entonces
también se puede comerciar con ello fuera de él … y con dinero REAL ( Dólares,
Euros, Yenes, etc.). En efecto, si la gente ha venido haciendo comercio con
propiedades intelectuales por décadas, entonces ¿porqué no comerciar con la
“propiedad virtual”?. De hecho, el comercio de propiedades virtuales ya esta
ocurriendo y moviliza enormes cantidades de dinero en el mundo [23]. Invito al
lector a indagar un poco mas sobre este asunto, intente buscar en sitios de
subastas online tales como eBay la venta de propiedades virtuales y así podrá tener
una perspectiva: el precio de compra del software de un MMORPG oscila entre 40 o
50 dólares, mas un pago mensual de 12 o 15 dólares, pero la venta de un avatar o
“character” nivelado hasta el tope permitido por el juego y poseedor de objetos muy
poderosos o difíciles de obtener, podría estar siendo vendido en eBay por alrededor
de 3000 dólares o mas. Castronova [22] incluso sostiene que juegos de este tipo
tales como Everquest tienen un ingreso per cápita y un PTB mayor al de ciertos
países pequeños en el mundo.
Ahora sobreviene la pregunta ¿Por qué un ingeniero o programador que este
desarrollando un MMORPG debería de preocuparse por un tema como el del
sentido de propiedad? La respuesta a esta pregunta radica en que, este tipo de
practicas concernientes con el comercio de propiedades virtuales, no solo permiten
que los usuarios obtengan una ganancia económica sobre la cual el desarrollador
no recibe porcentaje alguno, sino también porque la economía del juego en si
misma podría ser alterada por este tipo de fuerzas de mercado externas [23]. En
efecto, los desarrolladores de MMORPGs si se preocupan por este problema
porque en respuesta de ello , incluyen dentro de los EULA ( End User License
Agreement o Acuerdo de la Licencia del Usuario Final) o los TOF (Términos bajo los
cuales se presta el Servicio) del software ciertas cláusulas especificas que
126
establecen que la casa desarrolladora del juego es dueña de todo lo que es
producido dentro del MMORPG; un acuerdo legal que a su vez esta enmarcado
dentro de la constitución y las leyes del país en el cual esta localizada la compañía
desarrolladora del software. El usuario juega el juego constreñido por este tipo de
estructuras jurisdiccionales, en donde el juego se provee a manera de un servicio
en el cual, a pesar de ser capaz de crear y modificar contenidos dentro del mismo,
el usuario no tiene ningún derecho de reclamar como propia ningún tipo de
propiedad virtual.
En este punto, se puede ya empezar a vislumbrar las repercusiones que el
problema de la propiedad virtual tiene sobre el nivel político-económico . Mas aún,
también tiene repercusiones en el nivel macrosocial. Consideremos, por ejemplo,
que los objetos y el contenido creado por los usuarios son una parte integral de la
riqueza cibercultural del MMORPG, y que debido a su valor existen incluso ciertas
compañías dedicadas a acumular dinero digital de varios MMORPGS, al igual que
objetos y “characters” con valor agregado, para luego venderlos por dinero real en el
mundo real (por ejemplo, www.ige.com). Otro ejemplo extremo de como este
problema podría afectar la vida real radica en el numero creciente de crímenes
relacionados con MMORPGs, tal cual el caso ocurrido en China en el cual un
jugador asesinó a otro jugador amigo por haber vendido sin su consentimiento una
espada virtual que le pertenecía [23].
Es mas, una de las raíces del problema podría ser encontrada si lo examinamos a
través del nivel identitario de la entidad del usuario. Los jugadores de MMORPGS
usualmente sienten subjetivamente de que ellos son dueños de la identidad virtual
de su “character”online, al igual que todos los objetos que este posee y el contenido
intangible que el usuario ha venido creado en torno a su persona online. Esto a su
vez es dependiente de la gran cantidad de redes sociales en las cuales el usuario
esta insertado (lo cual corresponden al nivel micro y mesosocial) puesto que el valor
subjetivo de un objeto y/o del “character" siempre es dependiente y relativo al capital
social y a las estructuras mesosociales que le asignan este valor.
Este tema del contenido creado subjetivamente por los usuarios es uno de los
aspectos que presenta las mayores dificultades cuando se trata de establecer
limites legales con respecto a quien es dueño de qué dentro de los MMORPGs:
¿Cómo se puede pretender que un usuario, que ha pasado incontables horas
creando un “character”, creando una narrativa en torno a el mismo, estableciendo
relaciones sociales a través de él y modificando con ideas originales el Mundo
Virtual que le fue “prestado” a manera de un “servicio” por el desarrollador del juego;
no tenga ningún derecho en los absoluto sobre su creación? [23]
La respuesta a esta pregunta radica en torno a una discrepancia básica entre la
manera como los desarrolladores del juego conciben la ontología del Mundo Virtual
en oposición a como sus usuarios la tienden a concebir. Si le preguntamos a un
desarrollador el porqué este piensa que debe ser dueño de los contenidos creados
por los usuarios, probablemente responderá que la casa de software simplemente
esta proveyendo un servicio, en el cual se le “presta” al usuario un Mundo Virtual y
un “character” virtual para que el usuario los use, no para que el usuario se adueñe
de el. No obstante, si por otro lado le preguntamos a un “ebayer” (un jugador que
compra y/o vende en eBay) el porqué el piensa que tiene el derecho de vender su
“character” virtual, este probablemente dirá que no es el “character” propiamente
dicho lo que esta vendiendo, sino mas bien el tiempo invertido en crearlo ( por
ejemplo, el tipo de “character” de MMORPG que se venden por miles de dólares en
eBay solo pueden ser construidos y nivelados hasta ese punto luego de varios
meses o incluso años de arduo trabajo con los mismos). Además, no
necesariamente es sólo un problema de tiempo invertido en la construcción del
“charácter”, sino también una cuestión del valor subjetivo y psicológico que el
usuario le ha atribuido a su persona online. Por eso, no siempre un usuario estaría
de acuerdo en la suposición de que el MMORPG es tan solo “un servicio que le esta
127
siendo prestado”; por el contrario para un gran numero de usuarios el MMORPG es
mucho más que eso, pues es también un espacio social que posee un significado
subjetivo cuya intangibilidad escapa del control del desarrollador y/o de la casa de
software.
De allí que la esencia del problema del “sentido de propiedad” sobre la “propiedad
virtual” resida en el nivel ontológico, puesto que es el resultado de una simple
incongruencia entre la concepción que los desarrolladores del juego tienen sobre el
MMORPG versus la concepción que la mayoría de los usuarios pueden llegar a
tener sobre el mismo. Esta es una incongruencia ontológica que, como se habrá
podido vislumbrar en este estudio de caso; no solo tiene resonancia sobre todos
demás niveles de análisis del esquema presentado en este articulo sino que también
plantea la necesidad de reexaminar las concepciones tradicionales que se tienen de
los Mundos Virtuales. Como ya se mencionó anteriormente, el hecho de que ya
hayan ocurrido casos en que un usuario asesine a otro en la vida real a razón de
una “propiedad virtual” es evidencia de que el problema del “sentido de propiedad”
que un usuario puede llegar a tener sobre contenidos virtuales no siempre debería
ser tomado a la ligera por aquellos que estén interesados en el estudio o en el
desarrollo de los Mundos Virtuales.
Este ejemplo pretende ser tan solo uno de las tantas posibles ilustraciones sobre
el tipo de problemas complejos que los Mundos Virtuales presentan y que no pueden
ser enfrentados efectivamente a menos que el investigador o el desarrollador adopte
una perspectiva transdisciplinaria. Debido al problema de la propiedad virtual,
actualmente los profesionales provenientes de la ingeniería y ciencias de la
computación que estén interesados en desarrollar Mundos Virtuales deberían de
interesarse también en comprender por lo menos a un nivel básico las teorías
existentes sobre las economías virtuales, teorías sociológicas acerca de la
apropiación cultural al igual que en las leyes de copyright y demás aspectos
relacionados.
1.4.4. Conclusión:
Conclusión: Sobre el uso de este esquema.
esquema.
Como ya se explicó anteriormente, el esquema de análisis presentado en las
paginas anteriores es tan solo un intento en la explicación del cómo ciertos
aspectos relevantes en el estudio de los Mundos Virtuales podrían ser localizados
dentro de una perspectiva transdisciplinaria. De hecho, no puede ser mas que una
alternativa dentro de muchas otras, básicamente porque lo explicado en este articulo
tiene, en esencia, un carácter selectivo. Debido a limitaciones en la extensión de
este escrito, al igual que mis propias limitaciones e inclinaciones en el conocimiento
de ciertos aspectos de los Mundos Virtuales (en oposición a otros que son mas
lejanos a mi área de especialidad) este articulo solo pudo presentar una pequeña
muestra de la amplia gama de temas que podrían ser estudiados bajo un una óptica
transdisciplinaria. Mi intención es invitar al lector a usar este esquema analítico a
manera de herramienta guía en la localización e identificación de aspectos claves
para sus propios proyectos de investigación y/o temas de interés, para luego intentar
alcanzar su propio enfoque transdisciplinario a partir de allí. Las referencias
bibliograficas citadas en este articulo ya contienen de por si una gran variedad de
aspectos alternativos a estudiar en los Mundos Virtuales, y existen muchos otros
para aquel que tenga una mente curiosa.
En virtud de esto, este articulo tiene el propósito de ser tan solo uno de muchos
otros pasos iniciales necesarios para incentivar y propiciar un cambio paradigmático
urgente en la manera como se han venido estudiando los Mundos Virtuales; hacia
una nueva óptica en la que sus investigadores y desarrolladores estén mucho mas
dispuestos a transgredir sus limites disciplinarios y aprender sobre lo que otras
128
ciencias y disciplinas lejanas tienen que decir en lo que respecta a temas de estudio
en común. Si, después de todo, resultó ser que el aceite y el agua si se pueden
mezclar, entonces es probable que algún día las “ciencias blandas” y las “ciencias
duras” también se puedan fusionar … por lo menos en lo que respecta a la
comprensión holística de los Mundos Virtuales.
1.4.6.Referenc
Referencias
Referencias Bibliograficas
[1] Nowak. Rachel. “Oil and Water do mix after all”, New Scientist, Melbourne, Accesado en:
http:// www.newscientist.com/article.ns?id=dn3408 , 2003.
[2] Morillo F., Bordons M., Gómez I. , “Interdisciplinarity in science: A tentative topology of
disciplines and research areas “. Journal of the American Society for Information Science and
Technology. Wiley Periodicals, Inc.. Volume 54, Issue 13, 2003. Pages 1237-1249
[3] Nowotny. Helga. “The Potential of Transdisciplinarity”. Interdisciplines, France, Accesado
en: http://www.interdisciplines.org/interdisciplinarity/papers/5/24#_24, 2006.
[4] Bartle, Richard “Pitfalls of Virtual Property” . The Themis Group . Accesado en:
www.themis-group.com 2004.
[5] Kunii Tosiyasu, “The Potential of Cyberworlds – an Axiomatic Approach-“ .2004
International Conference on Cyberworlds (CW’ 04). Conference Procedings. 2004 Pages 2-7.
[6] Kunii Tosiyasu, “Cyberworld Modeling Integrating Cyberworlds, the Real World and
Conceptual Worlds “ .2005 International Conference on Cyberworlds (CW’ 05). Conference
Procedings. 2005 Pages 3-1
.
[7] Turkle, Sherry Life on the Screen : Identity in the Age of the Internet. Simon & Schuster.
New York, USA. 275 p.
[9] Callon, M. “Techno-economic Networks and Irreversibility”. En J. Law (Ed) Sociology of
monsters: Essays on Power, Technology, and Domination. London, Routledge. 1991. pp 5168.
[10] Hakken, David. Cyborgs @ Cyberspace: An Ethnographer looks to the Future.
Routledge, New York. 1999. 264 p
[11] Salazar, Javier. “Cybontology: The Ontology of the Online Being and the (re)allocation of
the notion of the “cyborg”. II Congreso Online del Observatorio para la Cibersociedad. CDROM. 2004.
[12] Iglesias A, Luengo, F. “Intelligent Agents in Virtual Worlds“ .2004 International
Conference on Cyberworlds (CW’ 04). Conference Procedings. 2004 Pages 62-77.
[13] Gilbert, N., Troitzch, K. Simulation for the Social Scientist. Open University Press. 2005.
375 p.
[14] Suler, J. Psychology of Cyberspace. Rider
www.rider.edu/users/suler/psycyber/ psycyber.html 1996.
University.
Accesed
at:
[15] Salazar, Javier. “On the Ontology of MMORPG Beings: A theorethical model for
research”. Digital Games Research Association Conference Changing Views : “Worlds in
Play” 2005 (DIGRA 2005). Conference Proceedings. CD-ROM.
[16] Klastrup, L., Tosca, S. “Transmedial Worlds: Rethinking Cyberworld Design“ .2004
International Conference on Cyberworlds (CW’ 04). Conference Procedings. 2004 Pages
409-416.
129
[17] Salazar, Javier. Social Identity (re)production in Virtual Communities: the Case of the
Star Wars Galaxies MMORPG. Tohoku Gakuin University, Human Informatics Division.
Japan, 2006. 110p.
[18] Taylor, T.L., Jakobsson, M. "The Sopranos Meets EverQuest: Socialization Processes in
Massively Multiuser Games". Digital Arts and Culture (DAC) 2003 Streaming Wor(l)ds
Conference Proceedings, Melbourne, Australia, 2003.
[19] Preece, Jennifer. Online Communities: Designing Usability and Supporting Sociability.
John Wiley and Sons. 2002. 343 p.
[20] Squire, K & Steinkuehler, C. Generating Cybercultures: The Case of Star Wars Galaxies.
Languages and cultures of the Internet. (2004)
[21] Escobar, Arturo. “Welcome to Cyberia: Notes on the Anthropology of Cyberculture”. In
Bell & Kennedy (eds): The Cybercultures Reader.Routledge, 2001, pages 56-76.
[22] Castronova, Edward. “On Virtual Economies”. Game Studies, The international journal of
computer game research.. Volume 3, Issue 2. Accesed at : www.gamestudies.org, 2003.
[23] Salazar, Javier. “Who owes (or owns?) what to whom ? :Ownership of Player Created
content in MMORPG.
. Vol. 10, 2005. Pages 15-

Documentos relacionados

Leer más... - UN Virtual

Leer más... - UN Virtual Proceedings; Virtual Worlds , Conferencias organizadas por la Universidad Leonard D’ Vinci y Springer Verlag Lecture Notes on Artificial Intelligence (1998-2000) ; CAST 01 , Conferencia organizada ...

Más detalles