Capitulo 1 - UN Virtual
Transcripción
Capitulo 1 - UN Virtual
16 Capitulo 1 Mundos Virtuales Definiciones Multidisciplinarias.. 17 1,1, Dimens Dimensión ión Virtual (Por comparación a una Dimensión ‘natural’ o física) Bernardo Uribe Mendoza Instituto de Investigaciones Estéticas, Universidad Nacional de Colombia 1.1.1.Definiciones Generales. En 1998 el ensayista y arquitecto John Beckman propuso definir la nueva dimensión virtual producto de las transformaciones tecnológicas de esa década, tanto en el campo de la world wide web WWW como en el de la ciencia computaciónal en general - pero más específicamente en el de computación gráfica ( la realidad virtual) por comparación o extrapolación con la dimensión física o ‘natural’. En el cuadro 1 se reúnen los puntos que Beckman señaló sobre ésta nueva dimensión virtual y las extrapolaciones de corte futurista que identificaron la literatura ensayística en ese momento, bastante optimista frente a las nuevas tecnologías, y su influencia inmediata sobre los cambios sociales e históricos correspondientes. Cuadro 1. Puntos que diferencian una envolvente espacial o topología arquitectónica virtual de una físico-matérica o ‘natural’. 18 Superficie Instrumentalizada. ( Interfase en vez de forma). La arquitectura tradicional define el espacio por ‘enovolventes’ o cerramiento entre un espacio interior y un espacio exterior el cual tiene una extrapolación social : el espacio exterior es libre y definido por la naturaleza y en la sociedad contemporánea se define como ‘público’ dentro de un marco jurídico – ideológico colectivo . Esta envolvente esta compuesta por superficies (fachadas/ paredes) por medio de las cuales se produce afectaciones al comportamiento y presencia corporal individual y colectiva. En la ‘arquitectura digital’ las superficies adquieren un nuevo carácter instrumental pues no simplemente separan el espacio interior del exterior sino que se convierten en interfases y en ‘inmersivas’. Horizonte de Eventos, ( acciones -softwaresoftware- en vez de objetos físicos) La superficie pantalla, monitor o proyección es una interfase que puede contener herramientas ‘ópticas y ápticas. Entendiéndose por ópticas las herramientas inherentes a las visualizaciones de objetos , ambientes o entidades digitales y ‘apticas’ ( del alemán haptisch) aquellas inherentes a entidades digitales no susceptibles de ser visualizadas como son las fuerzas de acción-reacción en las interfases ligadas a los sentidos de la propiocepción corporal . La riqueza de éstas excede aquellas correspondientes a las propiedades físicas de la superficie pared/ cerramiento o fachada envolvente definidas ante todo como protección ambiental en su sentido natural y social físico en la arquitectura físico-material en la arquitectura urbana convencional. Una Mirada sin Centro (a(a-perspectiva/ aa-sincrónica) El espacio 3d de navegación en las proyecciones inmersivas de realidad virtual tiene características diferentes a las del recorrido corporal físico del espacio, el cual es guiado por la visión, y esta por las leyes físicas de la óptica entre las cuales se destacan las leyes de la perspectiva. El modelo de la visión natural es definido por la física óptica y por la geometría perspectiva. Aunque la simulación del espacio en la realidad virtual ha pretendido emular el modelo físico y geométrico de visión, al proponer la navegación del espacio virtual por medio de un ‘viewpoint’ o punto de vista simulado, y en el caso de la estereoscopía inmersiva’ 2 puntos de vista proyectados alternadamente para cada ojo, tiene particularidades definidas por la interfase como tal, la mayoría de las cuales está copiadas de la captura del espacio físico por medio de la lente de una cámara : paneo, zoom, ángulo del campo de visión etc. Cada punto de vista puede ser editado y modificado por lo cual la visión perspectiva se multiplica y se corta. Estos cortes de ‘edición’ alternan o incluso permite mostrar simultáneamente perspectivas diferentes del objeto o ambiente visualizado. Espacio Riemmaniano. Los cortes y la edición en la navegación del espacio o visualización del objeto digital llevan a proponer a Beckman que la dimensión virtual contiene una multidimensionalidad que no es posible definir por la geometría euclidiana. El estudio de la dimensión virtual con una geometría diferente supone comprender y medir de algún modo esta multidimensionalidad. Según Beckman la geometría riemmaniana usa un método de calculo de superficies multidimenisonales complejas el cual es susceptible de proyectar a la envolvente discontinua y morfogénetica de 19 la navegación en los ambientes virtuales también. En la geometría riemmaniana las superficies curvadas e irregulares son aproximadas a una descripción de la superficie compleja por medio de su subdivisión en u unidades simples tresdimensionales convencionales o euclídeas susceptibles de medir. En un ambiente Virtual los sucesivos puntos de vista de la cámara o punto de vista virtual aunque configuran una navegación resultante compleja del espacio simulado y a este como un todo multidimensional, éste es visualizado por el usuario de manera simple por medio de una simulación de las leyes de la óptica perspectiva 3d en cada momento (singularidad) de la visualización. Arquitectura Fluida. La arquitectura de las visualizaciones por medio de plataformas de multimedia como la realidad virtual se configura por medio de las ‘leyes’ correspondientes a la multimedia : la imagen emitida por diversos medios y la imagen en movimiento que evolucionó de la fotografía al cine 2d y en la realidad virtual a la estereoscopía y las herramientas apticas inmersivas. Estas leyes son de orden narrativo, secuenciales y relacionadas con plataformas de emisión e inmersión. En este sentido se opone como escenario de experiencias corporales individuales o colectivos a una topología de ‘envolvente’ corporal estática y/o mecánica propia a una arquitectura urbana o edilicia . Espacio ‘Conector’ . El espacio virtual es definido como un escenario de interacción social. El espacio arquitectónico edilicio o urbano no es solo un espacio de interacción social o de comunicación sino que es ante todo un espacio definido por una envolvente de protección ambiental y corporal y de control . Su propósito es el de controlar fuerzas físicas como el clima y fuerzas sociales como las esferas de los público y lo privado, definiendo esferas por lo íntimo y lo social, lo cubierto o descubierto, lo cerrado o abierto. El espacio virtual es definido en cambio, en tanto como interfase por un sistema de red e interacción dentro de una plataforma diseñada y desarrollada para la comunicación interactiva. Espacio de Observación ( Visualizaciones). El espacio virtual es habitable en un sentido diferente del espacio físico. La presencia física del cuerpo esta mediada por las interfases en un espacio virtual. Dentro de éstas, las que integran las correspondientes a las visualizaciones son las principales. Por otra parte el entorno virtual de la red tiene un carácter comunal y social por el cual el usuario introduce para observación colectiva su presencia digital. ( Avatar, agente etc) Forma que se Forma (Morfogénesis) Inherente a las plataformas avanzadas de programación es su desarrollo basado en los enfoques de complejidad o ciencias de la vida. La dimensión virtual está impregnada de estas búsquedas y desarrollos en los campos de la vida y la inteligencia artificial. La dimensión virtual se enfoca sobre esta perspectiva desde campos de desarrollo como son los ambientes evolutivos en los cuales se emula el proceso de la vida y la evolución. En las extrapolaciones teóricas conocidas del científico y pensador Hans Moravec, la perspectiva de vida computacional se lleva a horizontes incluso como el de sugerir una nueva biosfera artificial para la inteligencia en el Universo y la evolución de la inteligencia . Cuerpo Cristalino. 20 El desarrollo de la ciencia computacional en las últimas décadas del Siglo XX fue paralelo al desarrollo de las nanotecnologías. Las interfases mecánicas y electrónicas actuales están evolucionando hacia implantes sensoriales ópticos y apticos de escala nanotecnológica. Mas allá de este desarrollo las actuales interfases mecánicas y electrónicas, particularmente en el campo de las implementaciones de realidad aumentada amplían o complementan el espectro sensorial de la percepción corporal y del espacio externo. 1.1.2.Construcción de Mundos Virtuales Habitables. Los aspectos de una dimensión virtual definen unos parámetros o marcos generales de acción al investigador y desarrollador en el campo de la implementaciones de realidad virtual y de programación computacional compleja. Particularmente con los desarrollos de la realidad aumentada se han cristalizado los aspectos señalados por Beckman como constitutivos a la creación de mundos virtuales: Cuadro 2. Marco de referencia para la creación de espacios virtuales según John Beckman. Complementación y síntesis de imágenes digitales y objetos físicos en la ‘memoria espacial’ del usuario. Con la realidad aumentada los límites entre la experiencia sensorial del espacio físico y el espacio residual subjetivo en la memoria del usuario , el cual es estimulado por medio de interfases en los sentidos de propiocepción corporal u ópticos, son en la actualidad difusos o se definen como un estado de transición. La oposición habitual entre real y lo imaginado, entre lo vivido y lo narrado encuentra en diversas experiencias en ambientes virtuales interrogantes y aspectos a resolver. Por ejemplo en los ambientes colaborativos 3D de avatares (humanos artificiales simulados) los usuarios desarrollan interacciones sociales que efectivamente transforman esferas de su vida cotidiana como la económica, la social, la cultural etc no obstante que estas actividades son desarrolladas sobre una plataforma digital. En un sentido más básico de la experiencia subjetiva y del espacio, interfases y plataformas digitales permiten aprehender rangos del entorno natural y/o social mezclados o ‘mixtos’ pues a la percepción y experiencia sensorial ‘natural’ se agrega una artificial la cual abre facetas artificiales simultáneamente con las facetas corporales físicas convencionales. Por ejemplo el video de alta densidad, los mapas conceptuales de simulación de objetos y situaciones, la sincronización de productos y contenidos de multimedia por medio de sistemas de captura, reconocedores o visión artificial transforman el rango de la experiencia del ambiente natural y el ambiente artificial como opuestos en complementarios y simultáneos. 21 Por otra parte el espacio artificial soportado por medio de plataformas de realidad virtual, mixta y/o aumentada se diferencia de otros productos de multimedia que transmiten la imagen cinemática como el cine en el rango abierto que provee la interacción con los entornos digitales. El espectador transformado en usuario puede regular una forma de presencia en el ambiente virtual, la cual permite a Beckman proponer que los ambientes virtuales son ‘habitados’. No son una reproducción de un espacio o situación originaria en el sentido de los medios convencionales como el cine y la TV. RV : El Paradigma Inmersivo: El paradigma inmersivo en la realidad virtual es definido por la representación animada por medio de imágenes cinemáticas (30 imágenes por segundo) de espacios y objetos simulando en tiempo real las 3 dimensiones del espacio natural, las cuales son navegadas por una cámara ( o 2 en el caso de la estereoscopía). A esta experiencia definida como ‘visualización’ tresdimensional simulada de un objeto o espacio se añaden las sensaciones ápticas de los objetos y espacios como la sensibilidad táctil, las fuerzas inversas , o la temperatura y los olores, con los cuales se propende temporalmente sustituir las señales corporales equivalentes del mundo exterior . Con propósitos diversos, prácticos o estéticos . El paradigma inmersivo de la realidad virtual y sus interfases mas conocidos : HMD (head mounted display) y Data Glove identificaron los desarrollos de la realidad virtual en la primera mitad de los 90.s Cuadro 3. Diagrama de Didier Verna presentado en la conferencia Virtual Worlds de 1998 en los cuales establece un diagrama en el cual representa el paradigma inmersivo de la realidad virtual por medio del cual agentes virtuales estimulan y suplantan el agente físico en la percepción espacio temporal de parte del usuario. 22 Fig 1. Representación 3d en un ambiente 3dimensional de realidad virtual de un ‘dataglove’ el cual cuenta además con exo-esqueleto para simular además de las experiencias táctiles por medio de vibraciones en las yemas de los dedos, las fuerzas en los objetos digitales por medio de la implementación de fuerzas inversas por medio de hardware. Estereoacopía ‘Inmersiva’ Los primeros desarrollos de la estereoscopía para la implmentación de un paradigma inmersivo de realidad virtual se concentraron sobre todo en las interfases HMD (head Mounted Dsiplay) en las cuales la rpresentación del ambiente virtual era sincronizado en 2 imagenes separadas para cada ojo del usuario y sensores de posicionamiento sincronizan el punto de vista del usario con la visualización del ambiente virtual. 23 Fig 2. Intefases inmersivas de realidad virtual estereópticas HMD. El sistema de rastreo del punto de vista del observador o usuario se ha elaborado hasta incluir no solo el movimiento del punto de vista por medio de la posición de la cabeza como en las interfases en los 90s sino que por medio de reconocedores ópticos se calibra y sincroniza el punto de vista de las pupilas. Las interfases HMD han perdido popularidad en la presente década pues aun en los modelos con altas especificaciones la resolución de la imagen es relativamente baja (1200 x 800) comparados con otras interfases de estereoscopía inmersiva. Aparte de lo anterior con la aplicación de las técnicas de realidad virtual al campo del diseño y la industria y la ciencia en visualizaciones para grupos de trabajo, saliendose del entorno inicial habitual del trabajo en los labs de realidad virtual, se incentivado el desarrollo de los CAVE o cuartos inmersivos para visualizaciones de alta definición ( hasta 3800 X 3200 pix) usando proyectores estereoscópicos 3D sincronizados con lentes en el caso de los sistemas activos. Los Cave y Power Wall permiten compartir las visualizaciones de realidad virtual por grupos de trabajo que varía de acuerdo al tamaño de las proyecciones. Estereoscopía Pasiva para ‘Power Walls . La estereoscopía inmersiva se ha desarrollado mediante 2 técnicas: la polarización de una imagen única ( 30 imag/ seg) la cual es denominada como estereoscopía 24 pasiva y la sincronización de 60 imag/ seg en las cuales cada ojo percibe alternadamente 1 imagen diferente ( 30 por cada ojo) lo cual se denomina estereoscopía activa). Fig 3. Configuración típica para estereoscopía inmersiva pásiva para ambientes de realidad virtual. Pantalla polarizadora de proyección anterior o posterior. Vidrio Polarizador. Proyector 3D . Tarjeta estereoscópica 3d de video en la UPC y anteojos polarizadores. 25 Fig 4. Vista superior : sistema simplificado de estereoscopía pasivo para ‘Power Wall’ en el cual es posible usar proyectores convencionales ( Video-beam) por medio de la implementación de un desmultiplexador de video , el cual descompone la imagen estereoscópica de la tarjeta de video de la UPC en una imagen polarizada para implementaciones de power wall en ambientes de trabajo. Vista inferior. Proyectores estereoscópicos 3d pasivos pero sincronizados para una visualización de muy alta resolución para entornos de diseño. Estereoscopía Activa . 26 Fig 5. Esquema de la arquitectura de un sistema de estereoscopía activa para ‘Power Wall’ o CAVE en el cual la imagen estereoscopica de la tarjeta de video de la UPC es proyectada sincronizada con un difusor infrarrojo para activar la obturación secuencial de los lentes de cristal liquido para subdividir y alternar las 60 imágenes por segundo para completar las 30 imágenes correspondientes a cada ojo. Fig 6. Vista superior. Comparación de las especificaciones de los 3 sistemas de proyección de estereoscopía activa y pasiva para ‘Power Wall’ o CAVE . Especificaciones de la firma comercial Barco Systems para los 3 tipos de proyectores estereoscópicos 3d. Vista inferior: detalle de un proyector DLP con proyección pasiva. Software Power Wall / CAVE: Rastreadores . La interactividad con el ambiente virtual en el caso de los power wall y cave con amplio desarrollo reciente son los sistemas de rastreo , por medio de los cuales el usuario o los usuarios se sincronizan con el ambiente 3d visualizado. 27 Fig 7. Software para rastrear el movimiento del usuario dentro de un CAVE . As a user’s head moves, turns or tilts in a virtual environment, the computergenerated image he sees must continually update accordingly with no noticeable lag, jitter or distortion. If a user employs a wand to interact with the environment, the computer must interact in real time with the movements and spatial orientation of the wand as well. Accurate tracking of the user’s movements and subsequent feedback to the computer are integral components of a successful interaction between the user and the computer. The technology or combination of technologies chosen for interaction will determine its efficiency in a given application. Barco has accumulated considerable experience with the various interactive devices and tracking technologies and can insure a superior performance and a "seamless" integration of the tracking system into a given interactive display system. For the accurate and efficient calibration of ultrasonic tracking devices, Barco has developed its "iWIZARD" software. In combination with integrated marking hardware, this software is used to configure the position and orientation of each transmitter. For reconfigurable systems such as the BARCO MOVE™ different setups can be activated by a single button click. The software is available on Unix as well as on Windows platforms. Expert Alignment Software. Software para sincronizar las proyecciones múltiples de los CAVE . 28 Fig 8. Vista de la interfase del software para alinear las proyecciones esterescópicas múltiples en un sistema Power Wall o CAVE. Barco’s Projector Alignment Tool For easy and fast alignment of complex multi-screen projection systems to their maximum capabilities, Barco has developed its own proprietary dedicated software. With an intuitive user interface, Barco’s Polaris software is driven by multipipe, multi-channel image generators to calculate and generate user-specified predistorted test patterns.The user enters the dimensions and shape of the screen (flat, cylindrical, spherical, toroidal, dome-shaped, conical) and Polaris calculates and generates the pre-distorted geometry, gray scale and color alignment patterns. Camera settings and parameters for each display channel can be specified in coordinates or as field-of-view angles, either symmetrical or asymmetrical. When applicable, patterns can be saved independently from the graphics configuration of the image generator. Arquitecturas Power Wall : Este tipo de ambiente de visualización esta constituído por una sola superficie de proyecciones simples o múltiples y puede ser plano o curvado. 29 Fig. 9 Power Wall con proyectores estereoscópicos multiples sobre una pantalla de proyección frontal curvada . CAVE o Cuarto Inmersivo : Es un ambiente de visualización inmersiva completa que puede constar de 3 a 6 caras de proyección hasta conformar un cubo completo. Las proyecciones estereoscópicas no interfieren con el /los usuarios pues se utilizan pantallas de proyección posterior . Fig 10. CAVE de 5 caras 30 Fig 11. En la imagen superior esquema de arquitectura de un Cave de 5 caras usando espejos de reflexión para acortar las distancias de proyección y por ende el área de ocupación del CAVE. En la imagen inferior fotografía del ambiente de visualización de trabajo el cual puede llegar a servir para un grupo de 5-10 personas. 31 Fig. 12. CAVE transportable de 6 caras de la firma BARCO Systems. El espacio concentra los dispositivos inmersivos: Visualizaciones: Cave y hardware para simular ambiente inmersivo. El Cave esta construido con 6 pantallas refractivas que reflejan en el interior del cave las imágenes proyectas por separado por cada proyector estereoscópico 3d. Un computador central sincroniza la proyección de cada una de las 12 imágenes procesadas por la unidad de procesamiento. RM Paradigma ‘ Mixto y / o Aumentado. Cuadro 3. Definición de los componentes de la realidad mixta o aumentada extraídos de las discusiones de la Conferencia Cast 01. 32 Realidad Virtual. El paradigma de la realidad mixta busca implementar la realidad virtual no solo como un ambiente inmersivo de visualizaciones , las cuales permiten la interacción del usuario con los agentes , avatares y mundos del contenido digital sino que al contrario , o mas allá de lo anterior, buscan generar objetos o ambientes de realidad virtual que pueden superponerse con los objetos y ambientes del espacio físico y natural . En los últimos años este desarrollo de la realidad mixta tiende a denominarse como realidad aumentada pues complementan la experiencia física de los ambientes y espacios arquitectónicos o urbanos. La realidad aumentada La realidad aumentada permite introducir visión artificial en las ciudades o recintos arquitectónicos, permite superponer simulaciones y mapas sobre objetos físicos por medios estereoscópicos, y puede añadir facetas de interactividad al espacio arquitectónico convencional o a objetos convencionales de uso cotidiano. Espacio Sensible En la realidad mixta el espacio físico se convierte en interactivo por medio de implementaciones de hardware especialmente diseñados para acoplarse con conjuntos, objetos o superficies del espacio físico. “ Intermedia”. Con esta denominación propuesta en la conferencia Cast 01 de 2001, se busca expresar como una de las características del paradigma mixto o ‘aumentado’ de realidad virtual es la de ser el soporte transmisor entre varios sistemas de medios simultáneamente. Cuadro 4.Campos de desarrollo de las tecnologías de realidad virtual mixta o aumentada. Estas tecnologías de desarrollo tienen aplicación en narraciones digitales o en manufactura virtual en la actualidad. Historia de la RM 33 Fig. 13 El artista Stelarc fue uno de los pioneros en la investigación del cuerpo cristalino y la realidad aumentada. 34 Fig. 14 Utilización de interfaces de visualización y sensores en el cuerpo para integrar ambientes digitales con las funciones corporales. Realidad mixta aplicada a reconocimiento y ayuda de navegación del mundo físico. Ejemplo presentado por Hiroshi Sasaki en la Conferencia VW 2000. Fig. 15 Virtual Balance .Desarrollo de hardware corporal de navegación de un ambiente virtual en un power wall o cave. El hardware consta además de los anteojos estereoscópicos, de una balanza para usar las fuerzas corporales dinámicas a modo de un ‘mouse’ de navegación. Implementación desarrollada por el MARS Lab ( Monika Fleischmann directora) entre 199698. 35 Fig. 16 Consola Silla con dispositivos apticos para simulación de fuerzas y consistencias en ambientes 3D. Plataforma de experimentación desarrollada por los ingenieros de control electrónico en el VR Lab de la EPFL Escuela Politécnica de Lausana en los 90s. Fig. 17. Técnicas de Estudio Virtual Mixto aplicado a performance artísticos 36 1.1.3.Áreas de Investigación y Desarrollo en RV/ RM / RA (El ejemplo del VR Lab ) Fig. 18 Portal Web del VR Lab e interfase de navegación hacia cada una de las áreas de trabajo cubiertas en el Lab. En el VR Lab las áreas de investigación son definidas como un cruce interdisciplinario entre : • ciencias de la computación, 37 • • • • ingeniería electrónica, comunicación e informática, matemáticas ciencias de la vida. (natural y artificial). Dentro de este contexto multidisciplinario de trabajo en el desarrollo aplicado y la investigación en la realidad virtual, mixta y aumentada se identifican tópicos relacionados con las narraciones digitales y la manufactura virtual. Control de Movimiento . The research on Motion Control being The research on Motion Control being carried out at VRLAB covers topics ranging from animation to simulation, and focusing on both primary motion (e.g. walk engine) and secondary motion (e.g. soft tissues deformation). As movement is a complex and high-dimensional information, our main objective is to propose highly efficient algorithms as well as new user-friendly interaction paradigms. El área de trabajo se concentra en tópicos que incluyen: Animación y simulación de movimientos : Movimientos Primarios: ( motor de caminado) Movimientos Secundarios: deformación de tejidos suaves (faciales) Edicción Cualitativa de Movimiento The aim of this research is to provide hight level control on motion synthesis to an animator or a run-time system. Using example-based motion synthesis of humans figures, we proposed high level control parameters including age, gender, height and weight. Formulating the motion synthesis as a scattered data interpolation problem, we are also proposing a fast and scalable interpolation scheme. El objetivo de ésta área de investigación es la de usar síntesis de movimientos para un ‘animador’ con parámetros de alto nivel de control de movimiento: edad, género, altura, peso. La implementación se ejecuta mediante un esquema rápido y escalar de interpola de la información requerida. Optimización Interactiva de posturas complejas con Cinemática Inversa Efficient IK architecture allowing a strict enforcement of multiple priority levels among the constraints. We now evaluate it for motion retargeting. This direction of research includes previous work on balance control and recent researches on an efficient IK architecture allowing a strict enforcement of multiple priority levels among the constraints. We now evaluate it for motion retargeting. Arquitecturas de cinemáticas inversas las cuales posibilitan introducir diferentes prioridades dentro de los condicionamientos del movimiento. Control de Balance / Prioridades Múltiples y Retargeting 38 Fig. 19. Animación 3d de Postura compleja y movimiento. Realidad Aumentada. In augmented reality applications, tracking and registration of cameras and objects are required because, to combine real and rendered scenes, we must project synthetic models at the right location in real images. Our goal is to automate this step by integrating tracking and object recognition into AR systems. This done, we can then implement scenarios that involve interaction between real and virtual humans and cover a wide range of topics from creation and animation of virtual actors to computer vision techniques for data acquisition. En Aplicativos de Realidad Aumentada el objetivo es automatizar el seguimiento y registro de cámaras y objetos para combinar escenas reales y procesadas digitalmente. Con lo anterior se pueden implementar ambientes que incluyan la interacción de usuarios humanos reales y avatares e incluir un amplio rango de campos como la creación y animación de actores virtuales y técnicas de visión computacional para la adquisición de información. STAR (EU project) Service Training through Augmented Reality)/ This project aims to train technicians who need to perform service operations in industrial installations. A virtual environment consisting of virtual humans and objects is displayed together with the real, `through use of augmented reality techniques. The virtual humans are mainly intended to guide the user on how a particular service operation can be accomplished. At each step, the application provides the user with a set of choices, consisting of the actions that the virtual human is capable of undertaking. Once the user makes his choice, the virtual human is displayed performing the corresponding action. In this project, we are designing and implementing an augmented reality system which allows investigation of different aspects of the interaction between real-and virtual humans. Este proyecto implementa actores virtuales como guías , los cuales muestran el uso de instalaciones industriales en cada una de las operaciones de servicio. En cada etapa el usuario puede elegir entre varias opciones relacionadas con el rango de opciones provista por el actor virtual. Cuando el usuario ha ingresado su elección, el actor virtual la ejecuta. Lifeplus (EU project) (Innovative Revival in Ancient Frescos - Paintings and Creation of Immersive Narrative Spaces Featuring Real Scenes with Behavioral Fauna and Flora) LIFEPLUS is an application of augmented reality and real time 3D graphics applied to archaeological sites. Innovative technologies make possible for the visitor in Pompeii to go back in the past and live again events and experiences that really took place. Ancient people 39 are coming back to life to meet and talk about facts and things of their time. The system uses a standard firewire camera in order to capture images and blends the virtual environment with them. The tracker does not require any markers allowing to setup the system virtually anywhere. For improving the realism, a significant effort have been produced for generating complex human animations. Revivificación de antiguos frescos y la creación de espacios narrativos inmersivos incluyendo escenas reales mezcladas con fauna y flora simuladas en su comportamiento natural. Consiste en una aplicación de realidad aumentada y ambientes 3D en tiempo real aplicada a sitios arqueológicos. El visitante de Pompeya puede experimentar eventos que realmente ocurrieron allí. 40 Fig. 20 Aplicación de técnicas de realidad mixta y aumentada al entrenamiento industrial usando avatares guías. Fig. 21 Usando realidad virtual para reconstruir patrimonio histórico. Representación por medio de avatares de escenas de la vida en sitios arqueológicos. Visión Artificial. 41 Fig. 22 Ejemplos y demos de las areas de trabajo en Visión Artificial. Visión de movimiento corporal y reconocimiento. Reconocimiento de caras. Las actividades se centran en emular la capacidad humana de detectar la posición de los objetos 3D con respecto a la posición propia . Las aplicaciones incluyen los siguientes campos : • Vigilancia • Medicina • Simulaciones en realidad aumentada ( de información corporal humana) • Análisis ergnómico. • Efectos especiales para multiedia y cine • Entretinimiento popular. Agarrar Objetos Simulados Automáticamente para Interacción Directa. The problem of grasping appears in several different forms. A first considered case is to model all contact forces exchanged for the task of grasping objects (deformable or rigid) using a dataglove with force feedback. Correction algorithms are also considered for the case in which no force feedback devices are attached to the dataglove and thus the need to correct grasping postures and finger placements appears, in order to obtain visually correct results. 42 A last type of case involves a fully automatic virtual hand animation to grasp objects once the user grasp intention has been detected. The animation of the hand reaching motion of intelligent avatars may be also required. Some of the techniques being currently used to approach these problems are Inverse Kinematics algorithms and also some Motion Planning concepts El problema de ‘tomar virtualmente’ las cosas tiene diferentes aspectos: • Modelar todas las fuerzas del contacto de objetos rígidos o deformables usando guantes de datos con retroalimentación de fuerzas. • Algoritmos de corrección deben ser usados en el cual no hay dispositivos de retroalimentación de fuerzas en el guante para corregir posturas del agarre y lugar de los dedos con el fin de obtener resultados visualmente correctos. • Mano virtual totalmente automática reconstruida sobre las intenciones de tomar las cosas por parte del usuario. La animación de alacanzar las cosas con las manos por aparte de avatares inteligentes.. Las técnicas usadas incluyen cinemática inversa, algoritmos y conceptos de planificación de movimientos. Animación de Caracteres. Movimientos Reflejos para un Brazo Humano virtual. Our goal is to create a system capable to synthesize virtual humans animation (body gestures) in an autonomous way, and give the illusion that the artificial human being is a living creature capable to produce a spontaneous behaviour according to its internal information and external stimuli coming from its virtual environment. In particular, the proposed methodology is focused on the autonomous synthesis of non-voluntary gestures such as reflexes and subtle movements without any specific goal, which can provide a noticeable impression of realism and naturalness. The final idea of this technique is to animate virtual humans with a more spontaneous, non pre-programmed behaviour. For the moment, the technique is applied to the animation reflex movements of the arm of a virtual human, in reaction to thermic stimuli. Nevertheless, a general architecture to animate the full body is outlined. The proposed method is a real-time, distributed control system inspired in the human nervous system, which will be able to produce natural movements in response to external and internal stimuli. El objetivo es crear un sistema capaz de sintetizar la animación del movimiento corporal ( gestos corporales) de una manera autónoma para dar la sensación de conducta espontánea de parte de una criatura humana artificial de acuerdo a información interna y estímulos externos. La metodología propuesta se centra en la síntesis de gestos no-voluntarios como reflejos corporales y movimientos súbitos sin propósito específico con lo que se busca emular naturalidad y frescura. La animación de avatares humanos no pre-programdos es el objetivo de ésta técnica. Al momento se ha implementado en reflejos del brazo estímulos térmicos. Una arquitectura general de animación del cuerpo ha sido bosquejada. El método propuesto incluye un sistema de control distribuido inspirado en el sistema nervioso humano capaz de proveer movimiento natural a estímulos externos. 43 Fig. 23 Ejemplos de animaciones de caractéres humanos en las diversas facetas: Control y simulación de movimientos, comportamiento individual y social., Coordinación de Movimiento muscular mediante objetos de interacción. 44 Autonomous Virtual Musicians. The goal of this research is to provide an interaction model in virtual world when we have some specific constraints like very strict timeline due to the music dependence and we need a specific high level knowledge. We are particularly interested to synthesize the right movement of the musician according a music scorebook to simulate interactions with his music instrument. For example, the speed, the intensity associated to motions and the emotion of the virtual musician should be reflected in the produced sound. El objetivos de esta investigación es proveer un modelo de interacción en un mundo virtual cuando hay limites específicos como por ejemplo secuencia temporal estricta dada por una partitura sonora. Se requiere sintetizar el movimiento correcto del músico de acuerdo con la partitura para simular correctamente el movimiento con el instrumento musical. Objetos inteligentes y el movimiento de alcanzarlos. Smart objects are able to give full instructions about their functionality and how virtual humans should operate them. Our main approach is to use pre-defined plans for the synchronization of the primitive motions required to animate the virtual human. In order to deal with complex object manipulations, we are also particularly interested to synthesize correct reaching motions based on planning of collision-free motions, learning of the free working space and the use of Inverse Kinematics Objetos inteligentes pueden dar instrucciones completas de su funcionamiento y de como deben ser operados por los humanos. Nuestra aproximación es la de establecer planes predefinidos para la sincronización de movimientos requeridos para animar avatares humanos. Para resolver manipulaciones complejas de objetos se sintetizan movimientos de alcanzar éstos basándonos en movimientos sin colisión , area libre de operación y cinemática inversa. Selección de Acciones de Motivación Individual We investigate new approaches to enhance the autonomy of virtual humans. We are especially interested in this research to use a free flow hierarchy together with a hierarchical classifier system in order to decide the best compromise solution of dynamically varying concurrent motivational goals. As a result, we expect to obtain a virtual human capable to realistically decide by its own (according to its motivations and perceptions) the needed actions in a given environment. Se están investigando nuevas aproximaciones para mejorar la autonomía de humanos virtuales. Se busca un fluido jerárquico libre junto con un sistema de clasificación jerárquica con el fin de producir la mejor solución o compromiso de acuerdo con variables y objetivos de motivación. Como resultado se espera obtener humanos virtuales capaces de decidir de manera realista tomar decisiones propias de acuerdo con motivaciones y percepciones en un ambiente dado. Metodologías de Aprendizaje para Agentes Virtuales Autónomos Our research is mainly focused on modeling and behavioral animation of Virtual Humans, and more specifically on the simulation of Autonomous Virtual Agents (AVAs), capable of undertaking actions themselves. The approach showed here is part of a more complex model, which is the object of our research. The goal is to realize a Virtual Life Environment for an Autonomous Virtual Agent including different interfaces and sensorial modalities coupled with different learning methodologies, which can evolve. 45 Nuestra investigación está enfocada en el modelamiento y animación del comportamiento en humanos virtuales y específicamente en la animación de (AVAS ) Agentes virtuales autónomos capaces de tomar acciones por ellos mismos. El enfoque usado aquí es parte de un modelo más complejo, el cual es el objeto de nuestra investigación. El objetivo es implementar un ambiente de vida artificial para agentes virtuales autónomos incluyendo diferentes interfases y modalidades sensoriales integradas a diferentes modalidades de aprendizaje, las cuales pueden evolucionar. Grupos de Comportamientos usando Agentes Sociales Autónomos The goal of our research is to develop autonomous and socially intelligent agents, embodied as 3D believable virtual humans, in order to visually simulate human social behavior and small group dynamics. In our approach, which is based on the psycho-sociological knowledge, group behaviors are not centrally controlled but emerge from the agents' local interactions. In return, the individuals' identity and behavior are directly affected by the collective system. The proper modeling and flexible implementation of this feedback channel, which is in charge of distributing such entities as beliefs, norms and values, will be a central issue in our work. The degree of social control and conformity to the group's standards should be easily adjustable in real-time, in order to be able to test different scenarios. El objetivo es generar comportamiento social en pequeños grupos. Este se basa en conocimiento psicosocial. El comportamiento emerge de la interacción local de los agentes lo cual a su vez cambia la identidad individual. Se hace un modelamiento apropiado y flexible de entidades como credo , normas y valores. El grado de control social y conformidad individual a los estándares del grupo debe ser fácilmente ajustable en tiempo real. Control de Multitudes. Our research aims at crowd simulations for interactive virtual environments such as virtual heritage reconstructions or VR training systems. We are focusing on complex behaviors of many virtual human agents existing in dynamic environments with possible user interaction. Collective behavior emerges from interaction of individuals, crowds are dynamically assembled and disassembled and over the time they change their behavior. Our crowd is multi-agent system with individuals' behaviors modeled by combination of rules and finite state machines using layered approach. At the higher level complex behaviors are selected by rules according to agent's state and the state of the virtual environment; at the lower level these behaviors are implemented by hierarchical finite state machines. El objetivo es simular multitudes para ambientes virtuales para usos como el entrenamiento para preservación de lugares de patrimonio. El objetivo esta centrado en comportamientos complejos de muchos humanos virtuales dentro de un ambiente dinámico y con posibilidad de interacción por un usuario. Comportamiento colectivo emergente de los individuos , multitudes es sumado y separado y cambia con el tiempo. Nuestro modelo de multitud es es un sistema de multi-agentes con modelamiento del comportamiento individual por medio de combinación de reglas y maquinas de estado finitos usando una aproximación por capas. Al nivel mas alto el comportamiento es seleccionado de acuerdo al estado del agente y el estado del ambiente virtual. Al nivel inferior estas acciones son implementadas por maquinas jerárquicas de estados finitos. 46 Fig. 24 Simulación de una multitud utilizando las técnicas clásicas de computación bio-inspirada y nuevos desarrollos experimentales. Narraciones Digitales. The focus of this research is to provide intuitive ways to determine the outline of a story, in such a way that virtual humans are capable to follow the specified scenario, and at the same time autonomously reacting to perceived events. The proposed model is mainly based on predefined plans and rules, but several related issues have been also considered: models to simulate a simplified verbal communication between agents based on virtual sound propagation approximations and synthetic voices, mixing of various concurrent behaviors, with priorities and events triggering the activation/deactivation of various tasks, autonomous virtual cameras, etc. El objetivo de esta investigación es proveer métodos para determinar el desarrollo de una historia en la cual humanos virtuales puedan actuar en un escenario especificado siguiendo sus reacciones a eventos percibidos. El modelo propuesto está basado en planes y reglas predefinidos teniendo en cuenta: modelos de simulación de comunicación verbal entre agentes basado en la propagación virtual del sonido y voces sintéticas, mezclando varias conductas concurrentes con eventos prioritarios activando y desactivando tareas , cámaras virtuales autónomas etc. Simulación Médica VRlab Research on Medical Simulation. Specific objective: clinically validating predictions of soft tissue deformations Our research is part of national research network targeting Computer Aided and Image Guided Medical Interventions. We are currently defining a generic model of the Hip joint to explore the range of motion of this articulation. The goal is to predict the modification of this range when altering the shape of the hip bone or the femur bone. In collaboration with MIRAlab the generic model will be adjusted to patient data (MRI), first to validate the simulation of range of motion for one or more normal subjects and, in a second stage to make pre-operative simulation on abnormal cases. 47 Investigación en simulación médica. Objetivo específico: validación clínica de deformaciones de tejidos suaves. Es parte de una investigación nacional sobre intervenciones medicas asistidas por imágenes de computador. Se esta definiendo en este momento un modelo genérico de articulación de las caderas para explorar el rango de movimiento de esta articulación. El objetivo es predecir modificaciones de este rango según modificaciones óseas. En colaboración con el Miralab el modelo se ajustara a informaciones de pacientes para validar el rango de las simulaciones de movimiento para uno o mas sujetos normales y luego pasar a casos anormales. Fig. 25 Simulaciones Anatómicas para entrenamiento médico. Interacción Multimodal One of the investigated topics concerns the use of intelligent avatars (or autonomous virtual assistants) to efficiently perform tasks in cooperation with the user. In this context, natural ways of communication between the user and its virtual assistant are being investigated within a multimodal interactive application. Another topic of research is to define VR systems able to dynamically change the interaction mode, adapting themselves to each situation and to the preferences and motor skills capabilities of each user, offering personalized interaction metaphors in order to optimize the comfort and sense of presence in interactive VR systems. Take as example the simple problem of grabbing an object with a dataglove: the used interaction mode may dynamically vary according to the different motor skills and manipulation precision requirements: (1) the user must close its virtual hand around objects to grab it, (2) the user simply places the virtual hand near to an object an the virtual hand automatically grabs it, (3) only by pointing to a desired virtual object will trigger an automatic animation of the virtual hand to grab it, or (4) the user asks his "intelligent avatar" (vocal or gesture instructions) to grab the object. 48 Se está investigando modos naturales de comunicación entre el usuario y su asistente virtual dentro de un aplicativo multimodal. Se están investigando medios para lograr que ambientes virtuales se modifiquen de acuerdo con las preferencias y capacidades motoras de cada usuario ofreciendo metáforas de interacción personalizadas para optimizar el confort y la sensación de presencia en sistemas de realidad virtual. Por ejemplo el agarrar un objeto con un guante de datos. (1)El usario debe cerrar su mano virtual para agarrar el objeto.(2)El usuario posa su mano sobre un objeto y la mano virtual lo agarra automáticamente (3) Señalando el objeto virtual deseado se activas una animación de la mano virtual , la cual lo agarra(4) El usuario ordena a su avatar inteligente agarrar el objeto (instrucciones gestuales o vocales) Metáforas para aplicativos específicos. Interaction with virtual vehicle controls in an immersive vehicle simulation system for training and ergonomics in the scope of the European project Proyectos de interacción en vehículos inmersivos simulados para entrenamiento y ergonomía dentro de proyectos europeos. • • Entrenamiento en ambientes virtuales para casos de emergencias. JUST. Terapia 3D Inmersiva para curar fobias. Interacción precisa con teclados de piano. Modos de interacción avanzados con humanos virtuales. 1.1.4.Áreas de Investigación y Desarrollo en Manufactura Virtual ( El Ejemplo del IPK Fraunhofer Institut Berlín Técnicas básicas Impresión 3D: Producción de materiales sintéticos sin color o con color. Captura 3D. Captura 3 dimensional de objetos mediante información geométrica y de color. Modelamiento CAD 3D. . Modelamiento interactivo 3D por medio de dispositivo áptico. ( ver gráfica) CAVE. Cuarto inmersivo para visualizar e interactuar con Contenido 3d mediante visión estereoscópica y dispositivos de rastreo. Estudio de Video . Trabajo de contenidos multimediales. Dotación de Equipos ( Impresora 3D): Contex Designmate Cx 49 Dimension SST1200 ( Scanner 3D): GOM Atos I (Digitador Aptico): Sensable PHANToM Desktop (Cave): Parallel Optical Research Testbed and Laboratory Videoestudio: 3 Mac-Video editores. AV-Standards: DVD, Multinorm(S)VHS, (Mini)DV, (Digi)BETA Software : Desarrollo, Implementación y visualización. Modelamiento 3d Objetos 3d sin textura: STL (.stl) Objetos con Textura :VRML 2.0/1.0 (.wrl) Formtaos de CAD : .asc, .3ds, .prj, .max, .geo, .dwg, .dxf, .c4d, .mdl, .plt, .igs, .iv, .lwo, .lws, .ma, .mb, .ply, .pts, .raw, .3dm, .w3d, .xsi, .stl, .wrl, .obj Software: Modelamiento 3D 3D Studio Max 7, Maya, Bender, VisCAM RP 3.41, Deep Exploration, Freeform Modeling, jReality, JavaView A diferencia del VR Lab de la EPFL relacionado con una unidad docente centrada sobre ciencia computacional y en especial la computación grafica , el 3D Labor del Fraunhofer Institut en Berlín esta relacionado ante todo con procesos industriales aplicados basados en realidad virtual, mixta y aumentada o manufactura virtual. Áreas de Desarrollo 50 Fig. 26. Stereolitografía y modelos CAD en técnicas de prototipado e ingeniería inversa. Imágenes superiores modelo CAD . Inferior modelo impreso 3d We offer comprehensive and application oriented system solutions covering Virtual Product Creation, Production and Automation Technology as well as Corporate Management. In addition we focus our RTD-services on Security, Mobility and Medical Technology. Our objective is to enhance and improve the competitiveness of our customers and partners. Together with the Institute for Machine Tools and Factory Management IWF of the Technical University Berlin you will find us located at the Production Technology Centre in the heart of the old Berlin industrial area at the Charlottenburg embankment of the river Spree. ProfileThe Division of Virtual Product Creation conducts research into product creation processes. In close cooperation with the IWF, Chair for Industrial Information Technology of the Technology University of Berlin, which emphasises its academic research on theoretical and methodological issues, the applied research projects carried out by Fraunhofer IPK are oriented at transferring this know-how into prototypical solutions and industrial applications. R&D TopicsStaying up-to-date in today’s markets means that companies in general, but small and medium sized enterprises in particular need to establish competences in creating virtual products. Virtual product creation decisively contributes to the performance of product development and to the overall success of companies. The Division of Virtual Product Creation carries out projects pertaining to information management, product modelling and product creation processes. Business AreasWe develop applications and solutions for automobile and transport industries, for machine and plant engineering, for tool and mould making, for aviation and space industries, for electronics and software engineering and for medical technology. Our partners and customers are multinational companies as well as national and international small and medium sized enterprises. ServicesOur spectrum of services comprises the improvement of existing process designs as well as the development and implementation of entirely new application systems geared to optimize the product creation process in terms of enabling shorter development times, reducing costs, improving quality and increasing innovative capabilities. • • • • • • • • Production Systems Automation Technology Medical Technology Business Excellence Methods Corporate Logistics and Processes Benchmarking Knowledge Management Competence Cluster Indonesia 51 • • • • • • • • • • Information Management Product Modelling Produkt Ration Processes Manufacturing Production Machines and System Management Microproduction Technologies Staff Qualification Process Automation and Robotics Security Technology Process Monitoring and Simulation Optical Testing 'FUTUR' 52 Fig. 27. Cave, Digitador Aptico y simulación para entrenamiento industrial mediante realidad mixta en el FraunHofer Institut de Berlín.. 1.1.5. Otros campos de Desarrollo e Investigación Arte Vivo Fig. 28. Espejo digital. Arte multimedial interactivo . Mars Lab . Minika Fleischmann , directora, 1998. 53 Fig. 29. Arte Vivo. El Pintor Artificial. Por Luigi Pagliarini. 1999. El usuario decide el sentido de la evolución del algoritmo genético segun la imagen que escoge. El resultado se acerca a esta elección aleatoria. Arquitecturas Mixtas. El Lab de la Universidad de Nottingham trabaja desde la década pasada en el desarrollo de ‘arquitecturas mixtas’: interfases de realidad virtual incluidas dentro de la arquitectura edilicia. Prototipos de experimentación son los museos, las oficinas, los auditorios y el comercio. 54 1.1.6. Referencias Técnicas B. Uribe et Alt, “A Theatre of Memory in Virtual Worlds” 2 International Conference Virtual Worlds, Springer, 2000. B, Johnson, “Beyond On-line Collections: Putting Objects to work”, Museums and the Web 2004 International Conference, Archives & Museums Informatics, www.archimuse.com. T, Cinotti , et alt, “Evaluating context –Aware Mobile Applications in Museums: Experience from the MUSE Project, ICHIM 03 W, Thomas, et Alt, “Actual/Virtual Visits: what are the Links?”, Museums and the Web 2005 Park e Inoue , “Real Image Based Virtual Studio”, 1 International Conference Virtual Worlds, Springer, 1998 . T. Kanade et Alt , “Digitizing a varying 3D Event as is and in Real time; in “ Mixed Reality: Merging Real and Virtual Worlds”, Springer, 1999. W.P Cockshot, et Alt, “Interactive 3D Studio for TV, The Michelangelo Project, University of Glasgow ,2000; Park, S W et Alt; “Real Time Camera Calibration for Virtual Studio”, Academic Press , 2000 T ,Fukuya, et Alt, “An Effective Interaction Tool for performance in the Virtual Studio”, Studio Systems, 2003. S ,Rusinkeiewicz, et Alt, “Real Time 3D Model Acquisition” Proceedings of ACM Siggraph 2002. Kelly, “ Control de Movimientos de Robots Manipuladores”, Prentice Hall 2003. R Craig, J, “ Introduction to Robotics Mechanics and Control”, Addison Wesly Longman, 1989 1 Portions of this software is based in part on the CyberVRML97 package written by Satoshi Konno Roger Clarke, Digital Compression of Still Images and Video, Academic Press, 1995. Mitchell, W.City of Bits, The MIT Press, Cambridge-London, 1996 Yates, Francis A.The Art of Memory, The University of Chicago Press, Chicago, 1966. Rajchman, J, Constructions, The MIT Press, Cambridge-London, 1998. Editorial Board, Telepolis, aktuelles Magazin, Heinz Heise Verlag http://www.telepolis.de. Yates, Francis A., Theatre of the World, The University of Chicago Press, Chicago 1969. Heudin, Jean Claude, ed, Virtual Worlds 98, Proceedings of the International Conference, Springer Verlag, Lecture Notes on Computer Science, Berlin-Heidelberg-New York, 1998 Park, J and Inoue, I, “Real Image Based Virtual Studio”, Virtual Worlds 98, Proceedings of the International Conference, Ibidem, 117-122. Kimoto, H.,”Human Centered Virtual Interactiv World for Image Retrieval”, In Virtual Worlds 98, ibidem, 311-322. Mark W. Spong, M. Vidyasagar, Robot Dynamics and Control, John Wiley & Sons, 1989 Lorenzo Sciavicco, Bruno Siciliano; Modelling and Control of Robot Manipulators (Advanced Textbooks in Control and Signal Processing), Springer-Verlag UK, 2000 55 1.2. Fundamentos de Complejidad. José Jesús Martínez Páez, Profesor Asociado y Especial, Departamento de Sistemas, Facultad de Ingeniería, Universidad Nacional de Colombia [email protected] 1,2,1. Introducción. Introducción. La formación actual en las ciencias y la tecnología se realiza haciendo abstracciones de los Sistemas Complejos para poderlos trabajar como si fueran Sistemas Lineales. Toda la matemática tradicional se ha construido para trabajar y soportar la estructura de las abstracciones de las diferentes ciencias y tecnologías. Sin embargo, la tecnología, especialmente la tecnología computacional, permite que se estudien y se avance en la comprensión de los sistemas complejos. Diariamente nos enfrentamos con situaciones que manejamos apropiadamente: conducir un carro, tomar un bus, operar una máquina, recibir o dar una clase; en otras palabras, ejecutar acciones a las cuales estamos acostumbrados. En general nuestra interacción con estos sistemas esta completamente determinada, lo que nos permite hacer proyecciones sobre nuestras acciones como por ejemplo, llegar a un determinado lugar a cierta hora. En otras palabras, tenemos un modelo mental simplificado de cada uno de estos sistemas, que nos permite su interacción. Sin embargo, cuando por alguna razón las cosas no se presentan a como estamos acostumbrados, es decir se presentan circunstancias diferentes, aparecen nuevas facetas, generalmente desconocidas, de los sistemas con los que interactuamos permanentemente sobre las cuales en general no podemos hacer proyecciones, como pueden ser por ejemplo, choques, varadas, huelgas y otras. Nos encontramos con Sistemas Complejos, para los cuales, en ciertas circunstancias, no tenemos una forma apropiada de responder en cuanto al tiempo que gastamos en dar una respuesta, en cuanto a las proyecciones que podamos hacer y en cuanto a los efectos que nos puedan generar estas situaciones. Por otra parte nuestra actuación se rige por reglas que a veces pueden ser discutibles. Por ejemplo, el sistema de evaluación del desempeño de un estudiante en un curso, define porcentajes de la nota final en diferentes periodos del semestre. En la mayoría de casos el desempeño de los estudiantes es homogéneo y la nota refleja el conocimiento adquirido. Sin embargo, en algunos casos en la evaluación siguiendo las reglas no hay esa relación entre nota y conocimiento adquirido. Supongamos que las reglas definen porcentajes de 35%, 35% y 30%, y que un profesor obtiene esos porcentajes con base en exámenes. Las notas obtenidas por un estudiante, sobre 5.0 son 1.4, 3.0 y 4.2 respectivamente, al calcular su nota final obtiene un 2.8, es decir pierde el curso. Otro estudiante, obtuvo las siguientes notas sobre 5.0: 4.2, 2.8 y 1.4, obteniendo una nota final de 3.0, pasando el curso. En estos dos casos se refleja en la nota el conocimiento de los estudiantes? A lo que se 56 llega es a que el sistema de evaluación, con base en este modelo, es bastante discutible. Ahora, desde el punto de vista de la fundamentación formal, la ciencia normalmente solo considera aspectos simplificados de la realidad. Abstrae un subconjunto de propiedades del fenómeno que estamos estudiando y desarrolla fórmulas matemáticas, que de alguna manera modelan y predicen su comportamiento. Sin embargo, muchos de los comportamientos que queremos estudiar no son apropiados para este tipo de simplificación, pues surgen como el resultado de interacciones complejas entre muchas partes individuales similares o diferentes. En esta categoría se encuentra la vida y todos sus componentes. El campo de los Sistemas Complejos S.C., que a continuación se trata es el de los sistemas adaptativos complejos, concentrándonos no solo en los subsistemas, sino en sus interacciones, la dinámica del sistema. 1.2.2. Teoría de Sistemas y Sistemas Lineales. Teoría de Sistemas Pero antes de iniciar el estudio de S.C. hablemos un poco de Teoría de Sistemas. Esta teoría fue propuesta por el biólogo Ludwig von Bertalanffy en los años cuarenta del siglo pasado, quien reaccionando contra el reduccionismo trató de revivir la unidad de la ciencia. La idea es que los conceptos y los principios de organización que fundamentan las diferentes disciplinas científicas permiten una base para su unificación. Ludwig von Bertalanffy enfatizó en que los sistemas reales son abiertos e interactúan permanentemente con el ambiente y que pueden adquirir nuevas propiedades a través de la emergencia, resultante de la evolución continua. En lugar de reducir las propiedades de un sistema a las propiedades de sus partes, la teoría de sistemas se enfoca en la conformación y las relaciones entre las partes que las conectan en un todo. Los desarrollos de la Teoría de Sistemas son diversos y parten del concepto clásico de sistema, que incluyen las definiciones siguientes; SISTEMA E N T R A D A S PROCESO AMBIENTE S A L I D A S 57 Fig 1. Un sistema, sus componentes y el ambiente con el que interactúa. Definiciones Sistema: Conjunto organizado de partes, subsistemas, o agentes interdependientes que interactúan. Se distinguen, para propósitos teóricos dos tipos de sistemas cerrados y abiertos. Sistema cerrado:Es un sistema que no recibe retroalimentación del medio ambiente. En la realidad ningún sistema es cerrado. Se podría pensar que ciertas máquinas son un sistema cerrado, por ejemplo un teléfono, pues no recibe retroalimentación del medio ambiente para que se ajuste a determinados cambios. Sistema abierto:Es un sistema que recibe retroalimentación del medio ambiente que le permite cambiar su estructura para mejorar su comportamiento. Son sistemas adaptativos. En el caso del teléfono, si bien el teléfono por sí mismo no cambia su estructura, lo hace el hombre, ante los cambios en el ambiente. Entradas:Son las excitaciones al sistema. Una de esas excitaciones puede ser la retroalimentación del medio ambiente sobre el cual actúa el sistema. Proceso:Recibe las excitaciones al sistema y a través de una serie de interacciones entre los subsistemas componentes, genera una serie de comportamientos. Salidas:Es el comportamiento del sistema cuando se le aplican las excitaciones de entrada. Ambiente:Es el medio dentro del cual se comporta el sistema. Posteriormente profundizamos en esta definición. Teleonomía:Todos los sistemas tienen un objetivo único y definido, de tal manera que su estructura y comportamientos están en función de ese objetivo. En el caso de una máquina su objetivo es el de satisfacer algún tipo de necesidad del hombre. Proceso:Todas las actividades que realiza el sistema para el logro de sus objetivos o cumplimiento de su objetivo teleonómico. Sistemas Lineales Nuestro comportamiento frente a las situaciones diarias responde a que nuestra interacción se realiza en la zona lineal de un conjunto de S.Cs. Este comportamiento comúnmente se asocia directamente con la eficiencia, tenemos así que si quiero llegar lo más pronto a otro sitio de la ciudad debo ir más rápido, si trabajo más, produzco más artículos, si estudio más aprendo más. Son relaciones proporcionales que se olvidan de muchos detalles, que solamente son válidas en casos especiales: en los que el S.C. es lineal. Comencemos entonces por definir lo que es un sistema lineal. Definición. Un sistema es lineal si cumple la característica de Superposición y Homogeneidad. Superposición. Si al excitar el sistema con una señal de entrada u1(t) se produce una señal de salida y1(t); y si al excitar el sistema con una señal de entrada u2(t) se produce una señal de salida y2(t); entonces cuando el 58 sistema se excita con una entrada u1(t) + u2(t), el sistema produce una salida y1(t) + y2(t). Ver figura 2.2. Veamos un ejemplo en términos comunes, si se trabaja en un sistema de producción durante una hora se producen 10 artículos; si se trabaja en el mismo sistema durante tres horas se producen 30 artículos, entonces cuando se trabaja, en el mismo sistema de producción, durante cuatro horas se producen 40 artículos. Hay una relación de proporcionalidad. Homogeneidad. Si al excitar el sistema con una señal de entrada u1(t) produce una señal salida y1(t), y si se excita el sistema con una señal de entrada b1u1(t), donde b1 > 0 es un multiplicador, el sistema produce una señal salida b1y1(t). Ver figura 2.3. Continuando con el ejemplo anterior se tendría que si se trabaja en un sistema de producción durante una hora se producen 10 artículos; si se trabaja en el mismo sistema durante un millón de horas se producirían 10 millones de artículos. Si el sistema de producción cumple con esto se tendría que es homogéneo. Su estructura interna siempre responde independientemente del número de horas de trabajo. En la práctica no existe ningún sistema homogéneo, lo que hay son ciertas regiones donde el S.C. es homogéneo. u1(t) u2(t) u1(t) + S.L. y1(t) S.L. y2(t) S.L. y1(t) + Fig. 2.1 Principio de superposición de los Sistemas Lineales. u1(t) S.L. y1(t) b1u1(t S.L. b1y1(t) 59 Fig 2.2.. Principio de homogeneidad de los Sistemas Lineales. En general los fenómenos de la naturaleza no son lineales. Los Sistemas Lineales se utilizan por el desarrollo histórico de la matemática, pues la ciencia se fundamenta en la matemática disponible. Por ejemplo, la física Newtoniana se basa en abstracciones lineales del mundo físico, tales como: no hay fricción, la masa se concentra en un punto, las mediciones son exactas, y otras. Con el desarrollo de la física moderna, la aparición de la física cuántica, aparecieron fenómenos que no satisfacían los requerimientos de los Sistemas Lineales, con lo que se comenzó un fuerte cuestionamiento de la física clásica. Se necesitan nuevas herramientas para el estudio de estos fenómenos. 1.2.3. Introducción a los sistemas complejos Sistema Complejo Un Sistema Complejo, S.C., desde el punto de vista del modelo conexionista, se considera como una red adaptativa de subsistemas, donde cada uno de los subsistemas se encuentra en un estado determinado, y está unido por arcos ponderados, unidireccionales o bidireccionales, a otros subsistemas. Los subsistemas también se conocen como nodos, elementos, o agentes. Los arcos también se conocen como conexiones, enlaces o canales. Esta es una definición recursiva. A cada uno de los agentes que conforman un S.C., se le puede aplicar la misma definición. Veamos un ejemplo: la sociedad, es un sistema compuesto de personas, que viven en un determinado territorio, relacionadas bajo una serie de normas o leyes. Cada persona a su vez es un sistema compuesto de órganos, tejidos y sistemas, que obedecen una serie de leyes físico-químicas. 1 2 4 4 Fig 3.1. Sistema Complejo y sus componentes. Es una red, compuesta de nodos, o subsistemas, cada uno en un estado y unidos por enlaces. Esquema Un S.C. es cualquier sistema que incluye un número de agentes agrupados siguiendo un esquema, que se conforma satisfaciendo las leyes correspondientes a la naturaleza del sistema: físicas, químicas, económicas, sociales, ecológicas, y otras. Estos esquemas siguen procesos de cambio que no se pueden describir por una sola regla ni se pueden reducir a solo un nivel de explicación, pues incluyen la generación de comportamientos cuya emergencia no se puede predecir a partir de 60 las características de los componentes del sistema, debido a que se presentan diferentes interacciones entre ellos. En los seres vivos este proceso de cambio del esquema se conoce como evolución. Pero de qué manera evoluciona un S.C, y que tipo de leyes sigue su evolución? En primer lugar, cada S.C. esta enfrentando permanentemente un ambiente, de esta confrontación surge una retroalimentación. Cuando esta retroalimentación se refuerza, afecta directamente el esquema del SC que repercute en el patrón del S.C., esto lleva a dos visiones del sistema. Una es la visión lineal del S.C. que se desplaza en el tiempo por una recta que va del pasado al futuro, donde el presente es un punto de esta línea. La otra visión es la de un círculo en el cual va cambiando el esquema del S.C. El ejemplo es la conocida cuestión de qué fue primero la gallina o el huevo? En este caso se tiene un círculo, pues realmente no hay dirección antes o después, Ver figura 3.2. Huevo Presente Pasado Futuro GALLINA a) b) Fig 3.2. Visiones de un Sistema Complejo. a) Lineal en el tiempo. b) Circular, en el cambio de su esquema. Si integramos estas dos visiones encontramos lo que realmente sucede, en el transcurso del tiempo, el S.C. va cambiando su esquema. El S.C. de hoy no es exactamente el S.C. de ayer, ni será exactamente el mismo S.C. de mañana. En la figura 3.3 se presenta esta visión. Cambio de esquema Pasado Futuro Presente Fig 3.3. Integración de las visiones de un Sistema Complejo, lo que realmente sucede. En la vida real lo que percibimos del S.C. es la visión lineal, el patrón del S.C. En el caso genético el fenotipo, la gallina o el huevo; el esquema en este caso es el 61 genotipo o código o programa de ADN de las células, que es lo que evoluciona en el tiempo, nos parece algo abstracto, pero es tan real como el patrón. Sin embargo, para que se pudiera llegar a conocer el esquema del S.C. gallina, es decir la decodificación de su ADN, se ha tenido que desarrollar una tecnología muy fuerte, y aun se desconoce mucho sobre la relación entre esquema y patrón. Es aquí donde en general nuestra ciencia y tecnología se queda muy corta: estudiar el esquema y la interacción entre los agentes de los S.C.s. Emergencia Se había visto que el cambio en el esquema del S.C. obedece a una retroalimentación reforzada de su relación con el medio ambiente. De manera que lo que se espera es que el cambio de patrón del S.C. de alguna manera corresponda con esta retroalimentación. Y realmente es así, el S.C. cambia de patrón, con el fin de que su comportamiento supere las restricciones que le presenta el ambiente o de lo contrario desaparece. Estos nuevos comportamientos emergen del cambio de esquema del sistema, que es como ha sucedido en el transcurso del tiempo con todos los seres vivos. Si vamos un poco más atrás, cuando una primera molécula se pudo replicar, encontramos que en el cambio de esquema de los seres vivos se ha ido ganando complejidad y han ido apareciendo nuevos comportamientos, a partir del mismo tipo de agentes, las células. Las diferentes organizaciones y la densidad de los agentes es lo que permite la gran diversidad de comportamientos de la biomasa existente. Se define entonces emergencia como el comportamiento de un S.C. resultante de la interacción de muchos subsistemas, que no se puede predecir a partir del comportamiento de los subsistemas componentes. Ambiente La supervivencia de un S.C. depende de cómo su cambio de patrón le permite afrontar adecuadamente el ambiente. En otras palabras es una cuestión de vida o muerte. Esta es la situación permanente de un S.C., su supervivencia esta ligada a como se reestructura para afrontar el ambiente. Pero hemos hablado de ambiente como si fuera algo estático. Definimos el ambiente de un S.C. como su interacción con otros S.C. El ambiente cambia permanentemente, pues así como varía un S.C. están variando todos los S.C.s de su entorno, cambiando las interacciones. Este cambio incluye la aparición de nuevos S.C.s y la desaparición de otros Orden y Caos Este cambio permanente en el esquema se considera como un ciclo que va del orden al caos, y del caos al orden. El orden es el esquema actual y el caos el proceso para llegar a una nuevo esquema. El orden permite que se almacene experiencia y el caos la posibilidad de llegar a un nuevo esquema que confronte mejor el ambiente. Se dice entonces que los S.C.s están al borde del caos, pues no pueden ser tan ordenados porque no avanzan hacia nuevos patroness ni tan caóticos que no puedan retener experiencia. Volviendo a la cuestión de la gallina y el huevo, y ampliando mucho la escala de la recta del tiempo, podemos ver cambios en el patrón de lo que hoy es la gallina, figura 3.4. Ahora podemos resolver la cuestión qué fue primero la gallina o el huevo? 62 Fig 3.4. El cambio en el esquema no es visible, sin embargo en el tiempo se pueden ver los cambios en el patrón. En el pasado tenemos un velociraptor, cuya esquema se ha ido modificando para actualmente ser una gallina y no sabemos como será el patrón en el futuro. Si echamos una mirada a una máquina, cambia su esquema? Claro que sí, aunque no lo hacen ellas mismas, se valen del hombre para ello. Si tomamos por ejemplo el teléfono, tendremos una figura similar a la anterior aunque con diferentes escalas de tiempo, figura 3.5. Fig 3.5. El cambio en la esquema o evolución de una máquina Las máquinas evolucionan en la medida que el hombre necesita nuevas herramientas y desarrolla nuevas tecnologías. Entropía Otra forma de ver el cambio de la estructura es a través del concepto de entropía. Este concepto, que viene de la Termodinámica y se conoce como la 2ª. Ley, en el contexto de sistemas hace referencia al orden. En la medida que aumenta el orden de un sistema disminuye su entropía. Al cambiar la estructura del S.C. para afrontar el medio ambiente, hay un aumento en el orden del S.C., decir baja su entropía. En los S.C., hay una disminución permanente de la entropía en el tiempo. La vida es un proceso de ordenamiento permanente, hace que la entropía disminuya, negando de alguna manera la 2ª. Ley. Escala de Tiempo 63 En el caso de la gallina, el cambio de su estructura ha tardado del orden de 100 millones de años. El cambio de la estructura del teléfono ha tardado del orden de 100 años. Los cambios en el Sistema Inmunológico pueden tardar semanas. Cada S.C. tiene su propia escala de tiempo, y es el parámetro básico de diferenciación de los S.C, Optimización en Sistemas Complejos Complejos El concepto de optimización que se usa en sistemas lineales no se puede aplicar a los S.C. En los S.C. son muchos los parámetros, algunos de ellos contrapuestos, que se deberían considerar al definir el comportamiento óptimo de un S.C. En su lugar se define una región de buen comportamiento dentro de la cual el sistema se comporta "bien" a diferentes estímulos del ambiente. También se puede llamar región de viabilidad, en la cual el sistema continúa operando apropiadamente. Fig 3.5. Región de comportamiento óptimo de un sistema complejo. Por consiguiente la solución de un problema complejo se debe buscar en la región de "buen" comportamiento y su solución óptima será la mejor solución encontrada hasta ahora en esa región. Comportamiento crítico crítico Hay situaciones en las que el S.C. presenta cambios gruesos en sus propiedades macroscópicas como resultado de pequeños cambios en las interacciones locales de sus subsistemas. También se conoce como el “efecto mariposa”, que hace referencia a que el movimiento de las alas de una mariposa en un lugar del planeta, por ejemplo en los Llanos Orientales, puede producir una helada en otro lugar del planeta, por ejemplo Chicago. Son muchos casos en los que la gente se pregunta sobre la situación crítica de los S.C. Si se esta haciendo una montaña de arena, y los granos van cayendo uno a uno, porque en un momento dado un solo grano puede hacer que se derrumbe la montaña? El caso más común de un S.C. en situación critica para nosotros es el famoso “florero de Llorente”, con el que se inicio nuestra independencia de España. Realmente el hecho de que el Sr. Llorente no prestara el florero fuera la causa de la independencia no tiene sentido. El sistema colonial español estaba en un estado crítico que cualquier evento diferente hubiera disparado todos los fenómenos sociales que se sucedieron a partir del 20 de julio de 1810. En este caso es mucho más claro el “efecto mariposa”. 64 1.2.4. 1.2.4 Características de un S.C. AutoAuto-Organización. Organización Como vimos los S.C. tienden a una mayor organización y ordenamiento de sus estructuras, lo que se hace a través del proceso evolutivo, que lleva un S.C. de una esquema estable a otro esquema estable. Aquí es importante analizar como se realiza este proceso de transición. Bajo el concepto de auto-organización un S.C. ahora se nos presenta como un conjunto de procesos, coherentes, evolutivos e interactivos que se manifiestan temporalmente en patrones globalmente estables. Pero cómo se organizan los S.C.? Primero se comportan como un todo, como una entidad y además, tienen una meta que cumplir, de manera que su patrón no solo se debe a la retroalimentación reforzada sino que incluye una causalidad interna. Un S.C. recibe energía disponible del ambiente que lo lleva fuera de equilibrio a través de la disipación irreversible de esa energía. Una vez la distancia a ese equilibrio alcanza un umbral critico, el “viejo” patrón se vuelve inestable y a través de la disipación de más energía el sistema responde con la emergencia espontánea de un nuevo comportamiento que organiza y mantiene el nuevo patrón logrado. Por lo tanto podemos ver la emergencia de patrones auto-organizados como una respuesta de los S.C. para continuar cumpliendo su meta. A la larga, todo S.C. no puede mantener la cohesión de sus componentes y desaparece. Desde otro punto de vista, es una reconfiguración del sistema complejo, según el Principio Darwinniano de Selección Natural, con base en leyes: físicas, químicas, biológicas, psicológicas, sociológicas, económicas, políticas, de mercado, y otras. Viabilidad. Es la capacidad de un sistema complejo para mantenerse y sobrevivir dentro de ciertos límites debido a cambios ambientales. Es un resultado de la Autoorganización. En caso de que la Auto-organización no logre la viabilidad del S.C., desaparece. Sinergia Se define sinergia como el resultado de la auto-organización y la coevolución de estructuras emergentes complejas. Aprovechan el comportamiento de los subsistemas que los componen para producir otros comportamientos emergentes. Por el principio de sinergia, el comportamiento del sistema no se puede predecir a partir del comportamiento de sus elementos. En términos familiares, se dice que en un sistema 2 + 2 > 4. Es por esto que los S.C. se deben estudiar y analizar globalmente (holísticamente) para conocer su comportamiento. Como campo de investigación la sinergia esta orientada a la búsqueda de patrones generales para la formación de nuevas estructuras. 65 Fig 4.1. En la parte izquierda, los componentes de un carro. En la parte derecha, el carro. Las funciones de los componentes son completamente diferentes al del sistema formado por ellos. Redes Adaptativas No Lineales, RANs, RANs Los S.C. conforman Redes Adaptativas No Lineales, RANs. El concepto de adaptación hace referencia a aprendizaje. El S.C. para mantenerse y sobrevivir dentro de un conjunto de ambientes diversos, debe aprender, es decir recordar experiencias anteriores e internalizarlas para comportarse adecuadamente ante los cambios del ambiente. Se auto-organizan, para mantenerse frente a los ambientes cambiantes. En otras palabras, se deben reorganizar internamente, como resultado de su aprendizaje, para continuar siendo viables. Las RANs tienen las siguientes características: • Gran número de elementos • Procesamiento paralelo y distribuido • Interacción no lineal y competitiva • Ausencia de autoridad central, aunque las relaciones de algunos nodos tengan más peso que otros • Hay operadores que modifican los elementos y sus interacciones • Presentan una adaptación progresiva del sistema. N N A N N Fig 4.2. RAN, Red Adaptativa No Lineal. A partir de esta consideración, un S.C. se puede definir con base en: un conjunto de nodos N, cada uno en un estado; una arquitectura del grafo; un conjunto de ambientes A; y pesos de conexión entre los nodos, W i, j. Además incluye una dinámica del S.C. definida por: reglas de transición, para cambios de estado de los 66 nodos; operadores de aprendizaje, o cambios en W i, j; y reglas de modificación del grafo. Para realizar el aprendizaje, en un S.C. se pueden considerar dos clases de autoorganización: vertical y horizontal. La Auto-organización vertical se puede considerar como un proceso evolutivo bastante lento, por lo que no lo consideramos. La que aquí nos interesa es la auto-organización horizontal. Auto-organización horizontal. En este tipo de auto-organización se presenta una competencia entre los nodos o elementos del sistema complejo, que lleva a la formación de clases. Estos elementos, a través de una co-adaptación, van detrás de una “Retribución”. Fig 4.3. Auto-organización horizontal. Competencia y formación de clases. Aprendizaje. Para la interacción del sistema complejo con el medio, este incluye mecanismos que le permiten almacenar información de las experiencias anteriores con el ambiente. Esto implica que muchas de las respuestas a los mismos estímulos pueden ser diferentes. No hay ni superposición ni homogeneidad. Se presentan dos esquemas de aprendizaje: aprendizaje rápido (Ciclo externo) y aprendizaje lento (Ciclo interno). Aprendizaje rápido (Ciclo externo). Guarda experiencias de su interacción con el ambiente, que le permiten incluso realizar ensayos y disminuir los errores en las siguientes interacciones. Los cambios en el sistema complejo que le permiten almacenar las experiencias se traducen en cambios en las ponderaciones de los pesos de las conexiones entre los nodos. Se le conoce también como de ciclo externo por que obedece a estímulos directos del ambiente. Se puede considerar como un aprendizaje para dar respuestas mecánicas, en un ambiente operativo. Aprendizaje lento (Ciclo interno). Es un aprendizaje que desarrolla por sí mismo el sistema complejo. No espera señales del ambiente, se prepara para sus posibles cambios. Son deducciones o abstracciones alrededor de las experiencias almacenadas. Este aprendizaje se manifiesta en el sistema por la reestructuración de las relaciones entre grupos de componentes del sistema. 1.2.5. Bases para el análisis de Sistemas Complejos John Holland, padre de los Algoritmos Genéticos, en su libro Hidden Order: How Adaptation Builds Complexity, Reading, Mass.: Addison-Wesley, 1995, explora formas en las cuales nuestras ideas sobre los S.C. se traducen en una comprensión más profunda. Para lograr esta comprensión define siete bases que consisten de cuatro propiedades y tres mecanismos, comunes a todos los S.C. A continuación se presentan estas bases. 67 Agregación, Propiedad Consiste en agregar o desagregar un componente a un S.C. Se considera en dos sentidos. 1. Desagregación. Cuando nos encontramos ante una situación completamente nueva, la desagregamos en los componentes que conocemos y en los que no conocemos. Luego estudiamos en detalle que componentes no conocemos y así obtenemos un conocimiento más cercano del S.C. 2. Agregación. Hace referencia a la emergencia de comportamientos de una escala mayor a partir de agregaciones de componentes menos complejos. Los agregados así formados pueden a su vez ser componentes de S.C. de mayor jerarquía. Fig 5.1. Escultura de toro alado con cabeza humana de la cultura Asiría. Comprendemos la escultura desagregando sus partes. Museo de Louvre. http://es.wikipedia.org/wiki/Escultura_asiria Rotulación, Mecanismo Es el mecanismo por medio del cual se facilita la formación de agregados. El ejemplo más común es la bandera que se usa para congregar personas de una misma nacionalidad. La rotulación permite ignorar ciertos detalles para concentrarnos en otros y delimitar un S.C. Los patrones visuales, las feromonas, las marcas, los logos, los iconos, los himnos, son ejemplos de este mecanismo. Cuando se examina más de cerca la marcación, se encuentra que los S.C. la usan para manipular simetrías. Nosotros también la usamos de manera inconsciente, para analizar nuestras situaciones cotidianas. 68 Fig 5.2. Marcha realizada en Porto Alegre, Brasil en 2003, en el III Foro Social Mundial. Hay delegaciones de diferentes países, que se identifican con sus banderas. www.observatorio.org.ar/FSM/marcha.jpg No Linealidad, Propiedad Como ya se ha dicho, las herramientas matemáticas desarrolladas hasta ahora como el algebra, el cálculo, etc, son lineales, de manera que la formación de las personas en las profesiones y las disciplinas se ha acomodado a las herramientas matemáticas disponibles. Fig 5.3. Errores en el tiempo de proyecciones sobre el clima global. Es por esto que todas las proyecciones que se hacen: económicas, políticas, industriales y otras, funcionan únicamente en la parte lineal de estos S.C., es decir cuando el ambiente no registra cambios, o cuando el nivel de resolución es muy bajo. Es por esto que las proyecciones las podemos aceptar solamente como posibles tendencias. En la figura 5.3, se puede apreciar como crece el error en el tiempo en una proyección del clima global. Flujos, Propiedad En nuestro discurrir diario hablamos del flujo de vehículos, del flujo de bienes, del flujo de capital entre países, de flujos de datos. Yéndonos a nuestra definición de S.C. hablamos de flujos entre los nodos o agentes, donde el agente emisor se puede considerar como fuente, el nodo donde llega el flujo como destino, y el canal como el 69 conector. Estas triadas, emisor, conector, fuente, son comunes en muchos S.C. En los procesos de adaptación estas triadas cambian, aparecen nuevas o desaparecen otras. Hay dos propiedades de los flujos, conocidas en economía que son comunes a todos los S.C.: efecto multiplicador y el efecto reciclaje que representan cuando se inyectan recursos adicionales al mismo nodo. Normalmente estos recursos pasan de un nodo a otro, posiblemente transformándose a lo largo del transcurso del flujo por los componentes del S.C. Constructo $100 $20 $800 Comida, alojamient $51 Obreros, $64 $16 $12 Fig 5.4. Distribución de la inversión en los nodos de la cadena. Efecto multiplicador. Efecto multiplicador. Se presenta cuando se inyectan recursos a un nodo El ejemplo común es el contrato para construir una casa. Usted contrata al constructor por una cantidad, supongamos $1000, quien se gana el 20%. El a su vez contrata los obreros por $800, quienes a su vez se ganan el 20%. Ellos pagan por su comida, habitación, educación y entretenimiento, $680, quienes a su vez compran alimentos y han hecho una inversión para dar educación y entretenimiento, $554. Y así sucesivamente. Ver figura 5.4. Generalizando, si se considera constante el porcentaje de ganancia en cada paso, en el ejemplo el 20%, entonces r es la inversión en cada paso, se puede calcular el efecto total: 1 + r + r2+ r3 + … = 1/(1 – r) Como en nuestro caso r = 0.8, el efecto multiplicador es 5. Este efecto surge sin considerar la naturaleza particular del tipo de flujo, sean bienes, dinero, o mensajes y se puede utilizar para analizar el efecto de cualquier recurso, teniendo en cuenta eso sí, que siempre hay cambios en el ambiente y en el mismo S.C. a estudiar. 70 Reciclaje, es el efecto de los ciclos en las redes. Considere una red que incluye tres nodos: un proveedor de materia prima o pulpa, un productor de papel y un periódico/lector. 1.0 Pulpa Papel 0.2 0.8 Periódico 0.16 0.64 Fig 5.5. Nodos emisores y destinos sin reciclaje. Los valores hacen referencia a las perdidas del flujo del 20% en cada nodo. En la figura 5.5. se tiene que en cada nodo hay una perdida del 20%, teniendo así que del 100% de pulpa que entra nodo fabricante de papel solo se utiliza el 64%, en periódicos. Veamos ahora un ciclo. Si se mantiene el mismo porcentaje de perdida del 20% en cada nodo y se hace un reciclaje del 25% del papel periódico, se produce un aumento del 16% en la producción de periódicos. Como se ve en la figura 5.6. 1.0 Pulpa Papel 0.55 0.25 0.80 0.2 0.25 Periódico 1.0 Fig 5.6. Reciclaje, nodos emisores y destinos conectados. En más detalle. Si se recicla el 25%, se tendría que a la fabrica de papel le entran 1.25 unidades. Como desperdicia el 20%, en este caso 0.25, envía al nodo periódico/lector 1.0 unidades. En el proceso se desperdicia 0.2 y se producen 0.8 unidades de periódico. De esas 0.8 unidades de periódico se recicla el 25%, es decir 71 0.25 unidades, que cierran el ciclo pues se envían al nodo fabrica de papel. En este caso se tiene una utilización de la materia prima del 80%. El reciclaje produce más recursos en cada nodo. Por otra parte, al hacer un análisis cuando hay reciclaje, el efecto multiplicador es mucho mayor. Diversidad, Propiedad El caso más exitoso de reciclaje se encuentra en los bosques húmedos tropicales, donde la diversidad de la biomasa es bastante elevada. La diversidad de agentes se logra por procesos evolutivos que aprovechan cada nicho de posibilidades que brindan los subproductos en el proceso de descomposición de la materia orgánica. Pues los agentes viven de reciclar los desechos que se generan en cada uno de los nichos. Nuestro cerebro consiste de una parafernalia de morfologías de neuronas organizadas en una jerarquía elaborada de núcleos y regiones; las grandes ciudades del mundo consisten de miles de distintas clases de personas, vendedores mayoristas, minoristas, estudiantes, profesionales. En cada S.C. hay diversidad de agentes. Fig 5.7. El bosque húmedo mantiene una listera.org/photos/data/pic/2001/07/01/03%20-... gran diversidad biológica. La persistencia de un agente individual, ya sea organismo, neurona o firma, depende del contexto suministrado por los otros agentes. Generalmente, cada clase de agente llena un nicho que esta definido por las interacciones centradas sobre ese agente. Si se elimina una clase de agente del sistema, dejando un “hueco”, el sistema normalmente responde con una cascada de adaptaciones resultando en un nuevo agente que “llena el hueco”. Normalmente, el nuevo agente ocupa el mismo nicho como el agente eliminado y suministra la mayoría de las interacciones faltantes. Sin embargo, es importante tener en cuenta que el sistema tiene una escala de tiempo, y que la generación de ese nuevo agente que “llena el hueco” tarda un tiempo propio de esa escala de tiempo del S.C. Es el caso de los sistemas ecológicos, que la devastación y su escala de tiempo son tan altas que no alcanza a generar los nuevos agentes para “llenar el hueco”, en términos de la escala de tiempo del hombre. Por otra parte la misma función la pueden desarrollar estructuras diferentes. Los casos clásicos son los ojos y las alas. Los ojos llenan los mismos nichos en 72 fisiologías diferentes, un nicho determinado por las interacciones que deben suministrar los ojos. Las interacciones del ecosistema se recrean ampliamente, aunque los agentes sean diferentes. La diversidad también surge cuando la difusión de un agente abre un nuevo nicho, que da la oportunidad de nuevas interacciones, que se pueden explotar por modificaciones de otros agentes. Veamos por ejemplo el caso de Internet, que ha presionado por la aparición de nuevas tecnologías de comunicación, nuevas herramientas de software, nuevos empleos, y otros muchos. El mimetismo es un fenómeno que se produce en ambientes con alta diversidad. Supongamos que hay una población de individuos compuesta solamente de halcones y palomas. Obviamente los halcones acabarían muy rápidamente con las palomas, llevando rápidamente a su propia desaparición al no tener que predar. Luego habrá palomas que mimetizan halcones, y halcones que mimetizan palomas para mantener la población. Este juego en una complejidad mucho mayor es el que se presenta en la naturaleza. Las orquídeas mimetizan muchos polinizadores tan bien que, como en el caso de la orquídea abeja, inducen movimientos copulativos como un medio para cubrir el insecto con el polen. Cada nueva especie abre posibilidades de nuevas interacciones y especialización, con aun más diversidad. Modelos Internos, Mecanismo El mimetismo busca confundir a los predadores, hace que ejecute las mismas reglas de comportamiento como si fuera el agente que se mimetiza. Son muy variadas las formas de mimetismo que se presentan en los S.C., debido a la gran diversidad de agentes y comportamientos. Veamos el caso de la mariposa Monarca y la mariposa Virrey. Cuando un pájaro se traga una mariposa Monarca nunca más se vuelve a comer otra dado que su sabor es muy amargo. La mariposa Virrey tiene los mismos patrones de colores y vuelo de la mariposa Monarca, de manera que para los pájaros tiene el mismo problema de la mariposa Monarca, por lo que no la atacan. Fig 5.8. A la izquierda mariposa Monarca, a la derecha mariposa Virrey. Los pájaros las confunden. www.iit.edu/~scanedw/BUTTER2.GIF y www.virtualmuseum.ca/.../NAC_21199.jpg La experiencia del sabor amargo es tan fuerte que los pájaros guardan en su memoria el patrón de vuelo y sus colores, de manera que cuando se les presenta el mismo patrón lo ignoran, suponen que se trata de la mariposa Monarca. El pájaro, dado el patrón anticipa el sabor amargo, ha desarrollado un modelo interno que le permite anticiparse. Los S.C. desarrollan modelos de los agentes de su entorno que les permite anticipar el resultado de su interacción. Nuestra sociedad usa modelos, cada vez más sofisticados para anticiparse y predecir diferentes modelos. La técnica básica para la construcción de modelos se indicó cuando se habló de la agregación: eliminar los detalles no determinantes para enfatizar en los detalles de 73 interés. Como los detalles de interés son internos del agente, debe filtrarlos de la cantidad de información que recibe permanentemente, encontrar el patrón y comportarse en consecuencia. Cuando el patrón no funciona, debe realizar cambios en su estructura, y adaptar el modelo que le permita al agente anticipar las consecuencias que siguen cuando se encuentre nuevamente con ese patrón o uno similar. Las agentes que fallan pierden recursos que favorecen a los exitosos. Suponemos que los únicos que se anticipan o predicen son los “mamíferos superiores” cuando es una propiedad de todos los organismos. Así, una bacteria se mueve en dirección de un gradiente químico, prediciendo que la comida se encuentra en esa dirección. En el caso de animales con cerebro, los modelos dependen de la experiencia sensorial del agente. Ya vimos el caso de los pájaros con la mariposa Monarca. El lobo basa sus movimientos sobre anticipaciones generadas por un mapa mental que incorpora mojones y olores. Los primeros humanos construyeron Stonehenge como un modelo explicito, externo que predice equinoccios. Fig 5.9. El pájaro observa la mariposa y su modelo mental anticipa el sabor de la mariposa. El computador, con su gran capacidad numérica, realiza simulaciones de máquinas y fenómenos complejos para predecir comportamientos y situaciones. Muchos de los desarrollo de la ciencia actual están orientados hacia la construcción de modelos de predicción, que buscan cada vez mas exactitud en su predicción. Bloques Construct Constructivos, ivos, Mecanismo Los modelos internos de los S.C., basan su predicción, en las muestras limitadas del ambiente que siempre esta variando. Sin embargo, las predicciones necesariamente siguen siendo válidas. Pero cómo se logra esto? Ya se había observado que el mecanismo de desagregación nos permite reconocer en una escena desconocida componentes que nos son familiares. Se tiene entonces que en cualquier situación siempre encontramos un gran número de componentes conocidos, que se organizan de diferentes maneras para producir nuevos escenarios, se usan y reusan en una gran variedad de combinaciones, como el conjunto de bloques constructores de un mecano. Componentes que se han probado muchas veces por su uso, selección natural y aprendizaje. Un ejemplo sencillo es la conformación de la cara de un sospechoso, con base en la forma de la cara, del pelo, de las cejas y de los ojos. Si se tienen 10 opciones para cada uno de estos componentes se pueden formar 10.000 caras diferentes. Si se 74 tienen 10 componentes cada uno con 10 opciones se pueden construir 1010 caras distintas Podemos generar experiencia a través del uso repetido de bloques constructores, con solo 100 bloques constructores. Casi cualquier cara que encontremos puede describirse por una escogencia apropiada del conjunto de 100 bloques constructores. Fig 5.10. Tabla de los 20 aminoácidos que forman todas las proteínas que conforman todos los seres vivos. Son los bloques constructores que se repiten una y otra vez en diferentes configuraciones. www.unlu.edu.ar/~qui10192/qi0020901b.jpg En al figura 5.10, se presentan los 20 aminoácidos que conforman todos los seres vivos del planeta, que se repiten una y otra vez en diferentes formas de organización. El código genético de toda la biomasa del planeta esta conformado de los cuatro nucleótidos: adenina, citosina, tiamina y guanina, que se repiten y organizan de diferentes maneras para mantener la información de cada ser viviente. Los transistores se repiten y organizan para crear diversidad de componentes electrónicos: computadores, calculadoras, aparatos de sonido, de video, etc. Donde quiera que veamos los bloques constructores nos ayudan a comprender el mundo complejo. En general cualquier encuentro con nuevas situaciones siempre estará conformado por bloques constructores conocidos. Aunque no hay una regla de comportamiento 75 para cada situación, siempre se presentan acciones posibles de ejecutar en situaciones desconocidas. Cuando uno se encuentra en una nueva situación aparentemente desconocida, uno combina bloques de construcción ya probados que de alguna manera modelan esa situación y nos permite seguir acciones apropiada 1.2.6..Bibliografía 1. Dimitrov D., Woog R., Kuhn-White L., The Divergence Syndrome in Social Systems. 2. HASSOUN M., 1995, Fundamentals of ARTIFICIAL NETWORKS, The MIT Press, Cambridge, Massachusetts. 3. HOLLAND J., 1995, Hidden Order: How Adaptation Builds Complexity, Reading, Mass.: Addison-Wesley. 4. Kirshbaum D., Introduction to Complex Systems : http://www.calresco.org/search.html , http://members.aol.com/calresco2/comments.html 5. MARTINEZ, J., ROJAS S. 1999, Informática Evolutiva, Facultad de Ingeniería, Universidad Nacional, Bogotá. 6. Principia Cybernetica Web http://pespmc1.vub.ac.be/ 7. PAGELS, H., 1991. Los Sueños de la Razón, Editorial Gedisa, Barcelona. 8. RENDERS, J-M., Algorithmes génétiques et réseaux de neurones, Hermes Perís,1995 76 1.3. Fundamentos de Vida Artificial. José Jesús Martínez Páez, Profesor Asociado y Especial, Departamento de Sistemas, Facultad de Ingeniería, Universidad Nacional de Colombia [email protected] 1.3.1.Introducción. La vida es un concepto trascendente dado que nosotros somos vida, y estamos atados a todos sus procesos. El término Vida Artificial, VA, nos pone en guardia contra un acervo de credos y sentimientos que han acompañado al ser humano a lo largo de toda su existencia. Sin embargo, la ciencia y la tecnología han comenzado a debelar sus misterios y es ahora cuando se empiezan a usar en forma pragmática a través de herramientas bio-inspiradas en la producción de nuevos bienes y servicios para el supuesto bienestar del hombre. Para una mayor compresión de dichas herramientas, se inicia con un estudio sobre la Vida Natural desde el punto de vista del proceso evolutivo que la ha creado. Luego se hace un breve desarrollo histórico de la VA, y posteriormente se presentan las herramientas bio-inspiradas. Evolución de la Vida Natural. La evolución de los seres orgánicos por medio de la selección natural es una de las teorías más importantes de todos los tiempos, pues es la única explicación científica e integral a la existencia y a las características del fenómeno más complejo con que el ser humano se ha encontrado en su largo camino de logros y descubrimientos: la vida en nuestro planeta. Se fortalece con las bases físicas de la herencia brindadas por la teoría molecular del código genético respecto a la estructura química del material hereditario y de la información que contiene, además de los mecanismos de expresión de dicha información. Ahora, al analizarla desde la teoría de sistemas, la teoría de la evolución presenta un nuevo aspecto que permite prever fuertes implicaciones de naturaleza teórica y práctica. Desde este punto de vista, las realizaciones de la vida se consideran como sistemas complejos adaptativos, es decir, sistemas no lineales definidos por medio de la interacción de un gran número de agentes capaces de adaptarse a su ambiente dinámico. Todos los seres vivos resultado de este proceso adaptativo, comparten tres propiedades básicas: invariancia reproductiva, teleonomía y morfogénesis autónoma. Invariancia reproductiva. reproductiva Es la característica más fácil de medir en forma cuantitativa, ya que se trata de la capacidad de reproducir una estructura con un alto grado de orden, es decir, de información. De esta forma, el contenido de invariancia reproductiva de una especie es igual a la cantidad de información que se transmite de una generación a otra para conservar la norma estructural específica que determina sus características. Esta propiedad se destaca por su carácter paradójico, dado que la conservación, 77 reproducción y multiplicación de estructuras altamente ordenadas incompatible con el segundo principio de la termodinámica, la entropía. parece En su estructura básica, todos los seres vivos están constituidos por las mismas dos clases de macromoléculas, las proteínas y los ácidos nucleicos. Además, estas macromoléculas están formadas por los mismos radicales, veinte (20) aminoácidos para las proteínas y cuatro (4) tipos de nucleótidos para los ácidos nucleicos. En cuanto a su funcionamiento, se utilizan las mismas secuencias de reacciones en todos los organismos para las operaciones químicas esenciales. De esta forma se constituye el equivalente a un alfabeto escrito en los nucleótidos y los aminoácidos, que determina las funciones asociativas específicas de las proteínas. Con este alfabeto se puede escribir toda la diversidad de estructuras y comportamientos existentes en la biosfera. Además, la reproducción, cuasiconstante en cada generación celular del texto escrito bajo la forma de secuencia de nucleótidos en el ADN, asegura la invariancia de la especie. Teleonomia. Todas las adaptaciones funcionales que presentan los seres vivos, así como todos los dispositivos configurados por ellos, cumplen proyectos particulares que se pueden considerar como aspectos o fragmentos de un objetivo primitivo único, que es la conservación y multiplicación de la especie. Por tanto, debe ser claro que no se trata sólo de actividades ligadas directamente a la reproducción, sino de todas aquellas que contribuyan, aunque muy indirectamente a la supervivencia y multiplicación de la especie. Así, todas las estructuras, todos los comportamientos y todas las actividades que contribuyan al logro del objetivo esencial se denominan teleonómicas. Se puede entonces considerar que las estructuras y comportamientos teleonómicos corresponden a una determinada cantidad de información que se debe transmitir de generación en generación para que se realicen tales estructuras y se cumplan tales comportamientos. Dicha cantidad de información se puede considerar como un nivel teleonómico propio de cada especie y que se debe transferir a cada individuo para asegurar la transmisión a la siguiente generación del contenido específico de invariancia reproductiva. Morfogénesis autónoma. autónoma. La estructura de todo ser vivo, desde la forma general hasta el menor detalle, se debe completamente a interacciones morfogenéticas internas al ser mismo; esta estructura define un determinismo autónomo, preciso y riguroso que implica una "libertad" casi total respecto a los agentes o condiciones externas, capaces de trastornar ese desarrollo pero no de dirigirlo o de imponer al organismo viviente una nueva organización. Este determinismo autónomo asegura la formación de las estructuras extremadamente complejas, con una considerable cantidad de información, de los seres vivos. Este proceso de morfogénesis autónoma y espontánea, se basa en última instancia en las propiedades de reconocimiento estereoespecífico de las proteínas, donde se encuentra el secreto de la construcción de los sistemas vivientes. 78 Las proteínas son moléculas muy grandes, con un peso molecular entre 100.000 y 1’000.000 o más, constituidas por la polimerización secuencial de compuestos de peso molecular cercano a 100, pertenecientes a los aminoácidos. Sin embargo, estos numerosísimos radicales sólo pertenecen a 20 especies químicas diferentes que se encuentran en todos los seres vivos, desde la bacteria hasta el hombre. Esta composición monótona constituye una sorprendente ilustración de que la prodigiosa diversidad de estructuras a nivel macroscópico de los seres vivos está basada en una unidad de composición y estructura microscópica. Cada una de las millares de reacciones químicas que contribuyen al desarrollo de un organismo es provocada por una proteína-enzima particular, en forma doblemente equivalente, es decir, cada enzima no cataliza sino un solo tipo de reacción y, aunque en el organismo hay muchos objetos susceptibles de sufrir ese tipo de reacción, por regla general la enzima sólo se activa con respecto a uno de ellos. Cada enzima es una unidad funcional independiente de los demás objetos y procesos que suceden en la maquinaria química de la célula, de forma que al considerar la suma de todas las actividades enzimáticas sólo se puede esperar el caos o, en caso contrario, la existencia de ordenamiento que conforme un sistema coherente. La función de ordenamiento la asumen el sistema nervioso y el sistema endocrino, los cuales aseguran la coordinación entre las células que forman los órganos y los tejidos. Así surge la diferenciación estructural con la adquisición de funciones a partir de una mezcla de moléculas que individualmente carecen de propiedades diferentes a la de reconocer sus compañeras. Traducción del código genético. El código genético, es decir, las instrucciones escritas en el ADN que regulan el desarrollo y funciones de los organismos, se convierte en sustancia proteínica por medio de un proceso de traducción en el que los ribosomas elaboran una cadena con un alfabeto de veinte letras a partir de una secuencia con un alfabeto de cuatro letras. Inicialmente, utilizando una enzima se copia un gen del ADN en un Ácido Ribonucleíco (ARN) mensajero que transporta el mensaje desde el núcleo hasta el citoplasma, donde se encuentran los ribosomas que fabrican proteínas. La copia del gen se introduce en el ribosoma, el cual lee la secuencia de nucleótidos y produce una proteína mediante la unión, por medio de enzimas especiales, de aminoácidos a moléculas específicas de ARN, de acuerdo a las relaciones naturales de apareamiento de nucleótidos. El siguiente ARN (y por tanto el siguiente aminoácido) lo selecciona el ribosoma en función del mensaje que está leyendo en el momento. Los conjuntos de nucleótidos del mensajero se acoplan perfectamente con el grupo de apareamiento de nucleótidos del ARN, de modo que cada aminoácido que entra al ribosoma, queda químicamente ligado a aquel que lo precede. 79 1 Fig 1. Clasificación de los cromosomas humanos según su tamaño y forma La realización continua de este proceso de enlace de eslabones crea la cadena proteínica que se libera cuando finaliza la lectura de la cadena del mensajero. Cada nueva proteína está determinada en forma exacta por un gen del ADN, así, el ADN contiene tantos genes como proteínas distintas hay en las células (en los humanos alrededor de 50.000). Los genes se organizan linealmente sobre un cromosoma. Los cromosomas contienen la información genética del organismo. Cada tipo de organismo tiene un número de cromosomas determinado; en la especie humana, por ejemplo, hay 23 pares de cromosomas organizados en 8 grupos según el tamaño y la forma (ver figura 1.). La mitad de los cromosomas de un ser humano, proceden del padre y la otra mitad de la madre. Las diferencias entre individuos reflejan la recombinación genética de estos juegos de cromosomas al pasar de una generación a otra. Mutaciones. Pese al alto grado de precisión de la labor realizada por los ribosomas, ocasionalmente suceden mutaciones o intercambios en uno o más de los cuatro (4) nucleótidos que constituyen los eslabones del ADN. Un cambio de estos altera una letra del mensaje original que copia el ARN mensajero, modificando a su vez la formación y función de la proteína generada. Una característica importante de las mutaciones es que se copian junto con el ADN, propagándose a todas las siguientes generaciones de células, persistiendo la mutación. Las radiaciones naturales y determinados productos químicos de fabricación humana causan las mutaciones por que alteran, dañan o incluso suprimen los nucleótidos, aunque existen enzimas muy precisas que reparan el ADN ante estos cambios, sin embargo, algunos alcanzan a superar este control. El 1 Tomado de Enciclopedia Microsoft® Encarta® 98 © 80 carácter fortuito de las mutaciones no permite saber qué eslabones quedarán afectados ni en qué momento. Sin embargo, si la mutación se produce en una célula sexual, que produce espermatozoides u óvulos para conformar un nuevo programa genético o zigoto, dicha mutación pasará al huevo fecundado. Cuando éste se divide, todas las células descendientes que formarán el organismo resultante conservarán la mutación, incluyendo sus respectivas células sexuales. Se considera que las mutaciones son perjudiciales, ya que la información que poseen los seres vivos ha sido acumulada a lo largo de tres mil quinientos millones de años de evolución y es remota la posibilidad que un cambio fortuito mejore el resultado. Se detectan fácilmente como una enfermedad, un defecto o una debilidad. Ocasionalmente dichos cambios confieren al organismo una ventaja en su relación con el medio ambiente, proporcionando a la criatura viviente proteínas ligeramente mejoradas que realizan mejor su función, aunque por regla general son difíciles de detectar. Las mutaciones son los instrumentos esenciales del mecanismo evolutivo. Mezcla sexual del ADN. ADN A diferencia de las mutaciones, la combinación del ADN con otro distinto, lo modifica sin dañarlo, puesto que el fragmento de ADN introducido ya ha demostrado su carácter benéfico. Este fenómeno debió haber tenido lugar por primera vez en el pasado remoto del ADN, como un tipo de unión de dos células en el cual la envoltura membranosa de las células se rompía permitiendo la mezcla de contenidos. Las características de la célula resultante estaban definidas por proteínas de ambas células. Este proceso se puede considerar el nacimiento del sexo, que dio su siguiente paso con la aparición de rasgos complementarios que facilitan el contacto, naciendo dos poblaciones con características elementales de masculinidad y feminidad. El apareamiento sexual de las bacterias, tal como actualmente se puede estudiar en el laboratorio ocurre de una forma muy similar probablemente a como se dio en las primeras etapas evolutivas. Algunas células presentan la característica de masculinidad o de donantes y otras la de feminidad o receptoras, sus superficies membranosas son complementarias y, por lo tanto, mutuamente atractivas. Cuando se juntan células de sexos opuestos se establece un túnel a través de las membranas en contacto y la bacteria masculina proyecta su ADN a la hembra. Este tipo primitivo de mezcla del ADN únicamente es adecuado para organismos con un nivel de complejidad bajo. En los seres superiores se acentúan las características sexuales, aparecen órganos especiales, ovarios y testículos, que producen células especializadas que al encontrarse se unen, figura 4 El óvulo fecundado por el espermatozoide es una única célula, el cigoto. Es importante anotar que las células especializadas espermatozoide y óvulo presentan la mitad de la cantidad de ADN que las demás del 81 organismo, de modo que al fusionarse, el cigoto tiene dos y no cuatro dotaciones completas de material genético. Fig 2. Unión de las células sexuales humanas 2 Adaptación. Adaptación Los conceptos anteriores son las bases para entender la forma en que la evolución produce organismos cada vez más aptos en ambientes que para un individuo son altamente inciertos. Los problemas de adaptación son difíciles por la complejidad y la incertidumbre encontradas en la búsqueda de lo óptimo. La complejidad hace que el objetivo, lo óptimo, sea lejano o incluso inalcanzable, de modo que es necesario explorar en cada paso, en cada ambiente presente, las mejores opciones. Además, la incertidumbre debe reducirse con rapidez, permitiendo el aumento de opciones con comportamiento "deseable", es decir, la información se debe explotar durante el proceso mismo de la optimización. La combinación constante y repetitiva, a lo largo de generaciones, de los procesos de cruce, mutación y selección, conducen el desarrollo de las especies hacia su objetivo específico: sobrevivir, es decir, conservar la especie. Una vez registrada en la estructura genética del ADN, toda alteración accidental, y aleatoria, del código se replica y se traslada a los ejemplares descendientes, la selección es producto del azar pero opera bajo las exigencias del ambiente con rigor férreo. Dichas exigencias brindan las orientaciones u objetivos que permiten los logros sucesivos de los seres vivos. La noción de la biología contemporánea es precisa: las únicas alteraciones aceptables son aquellas que no reducen la coherencia del aparato teleonómico, sino que más bien lo refuerzan en la orientación ya adoptada o, sin duda más raramente, lo enriquecen con nuevas posibilidades. 1.3.2.Características de la Vida. 2 Tomado de Enciclopedia Microsoft® Encarta® 98 © 82 Con base en la descripción que se ha hecho del proceso evolutivo se pueden sacar algunas características de la vida natural: La vida es información que se propaga de padres a hijos. La vida es información, información que se trasmite e información que se interpreta. La información que se propaga puede tener defectos. La auto-organización determina la viabilidad de la estructura de la información alterada. La selección determina la propagación de la nueva información. El proceso de evolución es un proceso permanente de filtrado e incremento de información genética. La vida es un sistema complejo adaptativo. Introducción a la VA. Hace 2000 años aproximadamente, Aristóteles hizo la observación que “posesión de vida”, implica que “una cosa puede nutrirse y decaer”. También consideró que la capacidad de auto-reproducción es una condición necesaria para la vida. De esa época a hoy, las opiniones han variado. Autómatas Durante todo ese lapso, y muy posiblemente casi desde el origen del hombre la vida ha sido asociada como un don sobrenatural. La física newtoniana, la revolución industrial y las leyes de la termodinámica empezaron a extender el dominio de la ciencia, y el reino biológico se hizo menos místico. La visión Newtoniana del mundo permitió predecir la posición de los cuerpos celestiales en determinado momento ¿no sería la vida igualmente predecible? Emergió una nueva escuela de pensamiento, que consideraba la vida como un proceso mecánico. Así, la vida era literalmente un autómata. ¿Se podría entonces duplicar?. Mecanicistas como Descartes y Leibnitz pensaron que había posibilidad de hacerlo. Algunos se atrevieron, y construyeron una clase especial de autómatas, dispositivos mecánicos que mostraban un comportamiento realista. El más famoso fue un pato artificial hecho de cobre dorado, que bebía, comía, graznaba, aleteaba sobre el agua y digería su comida, elaborado por Jacques de Vaucanson, quien en 1738 lo presentó en París, y luego lo paseó por Europa. El pato confundió la audiencia, su complejidad era prodigiosa, con aproximadamente 400 piezas movibles en un ala. Pero las diferencias obvias entre el modelo mecánico y su inspiración natural, solo acentuaba la dificultad de la creación de la vida. Se seguía considerando el don sobrenatural, el vitalismo, la llamada fuerza vital, élan vital, como el proveedor de vida. 83 Fig 3. (a) Autómata dibujante de H. Maillardert, construido en 1805. (b) Dibujo producido por el autómata en cinco minutos. En la segunda mitad del siglo XVIII, fue bastante productivo en la construcción de estos autómatas como el de la figura 3, hecho por Henry Maillardet, donde la memoria esta hecha con base en engranajes. Máquinas de Turing Hasta 1936 todos los mecanismos de autómatas conocidos eran de propósito particular, es decir, que todo mecanismo o autómata construido o ideado hasta esa fecha, se hizo para realizar una tarea determinada. Sin embargo, la idea de autómata tal y como se utiliza hoy día, y que da lugar a la teoría de autómatas, aparece con la formulación de la “Máquina de Turing3”. Del conocido como segundo problema de Hilbert, que dice que los axiomas de la aritmética común son consistentes entre sí, se paso a uno más general: el problema de la decisión; descubrir un método general para determinar si una formula de lógica formal podía o no satisfacerse o declararse verdadera. Estudiando este problema, en 1936, Alan Turing se planteó cómo definir con precisión un método que solucionara este problema. 3 DEWDNEY A. K., The Turing Omnibus, 1989. 84 Para ello, primero definió intuitivamente algoritmo como un procedimiento que se puede ejecutar mecánicamente. Luego definió el cómputo, como aquel proceso en el que un algoritmo se descompone en una secuencia de pasos atómicos simples, y concluyó que el sistema resultante es una construcción lógica, hoy en día conocida como Máquina de Turing. Turing también supuso que nuestro universo es granular; esto es, que se mueve a pasos discretos en el tiempo, aunque pueden ser tan pequeños como uno se imagine. En cada uno de estos instantes, una MEF (Máquina de Estado Finito) está en algún estado que se puede describir. La descripción puede ser muy complicada o muy simple; la única limitación es que el conjunto de posibles estados sea finito (el número puede ser muy grande pero no infinito). Entre el instante actual y el siguiente, la MEF, por medio de algún sensor puede tomar la información del ambiente que la rodea. Entonces con base en una "tabla de reglas" que controla su comportamiento, la MEF puede tener en cuenta ambos datos, su estado interno y la entrada externa, para determinar su comportamiento, es decir el estado interno que la máquina debe tomar en el próximo paso. Formalmente se puede definir una máquina de Turing como la tupla: A = ( X , Q,{I , D, P}, f ) X: Conjunto finito de entradas Xi Q: Conjunto finito de estados Qk f : Qx X → Qx X x {I , D, P} I: Movimiento del autómata una posición a la izquierda sobre la cinta D: Movimiento del autómata una posición a la derecha sobre la cinta P: Parada del autómata en la posición actual de la cinta La Máquina de Turing se puede visualizar como una grabadora sofisticada, con una cinta arbitrariamente extensible. La cinta esta marcada por cuadros y cada cuadro contiene un bit de información. La cabeza lectora, lee los bits y si es necesario borra lo que hay en el cuadro y/o graba encima. Hay también un mecanismo de control, el cual dice que hacer, al leer cada bit de información. En la Tabla 1 se describe la Máquina de Turing para la suma de dos números, expresados en formato (i +1) unos, es decir, que el 3 se representa como 1111. Figura 4 se muestra el desarrollo de la suma de los números 2 y 1. ESTADOS q1 q2 q3 q4 q5 q6 ENTRADAS ““ 1 q1 / d q2 / d q3 / 1 q2 / d q4 / iz q3 / d q5 / “ “ q5 / iz q6 / “ “ q6 / p q6 / p Tabla 1. Definición de la Máquina de Turing para la suma de dos números. / d, indica que la cabeza lectora se desplaza una posición a la derecha; / izq, 85 desplazamiento una posición a la izquierda; / p, parada; / “ “, escribe un blanco en la cinta. Los símbolos del conjunto X son {“ “, 1}. El autómata comienza en q1, leyendo el “ “ a la izquierda del primer número. Esto lo lleva al estado q2, y a desplazarse una posición a la izquierda. Estando en q2 y lee un 1, el autómata sigue en q2 y se desplaza una posición a la derecha. Estando en q2 y lee un “ “, graba en esa posición un 1 y pasa a q3. Estando en q3 y lee un 1, el autómata sigue en q3 y se desplaza una posición a la derecha. Estando en q3 y lee un “ “, se desplaza una posición a la izquierda y pasa a q4. En el estado q4 no puede encontrar un “ “, luego necesariamente aparece un 1, que hace que la máquina pase al estado q5 y graba en esa posición un “ “. Estando en q5 y lee un “ “, el autómata sigue en q5 y se desplaza una posición a la izquierda. Estando en q5 y lee un 1, graba en esa posición un “ “, pasa a q6 . Al llegar al estado q6, independientemente de la entrada, la máquina se para. 1 1 q1 1 1 q2 1 1 1 1 1 q2 1 1 1 q3 1 1 q3 1 1 1 1 q4 1 1 1 1 1 q5 1 q5 1 q4 1 q6 86 q6 Fig 4. Máquina de Turing para sumar los números 3 y 1, en formato i+1) unos. Consideremos que las reglas del autómata son un programa, mientras que las cadenas de símbolos en la cinta de memoria son los datos iniciales sobre los que opera dicho programa. Al cambiar las reglas que conforman el programa, encontramos diferentes salidas para los mismos datos iniciales, y entonces diremos que los programas son diferentes o que las máquinas son diferentes. Pero que pasa si el programa lo almacenamos en otra Máquina de Turing, que tendría un conjunto mayor de símbolos de entrada; incluso podríamos modificar las reglas, y tendríamos un programa diferente, con otras salidas. Entonces llegamos a que las reglas que rigen el comportamiento de una Máquina de Turing, se puede simular en otra Máquina de Turing, con diferentes reglas y símbolos de entrada. Siempre se puede encontrar una Máquina de Turing, que con determinadas reglas, simule otra (es decir, produzca la misma salida o estado final que otra), con tal que dispongamos de la cadena de símbolos adecuada. Esto es, siempre existe una Máquina de Turing con un programa P1 tal que, para cualquier otra Máquina de Turing con otro programa P2 y cualquier cadena de caracteres C2, podemos encontrar una cadena de caracteres C1 que hace que P1 (C1) = P2 (C2). De modo que, si proponemos un esquema básico de reglas para un autómata, podemos interpretar que la cadena de símbolos que hemos llamado datos iniciales, no solo contiene los datos sobre los que las reglas deben operar, sino que también contiene las reglas. Ahora se denomina Máquina de Turing Particular ( MTP) a aquella que con un esquema de interacciones básico, posee también una cadena de símbolos como entrada y/o programa. Y llamaremos Máquina de Turing Universal ( MTU) a una sin tal lista de símbolos y por tanto, dispuesta a recibir cualquier programa que le podamos proporcionar. Fácilmente se comprende su potencialidad y el siguiente principio: toda MTU se puede programar para que opere (simule) una MTP. De manera que las propiedades de una MTU no se pueden deducir de las propiedades de una determinada MTP, sino de las propiedades del conjunto potencial de todas las MTP. Este conjunto es el que forman todas las posibles máquinas con cinta de tamaño 1, 2, 3, etc. Lo que hace que la MTU sea extremadamente poderosa es la capacidad de almacenamiento de su cinta. Con la información adecuada en esta cinta, la MTU puede emular las acciones de diferentes máquinas. Turing probó que la máquina Universal de Turing puede también ser un computador universal. Esto significa que dándole el tiempo suficiente, puede emular cualquier máquina cuyo comportamiento se pueda describir completamente. Turing y el 87 filósofo Alonso Church, presentaron la hipótesis de Church-Turing la cual dice que una MTU puede no solo duplicar las funciones de las máquinas matemáticas, sino también las funciones de la naturaleza. Esto tiene sentido cuando se mira el mundo a través del sentido de Turing. Desde este punto de vista, casi todo se puede analizar como una MEF. Lo que determina el comportamiento de cualquier máquina, es lo que tiene dentro (su estado) y lo que toma de su ambiente (información de la cinta ). La hipótesis de Church-Turing se puede entonces aplicar a la mente humana, si se admite que el número de estados de la mente es finito. En cualquier instante una mente se encuentra en un posible estado. Antes del próximo instante, pueden llegar datos de entradas sensoriales. La información ambiental, en combinación con el estado inicial, determina el próximo estado de la mente. Turing aseveraba que la mente, como una MEF, seguía un protocolo lógico, esencialmente, una tabla de reglas determinada por fuerzas físicas y biológicas, para llegar a ese estado próximo. AUTÓMATA AUTOREPRODUCTO AUTOREPRODUCTOR R DE VON NEWMANN. NEWMANN Von Newmann estaba interesado en lo que en lo se conocería como la Vida Artificial, (VA), concentrándose en la auto-reproducción. Se maravilló con las similitudes entre los computadores, y el trabajo de la naturaleza. Cuando habló de la construcción del primer computador electrónico, investigó sobre dispositivos basados en operaciones lógicas. Admitió que los organismos biológicos eran complejos, más complicados que cualquier estructura artificial que el hombre hubiera examinado y que la vida estaba basada en la lógica, consideraba la vida misma como una concatenación reconstruible de eventos e interacciones. A finales de los 40, fue invitado a dar una serie de conferencias, la más famosa en Pasadena, California, la tituló “Teoría Lógica y General de los Autómatas”. Por “autómata” von Newmann se refiere a máquinas autooperativas; una máquina cuyo comportamiento se podía definir en términos matemáticos. Von Newmann no vio ninguna razón por la cual los organismos, desde las bacterias hasta los seres humanos, no se pudieran ver como máquinas, y viceversa. Si se entienden los autómatas, entonces, no solamente se entienden mejor las máquinas, se entiende la vida. Lo más importante era el concepto de auto-reproducción. Puede una máquina artificial producir una copia de sí misma, ¿estaría en capacidad de crear más copias? En 1943 von Newmann leyó el articulo de W. McCulloch y W. Pitts, titulado "A Logical Calculus of the Ideas Immanent in Nervous Activity", donde presentan un modelo para emular las funciones del sistema nervioso: una red neuronal artificial. Von Newmann asoció este desarrollo con la aseveración de Turing, que una MTU puede emular cualquier sistema de computación. Aquí estaba un sistema que sugería que los organismos vivos, 88 en sí mismos, tenían un sistema de computación innato, cuya salida determinaba su comportamiento. De esta manera, un computador universal puede semejar las funciones mentales de cualquier criatura viviente. No se necesita construir la máquina real para entender el mensaje: la vida es una clase de autómata. Von Newmann se dio cuenta que la biología ofrecía el sistema de procesamiento de información más poderoso disponible y su emulación sería la llave hacia sistemas artificiales poderosos. Diseñó una criatura artificial, que asumiría la función más compleja de la biología, la auto-reproducción. Inicialmente conformó una lista completa de partes empleadas y el plano de construcción del autómata, y las copió en una cinta D. El hábitat del Autómata autoreproductor era un depósito de componentes de los cuales estaba hecho. Se constituía de tres subsistemas principales. El subsistema A, una especie de fábrica, que podía tomar componentes del depósito y ensamblarlas según las instrucciones (D). El subsistema B funcionaba como una fotocopiadora: su trabajo era copiar las instrucciones D. El subsistema C, el mecanismo de control, instruía a A para construir el autómata descrito por D, y ordenaba que B sacara una copia de D, y la insertara en el autómata que acababa de construir A. UC Cinta Descendiente UC Cinta Padre Fig 5. Autómata autoreproductor de Von Newmann. En la mente de Von Newman se inició la auto-reproducción, y el autómata tomó vida, por la lectura de las instrucciones de la cinta. El componente C leyó las instrucciones, las suministró al duplicador el cual las copió y dio las instrucciones duplicadas a la fábrica, mientras almacenaba las originales. No solo estos autómatas se reproducían como nosotros, sino que con el paso del tiempo, tenían la capacidad de desarrollarse hacia algo más complejo que su estado original. Pues es posible que en el proceso de copiado de D, a través de muchas generaciones y muchos autómatas, se produjeran defectos en D, que impedirían la reproducción de los autómatas que los incluyeran o beneficiaran a otros haciéndolos más competitivos. 89 Este primer autómata tenia un defecto fatal, incluía muchas cajas negras. Algunos matemáticos y físicos dejaron de lado el problema de la caja negra, dedicándose a trabajar en estructuras auto-reproductivas menos ambiciosas. Estas construcciones, mucho más modestas tenían la ventaja de existir. En este punto von Newmann de nuevo anticipó el fenómeno. Su estudio de sistemas naturales lo llevó a considerar instintivamente a que la vida estaba fundamentada no solo en información sino también en complejidad. El ejemplo máximo es el camino de la evolución, la cual progresó de organismos unicelulares relativamente simples hacia otros mucho más complicados como los mamíferos. Von Newmann no estaba satisfecho con su modelo por el problema de las cajas negras. Hasta para él era un dilema, y la solución provino de una sugerencia de un colega, el matemático Stanislaw Ulam. Ulam sugirió, inspirado en el fenómeno del crecimiento de un cristal, un ambiente diferente: una rejilla infinita, como un tablero de damas. Cada cuadro de la rejilla se podría ver como una “celda”. Cada celda en la malla seria esencialmente una MEF separada, actuando sobre un conjunto de reglas compartidas. Cada celda guardaría información que seria conocida como su estado, y en cada intervalo de tiempo observaría las celdas a su alrededor y consultaría la tabla de reglas para determinar su estado en el próximo paso. La colección de celdas de la rejilla se podría ver como un organismo. Esta idea llamó la atención de von Newmann. El organismo viviente en este espacio seria una criatura de lógica pura. Cualquier cosa sobre ella podría expresarse matemáticamente. Podría existir. A partir de la sugerencia de Ulam, Von Newmann rediseñó su autómata auto-reproductor hacia lo que se conocería como el primer autómata celular4 (AC). El modelo celular de von Newmann, para un autómata auto-reproductor, empezó con un tablero de damas sin fronteras, con cada celda, en un estado de reposo o inactivo. Cada celda tenía veintinueve estados diferentes. La combinación precisa de esas celdas y sus estados dados era lo que indicaba a la criatura como comportarse, y realmente lo que definía la criatura. Cada celda individual, como una MEF, empezaría a seguir la regla que se le aplicara. El efecto de estos comportamientos locales provocaría la emergencia de un comportamiento global: la estructura auto-reproductora. Interactuando con las celdas vecinas y cambiando algunos de sus estados, se transformaría a sí misma en los materiales, en términos de los estados de la celda, que formaban el organismo original. Con los 29 estados posibles para cada celda, el proceso era razonablemente complicado. Esencialmente la máquina trabajaría en una forma similar a su primo cinemático. La cola de la celda contenía instrucciones para el cuerpo de la criatura, cuya colección de celdas, dependiendo de su estado, actuaba como 4 NEWMANN Von. Theory of Self-Reproducing Automata, editado por Arthur Burks, 1966 90 un computador, una fábrica o un duplicador. Eventualmente, siguiendo las reglas de transición que von Newmann redactó, el organismo hallaría el modo de crear un duplicado de su cuerpo principal. La información se pasada a través de una especie de cordón umbilical. Dos criaturas idénticas, ambas capaces de auto-reproducirse, estarían ahora en el tablero sin fin. Por estos desarrollos se considera a von Newmann como el padre de la Vida Artificial. Definición y Características de la VA. VA Del capítulo anterior, teníamos que la vida es información, información que se trasmite e información que se interpreta. Que dicha información se basa en un alfabeto de 4 nucleótidos, que al ser interpretada por los ribosomas crean proteínas con base en 20 aminoácidos. En otras palabras, la interpretación de la información genética es un proceso de producción y ensamble de los 20 aminoácidos, para la conformación de los organismos, de todos los organismos existentes. Bien, ahora pasemos a las disponibilidades tecnológicas de nuestros días. En primer lugar disponemos del computador, herramienta que trabaja con un código binario y en la cual es muy sencilla la replicación de información. También podemos desarrollar sistemas de software auto-reproductores a través de programas muy sencillos. En otras palabras, en teoría podríamos desarrollar “vida” en el silicio. Además contamos con muchos componentes con los cuales podríamos pensar en formas más “concretas”. Todo esto llevó a muchos investigadores a desarrollos que se llamaron a presentar en la primera reunión sobre Vida Artificial en Septiembre de 1987, en Los Alamos, Nuevo México. Lugar a donde muchos llevaron los sueños, de un esfuerzo colectivo, para crear nuevas formas de vida. El físico James Doyne Farmer hizo la siguiente predicción : “ Dentro de 50 a 100 años probablemente emergerá una nueva clase de organismos. Estos organismos serán artificiales en el sentido en que originalmente serán diseñados por el hombre. De cualquier modo, ellos se reproducirán y transformaran en otros diferentes a su forma original; estarán vivos, bajo una definición razonable de la palabra... La llegada de la Vida Artificial será el evento histórico más significativo desde la aparición de los seres humanos . . . ”5 La Vida Artificial, es una nueva ciencia cuyo objeto es el estudio y la creación de entes que parecen vivos en sistemas construidos por el hombre. La materia prima de esta vida es materia inorgánica y su esencia es la información. Es aquí donde los computadores aparecen como la fuente de la cual emergen estos “organismos”. El grado en que se pueden considerar reales es variable; muchos experimentadores admiten que sus creaciones de laboratorio son simulaciones de aspectos de la vida. La meta de estos practicantes de Vida Artificial ‘débil’ es entender más claramente la vida, que existe en la tierra y 5 FARMER James Doyne y BELLIN Alleta d’A. Artificial Life: The Coming Evolution en A-Life II, pág. 815. 91 posiblemente en cualquier otro lugar. Esperando que los mismos ordenes de comportamiento de la naturaleza surjan espontáneamente de las simulaciones, algunas veces los científicos se arriesgan a modelar directamente las características de los procesos de los sistemas vivientes. Algunos biólogos tratan estos sistemas artificiales como si fueran animales de laboratorio, pues sus características permiten sacar conclusiones de ciertos rasgos de organismos vivos conocidos. Como su composición es transparente, son mucho más fáciles de analizar que las ratas o las plantas. Los físicos se dedican a la VA en espera de que la síntesis de la vida den luces sobre la comprensión de todos los sistemas complejos no lineales, los cuales, se piensa, están gobernados por fuerzas universales no comprendidas todavía. Desde el punto de vista de la ingeniería, la VA nos ofrece posibilidades de ser creativos en el desarrollo de nuevos productos y servicios, y estos aspectos los trataremos más adelante con detalle. Los practicantes más osados se comprometen con la Vida Artificial ‘fuerte’. Se enfocan hacia el desarrollo a largo plazo, de seres similares a los actuales organismos vivientes. Se podrá dar cuerpo a estas criaturas en formas corporales, robots de Vida Artificial, o podrán vivir dentro de un computador. ¿Cómo podría algo dentro de un computador considerarse vivo? ¿Podría algo sintetizado, por humanos, aspirar a tal clasificación? ¿No debería el término “vida” estar restringido al dominio de la naturaleza ?. La VA es muy diferente a la ingeniería genética, que usa vida completamente desarrollada como su punto de partida. Los científicos de VA están estudiando cómo los sistemas vivientes actuales se pueden analizar, desarrollar y generar. Es un esfuerzo para ingeniar el curso de la evolución y ampliar el rango de los sistemas vivientes en el planeta tierra y más allá. De este gran experimento, podrían surgir finalmente, un entendimiento más profundo de la vida misma, una habilidad para usar sus mecanismos en nuestro desarrollo, y tal vez, el descubrimiento de leyes poderosas de la naturaleza que gobiernan no solamente los sistemas biológicos sino también una serie de interacciones auto-organizantes complejas no lineales. Chris Langton define Vida Artificial como: “...Es el estudio de sistemas hechos por el hombre que presenta características de comportamiento de sistemas naturales vivos. Complementa las ciencias biológicas tradicionales concernientes con el análisis de organismos vivos al tratar de sintetizar comportamientos similares a la vida dentro de computadores y otros medios artificiales. Ampliando la fundamentación empírica bajo la cual se basa la biología más allá de la vida en cadenas de carbono que ha evolucionado en la tierra, la Vida Artificial puede contribuir a la biología teórica localizando la vida como la conocemos 6 dentro de un gran cuadro de cómo debe ser la vida”. 6 LANGTON Chris. Vida Artificial. 1989 92 Modelo POE. Este modelo desarrollado por un grupo de investigadores entre ellos varios colombianos de la en Suiza, hace una abstracción de la vida en la tierra en tres niveles de organización: el nivel filogenético que concierne al proceso de evolución de los programas genéticos; el nivel ontogenético concierne al proceso de desarrollo de un solo organismo multicelular; y el nivel epigenético que trata con los procesos de aprendizaje durante el tiempo de vida de un organismo. Filogenético( P) Ontogenético(O ) Epigénesis(E Fig. 6 Modelo POE Ejes del Modelo POE. A continuación se detallan los ejes del modelo POE desde el punto de vista de la biología, para luego hacer su analogía desde el punto de vista de VA. Filogenésis. Este eje corresponde al proceso evolutivo en nuestro planeta con una duración aproximada de 3.500 millones de años, que estudiamos en el capítulo 2, para la conformación de un genoma o programa genético. A partir de la primera molécula que pudo auto-reproducirse este proceso ha llegado, hasta ahora, a la conformación de programas genéticos más complejos, pasando por toda la diversidad de especies la gran mayoría ya extintas. La existencia de los organismos se explica por la reproducción del programa genético en su descendencia, sujeta a una tasa extremadamente baja de error. La introducción de errores, en la transferencia de información de una generación a otra, en general conlleva errores en el programa que impiden su propagación a las generaciones siguientes. En casos muy especiales es posible que el error implique una mejora de ese programa con respecto a los demás, dándole mayor posibilidad de que su propagación a las generaciones siguientes sea más alta. La intermitente aplicación de operadores genéticos da origen a la emergencia de nuevos organismos. Este es un mecanismo estocástico. 93 Ontogenésis. Una vez se ha conformado un nuevo programa genético, genoma o zigoto, a partir de la recombinación de información de sus padres, comienzan sus divisiones sucesivas, sin interacciones ambientales. Cada nueva célula posee una copia del genoma original, pero dependiendo de su posición física, se inicia un proceso de especialización que se puede comenzar a observar a partir de un número muy bajo de células, alrededor de 8, fase que se conoce como de diferenciación celular. La ontogenia es el proceso de desarrollo de un organismo. Es un proceso esencialmente determinístico. Epigénesis. La cantidad de información del programa genético humano es del orden de 3 x 109 nucleótidos, secuencias de bases A, C, T, G. Esta cantidad de información representa la descripción completa de un organismo humano. Sin embargo, esta sola descripción no le permite a un ser humano interactuar con su entorno. Luego para que un organismo pueda manejar la complejjdad del ambiente se requieren otros medios de almacenamiento de información no genéticos, más elásticos. Así, en el proceso de desarrollo del individuo aparecen procesos que le permiten integrar una gran cantidad de interacciones con el ambiente. Estos procesos están soportados por los sistemas nervioso, inmune y endocrino. Con estos sistemas se tiene una información mucho elástica pues la información genética, en general, no cambia. La epigénesis es un proceso de aprendizaje del individuo. Dentro del espacio de definido por estos tres ejes encontramos toda la diversidad de seres que constituyen la biomasa en nuestro planeta. Todos compartiendo el mismo código y los mismos componentes elementales. 1.3.3.Modelo de VA. Con base en lo anterior, y en analogía con la naturaleza, podemos definir el espacio de los sistemas de VA, conformado por los mismos tres ejes: Filogénesis, Ontogenésis, y Epigénesis; pero con otra connotación. Ahora la Filogénesis, la llamamos Evolución, o informática evolutiva, ya que sus procesos simulan el proceso evolutivo natural; la Ontogenésis, la llamamos Replicación, pues generan comportamientos holísticos con base en reglas determinísticas que siguen todas las células artificiales; y la Epigénesis que llamamos Aprendizaje, en este caso tenemos Redes Neuronales Artificiales y Sistemas Inmunológicos Artificiales. Evolución Hace referencia a las herramientas que podemos agrupar como Informática Evolutiva, El tema central es la aplicación de los conceptos de selección basados en la aptitud de una población de estructuras de datos en la memoria del computador. Estas estructuras se reproducen de una manera tal que el contenido genético de sus descendientes está relacionado de alguna forma con el contenido genético de los padres; de la misma forma la aptitud de los hijos está relacionada, pero es diferente a la aptitud de sus padres. 94 Desde el punto de vista de la vida natural, en este eje, estamos usando la característica de teleonomia. El objetivo último de los seres artificiales es satisfacer lo mejor posible la función de aptitud definida por el programador. En muchos casos, la función de aptitud que se usa en la informática evolutiva no se orienta directamente hacia la reproducción. A los individuos de la población se les permite su reproducción en diferentes cantidades basada en la función de aptitud diseñada por el programador. Son varios los estilos que se han desarrollado en la informática evolutiva. Su distinción se encuentra en los tipos de estructuras que comprenden los individuos en la población y los énfasis en los operadores genéticos empleados. Estas diferencias caracterizan a los individuos y hacen permisible la variación genética. También hay diferencias en los operadores que crean la descendencia, así como en los métodos de selección y otros detalles menos significativos. Estrategia evolucionaria. Define un estilo asociado frecuentemente con problemas de optimización en ingeniería. Las estructuras que están bajo adaptación normalmente son conjuntos de variables objetivo con valores reales que se asocian con variables estratégicas con valores reales en un individuo. La aptitud está determinada por la ejecución de algoritmos y rutinas específicos que usan variables objetivo como parámetros. Las variables estratégicas controlan la forma en que la mutación varía cada variable objetivo durante la producción de nuevos individuos. La recombinación (o cruce) se utiliza tanto para las variables objetivo como para las variables estratégicas. 95 Programación Evolucionaria. Opera sobre una variedad de estructuras de representación, frecuentemente variables objetivo con valor real aunque con estructuras más complejas. Nuevamente, las variables objetivo funcionan como argumentos para algoritmos y rutinas específicos diseñados para solucionar problemas de interés. El único operador empleado es la mutación, con una estrategia construida a través del algoritmo, para dirigirla en una dirección computacionalmente provechosa. Algoritmos Genéticos. Operan frecuentemente con cadenas de caracteres de longitud fija, generalmente binaria. La aptitud se determina ejecutando algoritmos y rutinas específicos, usando una interpretación de las cadenas de caracteres como el conjunto de parámetros. La recombinación sexual o cruce es el principal operador genético empleado, junto con la mutación, comúnmente como un operador de importancia secundaria. Programación Genética. Es un retoño de los Algoritmos Genéticos, en el cual las estructuras de datos, árboles, que sufren la adaptación son en sí mismas programas de computador. Se usan operadores genéticos especializados que generalizan la recombinación sexual y la mutación, para los programas de computador estructurados en árbol que están bajo adaptación. Replicación. Este proceso se puede resumir como crecimiento o construcción, con base en reglas determinísticas, que define el genoma y que comparten todas las células, conllevan la producción de comportamientos emergentes. Hay que diferenciar entre replicación y auto-reproducción. Aquí se usa replicación como aplicar el mismo programa a todas las células, mientras que autoreproducción consiste en la producción de un nuevo genoma, a partir de otros genomas con la misma estructura. Desde el punto de vista de la vida natural, en este eje, estamos usando la característica de morfogénesis autónoma. Cada una de las células dependiendo de su posición y estado ejecuta el mismo programa, el genoma. En algunos casos los sistemas replicantes tienen la habilidad de autorepararse cuando sufren determinados daños. La herramienta básica en este eje son los Autómatas Celulares, AC, que veremos posteriormente. Aprendizaje. Este eje tiene que ver con el aprendizaje que debe realizar cada organismo individual para interactuar con el mundo real. También lo podemos definir como aprendizaje elástico, pues en general puede variar con el tiempo, en contraposición con el aprendizaje genético que realizan poblaciones completas de seres en largos periodos de tiempo, que el individuo no puede variar en el transcurso de su vida. Su proceso depende directamente del medio ambiente. En este eje tenemos las Redes Neuronales Artificiales RNA 96 y los Sistemas Inmunológicos Artificiales. Posteriormente se ampliará en cierto detalle las RNA. Dentro de este espacio definido por los ejes E (Evolución), R (Replicación), y A (Aprendizaje), podemos situar cualquier ente desarrollado por el hombre con características de ser vivo. 1.3.4.Herramientas bioinspiradas. A continuación se detallan las principales herramientas bioinspiradas que soportan los ejes del Modelo de VA. Estas herramientas se han utilizado individualmente en forma directa para la solución de problemas con una complejidad relativamente alta, generalmente superando las herramientas matemáticas numéricas disponibles. En la segunda parte del libro, se detallan, como herramientas clásicas, los Algoritmos Genéticos, la Programación Genética, los Autómatas Celulares y las Redes Neuronales Artificiales. Herramientas clásicas Algoritmos Genéticos. Genéticos Los Algoritmos Genéticos, AG, son la herramienta que más se acerca al proceso de evolución natural. El problema que se pretende solucionar con el AG se presenta como una función de aptitud que debe satisfacer una o varias condiciones. El AG trabaja muchas posibles soluciones en forma paralela. Estas posibles soluciones se conocen como individuos o cromosomas. El número de individuos se conoce como el tamaño de la población. Inicialmente estos individuos se generan aleatoriamente, de los cuales necesariamente algunos serán mejores que otros enfrentando el problema planteado. A través de un proceso de selección, se busca llevar los mejores individuos a la siguiente generación. Una vez conformada la nueva generación se seleccionan de a dos para su apareamiento, con el fin de compartir información para la producción de descendientes. A estos descendientes, dependiendo de una probabilidad generalmente baja, se les hace una mutación. Este proceso, evaluación, selección, cruce y mutación, se repite hasta que se satisface un criterio de evaluación o se llega a un número determinado de iteraciones que se conoce como número de generaciones. En este punto se tiene una solución buena o muy buena que satisface las condiciones del problema. Los individuos se representan por una cadena finita de símbolos que se conoce como el cromosoma. En el caso del Algoritmo Genético simple que es el que se detalla a continuación, los símbolos son 0 y 1. La estructura del cromosoma debe representar todas las posibles soluciones del problema, es decir, define el espacio de búsqueda del AG. Por lo tanto, un cromosoma es un punto en el espacio de búsqueda de soluciones candidatas. Cada posición de la cadena finita que conforma el cromosoma se conoce como gen. El problema que se pretende solucionar junto con sus restricciones se define como la función de aptitud. 97 El AG procesa sucesivamente la población corriente de cromosomas, reemplazando una población por otra a medida que avanzan las generaciones, con base en el comportamiento de los individuos con respecto a la función de aptitud. La aptitud de un cromosoma depende de qué tan bien esta solución resuelva el problema. Operadores Genéticos Los AG trabajan con tres operadores genéticos básicos: selección, cruce y mutación. A continuación se da una explicación de cada uno. Selección: Este operador simula la selección natural, define los criterios que permiten que los cromosomas de una población pasen a la siguiente generación, es decir, se reproduzcan. Esta selección se basa tanto en la aptitud de cada cromosoma al enfrentar el problema como en la aptitud global de la población. Entre más apto sea un cromosoma con respecto a la población, tiene mayor probabilidad de ser seleccionado, es decir, contribuir con uno o más descendientes en la siguiente generación. Este operador se aplica atodos los individuos. Cruce: Este operador permite combinar información de padres exitosos para la producción de descendencia supuestamente más exitosa que sus padres. En el caso del AG simple, se toman dos padres y se selecciona aleatoriamente una posición, a partir de la cual se intercambia la subsecuencia antes y después de la posición, entre los dos cromosomas padres para crear dos hijos. Este operador se aplica a los individuos con una probabilidad pc generalmente alta. Mutación: Este operador cambia aleatoriamente el valor de uno de los genes de un cromosoma. Comúnmente este operador se aplica luego del cruce. Permite hacer una exploración a otras partes del espacio de búsqueda para evitar que la solución sea un óptimo local. Otra forma de verlo es que aumenta la diversidad genética, posibilitando mejores soluciones. Este operador se aplica a los individuos con una probabilidad pm, generalmente baja. DESCRIPCIÓN DEL ALGORITMO ALGORITMO GENETICO SIMPLE A continuación se presenta una descripción del AG simple, para ir avanzando en su presentación. Vamos a definir los principales parámetros. M, es el número de generaciones; K, la población, o número de individuos de cada generación; l, el número de bits o genes que conforma un cromosoma o individuo; x, es el valor que representa un cromosoma, se obtiene a través de un proceso de decodificación, es el punto en el espacio; f(x) es la función de aptitud aplicada en el punto x. El AG siempre trabaja de la siguiente forma: 1. Inicialmente genera la primera población aleatoriamente. Crea K cromosomas con l bits de longitud. 98 1. Calcula la aptitud f(x) de cada cromosoma x de la población, encuentra la aptitud global de la población, y la aptitud con que contribuye cada cromosoma. 2. Repite M veces los siguientes pasos, o el número de v}eces que sea necesario para satisfacer alguna otra condición: • Para cada cromosoma de la población actual se efectúa un proceso de selección que define si tendrá o no descendientes en la siguiente generación. Este es un proceso probabilístico en que a mayor contribución a la aptitud global, mayor probabilidad de selección del cromosoma para tener descendencia. La selección se hace sin reemplazo, es decir, que un cromosoma puede seleccionarse más de una vez para ser padre. • Se escoge un par de cromosomas de la población de padres, con una probabilidad de cruce pc. Se cruzan el par de cromosomas en un punto escogido aleatoriamente (escogido con una probabilidad uniforme) para formar dos hijos. • De acuerdo con una probabilidad de mutación pm, se elige sustituir un símbolo de un gen que forma la cadena de un cromosoma. Una vez aplicados estos operadores se tiene la nueva población. 3. Reemplaza la población actual por la población nueva. 4. Regresa al paso 2. Debido a que la aleatoriedad juega un papel importante en cada ejecución, dos ejecuciones con diferentes semillas en la generación de los números aleatorios generalmente pueden producir comportamientos diferentes en las primeras generaciones, para hacia al final converger a las mismas respuesta o respuestas muy cercanas. . Los reportes estadísticos, como aptitud promedio de la población, generación en la cual se encontró el individuo con la mejor aptitud, son en promedio iguales para diferentes ejecuciones del AG sobre el mismo problema. A continuación se describe en seudolenguaje, el Algoritmo Genético, con todas sus subrutinas básicas, que se pueden traducir muy fácilmente a cualquier otro lenguaje de programación. ALGORITMO G GENETICO ENETICO Rutina principal Corresponde a la descripción que acabamos de estudiar. El ciclo principal de la rutina se ejecuta M-1 veces. La variable i se emplea como índice de las iteraciones. La estructura Pob_nueva guarda los K cromosomas de longitud l que se generan inicialmente. Una vez se ha evaluado esta población se convierte en Pob_vieja. Procedure Inicio() begin genera(Pob_nueva); evalua(Pob_nueva); for i:=2 to M do begin 99 Pob_vieja=Pob_nueva; seleccion(Pob_vieja); cruce(Pob_nueva); mutacion(Pob_nueva); evalua(Pob_nueva); end; end; Rutina General Esta rutina simula aleatoriamente un bit. se obtiene simulando cadenas de 1’s y 0’s. [´0, 1]. el lanzamiento de una moneda, para generar La variable i corresponde al cromosoma i, cuyo gen j el lanzamiento de una moneda. Así se forman las Aleat guarda en tipo real un resultado aleatorio entre Procedure genera(Pob_nueva) begin randomize; for i:=1 to k do begin for j:=0 to l do begin aleat:=random; if (aleat>0.5) then cromosoma[i].gen[j]:='1'; else cromosoma[i].gen[j[:='0'; end; Pob_nueva[i]:=cromosoma[i]; end; end; Rutina evalúa Una vez se tiene la primera generación, se debe evaluar el comportamiento de cada individuo con respecto a la función de aptitud. Luego encontrar cual es su aporte a la aptitud global de la población para saber qué tan bueno es con respecto a los demás. La aptitud total de la población se guarda en Tot_apt, la aptitud del cromosoma i que guarda en el vector asociado cromosoma[i].aptitud. La aptitud con que contribuye el cromosoma i a la aptitud global, en porcentaje se guarda en el vector asociado cromosoma[i].porcent. Procedure evalua(Pob_nueva) begin Tot_apt:=0; for i:=1 to k do begin t:=F_aptitud(cromosoma[i]); cromosoma[i].aptitud:=t; Tot_apt:=Tot_apt+cromosoma[i].aptitud; end; for i:=1 to k do 100 begin t:=(cromosoma [i].aptitud/Tot_apt)*100; cromosoma[i].porcent:=t; end; end; Función F_aptitud Esta función que devuelve un valor real, es la encargada de evaluar la aptitud del cromosoma i de la rutina anterior, la cadena x en esta función. Para ilustrar mejor el algoritmo, tomamos como ejemplo maximizar una función real arbitraria: (f(x) = x + |32*Seno(x)|. Llama a la función decodifica, que convierte el valor entero binario x en un valor del espacio de soluciones. Function F_aptitud(x) begin valor_x:=decodifica(x); F_aptitud:=valor_x + abs(32*sin(valor_x)); end Función Decodifica Esta función convierte el valor binario del cromosoma en un valor real, dentro del espacio de soluciones. Cómo existen diversas formas de representar el espacio de soluciones en la estructura del cromosoma, para cada una de esas formas hay un esquema propio de codificación. La función decodifica es la que realmente hace que el AG sea universal, ya que con solo modificarla se pueden representar una amplia variedad de problemas. La variable rango define el intervalo en el cual puede estar el valor real del cromosoma, para el ejemplo rango es [0, π]. En valor se calcula el valor del cromosoma en binario. Function decodifica(x) Begin valor:=0; for i:=1 to l do valor:=(valor+cromosoma[x].gen[i])*power(2,li); decodifica:=(valor/(power(2,l)-1))*rango; end; end; Procedimiento Selección Este procedimiento es la versión artificial de la selección natural, la cual busca un superviviente darwiniano entre los individuos (cromosomas) más aptos; en las poblaciones naturales la aptitud está definida por la habilidad del individuo para sobrevivir a predadores, pestes y otras situaciones que 101 reducen la posibilidad de que el individuo llegue a adulto y pueda reproducirse. El ciclo externo se debe a que se trabaja con población constante y se deben seleccionar k individuos. El ciclo interno es la búsqueda de los mejores individuos dentro de la población, que se debe repetir hasta completar los k, por eso los mejores individuos se seleccionan varias veces. Llama la función reproducción. Procedure selección(Pob_vieja) begin seres:=0; repeat begin for i:=1 to k do begin f:=reproduccion(i); if (f<>0) And (seres<k) then begin seres:=seres+1; Pob_nueva[i]:=cromosoma[i]; end; end; end; until seres=k; end; Función Reproducción En general, la función objetivo es la que determina la vida o la muerte de los individuos, por ser la que define cual es su aptitud; aquí, la función reproducción es la implementación del método de selección proporcional, el método de ruleta basado en la aptitud del cromosoma con respecto a la población. Esta rutina podría ser reemplazada por otros métodos de reproducción. Aleatorio es un número aleatorio entre [0, 1]. Function reproduccion(i) begin j:=aleatorio*100; if (cromosoma[i].porcent>j) then reproduccion:=1; else reproduccion:=0; end; Procedimiento de Cruce Este procedimiento no utiliza la probabilidad de cruce, que se puede implementar fácilmente, sino simplemente selecciona dos parejas consecutivas de la población seleccionada y las cruza en un punto escogido aleatoriamente. n es el punto para el cruce y es una posición aleatoria entre 2 y l - 1. Este es el cruce más elemental, se pueden hacer cruces multipunto, lo que mejora el comportamiento del algoritmo pues elimina sesgos en la población. 102 Procedure cruce(Pob_nueva) begin i:=1; while (i<k) do begin n:= Trunc((( l-1)*random)+1); for j:=n to l do begin bit:=cromosoma[i].gen[j]; cromosoma[i].gen[j]:=cromosoma[i+1].gen[j]; cromosoma[i+1].gen[j]:=bit; end; Pob_nueva[i]:=cromosoma[i]; Pob_nueva[i+1]:=cromosoma[i+1]; i:=i+2; end; end; Procedimiento de Mutación Con el fin de ahorrar tiempo de proceso, se toma la probabilidad de mutación, que en general es muy baja, cuyo inverso es el número de bits de toda la población dentro del cual se selecciona uno para invertir. Por ejemplo, si la pm es 0.001, se divide la población en segmentos de 1000 bits y en cada segmento se selecciona un bit y se invierte. Se supone que la población dividida por el número de segmento es un entero, n. procedure mutacion(Pob_nueva,pm) begin totalbits := k * l; segmento := 1/pm; n := totalbits/segmento; for i := 1 to n do begin m := (aleatorio*segmento)+((n -1) * segmento); i:= Trunc((k/m)+1); j:= m - ((i*k)- 1); if (cromosoma[i].gen[j]=’0’) then cromosoma[i].gen[j]:='1' else cromosoma[i].gen[j]:='0'; end; end; Otras funciones Dependiendo del nivel de sofisticación del programa, se pueden incluir rutinas para la impresión de las cadenas, dependiendo de las necesidades de análisis del algoritmo. En caso de no llegar a una convergencia, se puede replantear la codificación de las variables, o la evaluación de la función, o el método de selección o la longitud de la cadena. Asimismo se puede almacenar el mejor individuo (cromosoma) que se obtuvo durante todas las generaciones del proceso. En las investigaciones actuales sobre búsqueda genética, en determinados tipos de problemas, se pueden 103 variar y aumentar los operadores de cruce y mutación, y también es posible la creación de nuevos operadores genéticos. CONCLUSIONES Los procedimientos para implementar un AG son extremadamente sencillos, y lo que es más sorprendente es que, efectivamente, el método evolutivo (que en principio no se entiende como un método formal de optimización matemática) conduce a soluciones idóneas para el problema en cuestión. En este capítulo se presentó una descripción genérica de cómo funciona un AG, con el ánimo de introducir el tema mediante ejemplos sencillos. Pero, hablando en términos generales, la aplicación de AG a problemas más complejos, continúa preservando la misma estructura simple (población inicial y a continuación la iteración de operadores genéticos hasta hallar un óptimo). Esta es una de sus características más llamativas. Inclusive, ya existen librerías orientadas por objetos para la implementación de AG de “propósito general”, lo cual permite al ingeniero dedicar su esfuerzo al análisis de la función de aptitud y los operadores particulares para su problema, dado que ya puede contar con las funcionalidad básica, entre otros, generación de la población inicial, selección, cruce, mutación, números aleatorios, etc. (una de estas librerías es el GALib, descrita en el Apéndice B). El potencial de aplicación de estos algoritmos es inmenso, y aparece como un campo de investigación interesante en muchas áreas del conocimiento. El reto principal para poder utilizarlos en problemas específicos, lo constituye la búsqueda de la representación de la solución mediante cromosomas binarios, y la definición apropiada de los operadores de selección, cruce y mutación, y de la función de aptitud. Después de esto, solo basta implementarlo en el computador, y observar como “misteriosamente”, el AG evoluciona hasta encontrar la solución. En lo que respecta a las ciencias computacionales, la investigación está abierta para la búsqueda de nuevos operadores, y la asimilación de nuevos conceptos estudiados en la teoría genética y evolutiva, con el ánimo de enriquecer este nuevo enfoque de solución de problemas de ingeniería. Redes Neuronales Artificiales (RNA) Son una emulación del sistema nervioso de los animales multicelulares, que les permite controlar su organismo, interactuar con el ambiente y asociar hechos. Estas acciones son más complejas en la medida en que aumenta la cantidad de células nerviosas o neuronas y sus conexiones. Si se examinan con atención problemas, cuya descripción algorítmica es muy compleja, como identificar en fracciones de segundo a una persona entre una multitud, su solución desde la óptica de la ingeniería, tienen una característica común: la experiencia. Los animales superiores, como el hombre, son capaces de resolver estas situaciones acudiendo a la experiencia acumulada. Así, parece razonable que una forma de aproximarse a la solución de éste tipo de problemas consiste en la construcción de sistemas que sean capaces de simular esta característica. 104 La observación anterior fue considerada por los científicos de las ciencias del computador en lo que se ha denominado Neurocomputación área cuyo objeto de estudio se denomina las Redes Neuronales Artificiales, que no son más que un modelo artificial y simplificado del cerebro de los animales superiores. Así una red neuronal es un sistema para el procesamicnto de información, cuya unidad básica de procesamiento está inspirada en la neurona. RED NEURONAL NATURAL Una red neuronal natural está conformada por un gran número neuronas, que se encuentran interconectadas masivamente. Una neurona consta esencialmente, como se ilustra esquemáticamente en la Figura l, de un cuerpo, denominado soma, al cual están conectadas unas fibras nerviosas, llamadas dendritas, y un axón, una fibra delgada y larga, dividida en su extremo en una serie de fibras terminales. La neurona recibe señales de entrada provenientes de otras neuronas, a través de las dendritas, que se conectan con las dendritas de las células emisoras en un proceso que se conoce con el nombre de sinapsis, durante el cual se lleva a cabo un intercambio electroquímico entre las partes. Las uniones de una neurona con otra pueden ser excitatorias o inhibitorias. Cuando la suma de las intensidades de todas las entradas supera un umbral determinado, la neurona transmite una señal a través de su axón a las demás neuronas conectadas a ella. De acuerdo con algunos resultados de la neurofisiología, la buena capacidad de cómputo de las redes neuronales radica en su estructura masivamente paralela pues, aunque la velocidad de conmutación de una neurona biológica es mucho menor que la de ciertos componentes electrónicos actuales, mediante los métodos de computación tradicionales es prácticamente imposible resolver ciertos problemas de la vida cotidiana que sí son fácilmente solubles por el cerebro humano. Una neurona artificial es un modelo matemático, en ocasiones denominado autómata, que recibe una señal (valor) de entrada, asume un estado (valor) y produce una señal respuesta De esta manera, una Red Neuronal Artificial, como la mostrada en la Figura 2 Esquema de una Red Neuronal Artificial, consiste de una colección de neuronas artificiales, las cuales están interconectadas mediante relaciones con ponderaciones asociadas, es decir, valores vinculados a cada conexión. Cada unidad tiene un estado que es un valor real continuo entre cero y uno y retorna este estado a las unidades con las cuales está conectada. El estado de una neurona artificial se actualiza continuamente de la siguiente manera: El nuevo estado es una función de la suma de ponderaciones de sus entradas y usualmente esta función es una sigmiode. Como se observa, algunas de las neuronas son designadas como neuronas de entrada, es decir, su estado es puesto por el ambiente y otras son designadas como neuromas de salida, es decir, su estado es enviado al ambiente. El aprendizaje se da por cambio de las ponderaciones de las conexiones y este cambio depende del error, es decir, la diferencia entre la salida actual y la salida deseada de la red, dada la entrada. Este es un 105 ejemplo de aprendizaje supervisado puesto que se requiere un profesor quien provee la salida deseada. En contrate, existe el aprendizaje por refuerzo que es un ejemplo de aprendizaje no supervisado. La salida de la red se evalúa como favorable o desfavorable por el ambiente y esta evaluación es realimentada como una señal de refuerzo positiva o negativa a la red. No hay necesidad de un profesor quien provea la salida deseada. Adicionalmente, ésta realimentación puede ser retardada, es decir, la señal de salida puede usarse como refuerzo en un tiempo futuro. De esta manera, la aplicabilidacl del aprendizaje por refuerzo es mucho más amplio que el aprendizaje supervisado. De otro lado, el modelo de neurocomputación más simple es el que relacioua la salida de una neurona con las entradas ponderadas a través de una función de activación (Figura 3), este modelo, denominado perceptrón simple, permite resolver problemas de diferenciación entre patrones sólo si estos son linealmente separables, esto es si puede construirse una función lineal que divida el espacio de ocurrencia de los patrones en regiones mutuamente excluyentes, de tal forma que patrones diferentes se encuentren localizados en regiones. DISCUSIONES Y CONCLUSIONES: Además de permitir la resolución de una gran variedad de problemas, Las redes Neuronales Artificiales poseen también desventajas. Una de las desventajas está en que requieren la deiïnición de muchos parámetros antes de poder aplicar la metodología. Por ejemplo hay que decidir la topología de la red más apropiada, el número de capas de neuronas ocultas, el número de neuronas por capa, las interconexiones, la función de transformación, etc Otra desventaja de las Redes Neuronales es que no ofrecen una interpretación fácil como sí lo hace, por ejemplo, un algoritmo que calcule una regresión lineal. Con todo, a pesar de éstas desventajas, las redes neuronales han resultado una excelente y única alternativa en la resolución de problemas que por métodos algorítmicos y secuenciales, eran difícil, si no imposible, de modelar y solucionar. EVOLUCION ARTIFICIAL La idea de aplicar los principios biológicos de la evolución natural a los sistemas artificiales introducida hace más de tres décadas ha crecido notablemente en los últimos años. Usualmente agrupados en el término algoritmos evolucionarios o computación evolucionaria, se encuentra el dominio de los algoritmos genéticos, estrategias evolutivas, programación evolutiva y programación genética. Como un ejemplo de evolución artificial se consideran los algoritmos genéticos. CIRCUITOS PROGRAMABLES A GRAN ESCALA Un circuito integrado es llamado programable cuando el usuario puede configurar su función por programación. El circuito es distribuido después de ser producido en un estado genérico y el usuario puede adaptarlo programándole una función particular. En este documento se consideran solo los circuitos lógicos programables, donde la función programada es un uno (1) lógico, dentro del rango de funciones booleanas simples hasta máquinas de estado complejo. La función programada es codificada como una cadena de bits representando la configuración del circuito. Se debe hacer notar que esta es una diferencia entre programación de un chip microprocesador estándar y programación de un circuito programable— el primero involucra la 106 especificación de una secuencia de acciones, o instrucciones, mientras que el último involucra una configuración de la máquina misma. El primer circuito programable permitió la implementación de circuitos lógicos que fueran expresados como una suma lógica de productos. Existen PDL’s (Dispositivos lógicos programables), cuya versión más popular es el PAL (Arreglo lógico programable). Más recientemente nueva tecnología ha emergido, proporcionando mayor flexibilidad y funcionalidad más compleja: el FPGA (field-programmable array logic). Un FPGA es un arreglo de celdas lógicas ubicadas en una infraestructura de interconexiones, la cual puede ser programada en tres distintos niveles: (1)la función de las celdas lógicas, (2) las interconexiones entre celdas, y (3) las entradas y salidas. Los tres niveles son configurados con una cadena de bits que es cargada de un recurso externo, solo una vez. En el último caso el FPGA es considerado reconfigurable. Los FPGA’s son dispositivos altamente versátiles que ofrecen al diseñador un amplio rango de alternativas de diseño. Sin embargo, este potencial necesita un conjunto de herramientas en el diseño de un sistema. Esencialmente, esto genera la configuración de cadena de bits, dadas las entradas como un diagrama lógico o una descripción funcional de alto nivel. Interconexiones Configurables Funciones Configurables Cadena de Configuración Lógicas celdas celdas E/S Fig. 8 Diagrama esquemático de un 1.3.5. Software & Hardware Evolutivo El hardware evolutivo es un subdominio de la evolución artificial, donde la meta final es la síntesis de un circuito electrónico. El trabajo de Koza incluye la aplicación de programación genética a la evolución de un multiplexor de tres variables y un sumador de dos bits. El principal objetivo es demostrar las 107 capacidades de la metodología de la programación genética, antes que diseñar circuitos actuales. El hardware evolutivo es tomado como una metodología de diseño, que ofrece una mayor ventaja sobre los métodos tradicionales. El trabajo del diseñador se reduce a construir la base evolucionaria, la cual se encarga específicamente de los requerimientos del circuito, los elementos básicos, y el esquema de prueba para asignar la aptitud (esta última fase es frecuentemente la más difícil). Si este ha sido diseñado correctamente, la evolución puede entonces (automáticamente) generar el circuito deseado. Actualmente han sido desarrollados más diseños digitales que son menos óptimos con respecto a las metodologías tradicionales; sin embargo mejores resultados han sido demostrados. Se puede derivar una clasificación aproximada del hardware evolutivo actual, de acuerdo con la codificación del genoma (por ejemplo la descripción del circuito), y el cálculo de la aptitud de un circuito. Codificación del genoma: Lenguajes de alto nivel. Usando un lenguaje de alto nivel par codificar los circuitos, significa que la solución final puede ser transformada para obtener un circuito real. La solución desarrollada es un programa que describe el multiplexor (deseado) o sumador, antes que un diagrama de interconexión de elementos lógicos (la representación de hardware actual). Hemmi usó un lenguaje de alto nivel para representar el genoma en la descripción del hardware. Koza y Kitano usaron una operación de reescritura, adicional al cruce y la mutación, para habilitar la formación de una estructura jerárquica. Lenguajes de bajo nivel: La idea es incorporar directamente dentro del genoma la cadena de bits que representan la configuración de un circuito programable. El uso de una descripción del circuito de bajo nivel es un paso importante puesto que potencialmente permite colocar directamente el genoma en el circuito real. Sin embargo, los FPGA introdujeron su propia forma de compartir los problemas. La longitud del genoma era del orden de miles de bits haciendo la evolución prácticamente imposible con la técnica corriente. Aún el genoma se tiene en un esquema lógico, fase para la cual no existen métodos automáticos. Dentro del espacio de circuitos que consiste de todos los circuitos representativos, algunos son inválidos. Cálculo de la Aptitud: Hardware Offline. El uso de un lenguaje de alto nivel para representar el genoma significa que uno tiene que transformar el sistema codificado para evaluar su aptitud. Esto se hace por simulación, implementando la única solución. Hardware Online. La representación del genoma en bajo nivel permite una configuración directa del circuito, vinculando así la posibilidad de usar hardware real durante el proceso evolutivo. 108 CARACTERÍSTICAS COMUNES DE HARDWARE FILOGENETICO ACTUAL El trabajo hecho hasta ahora permite observar algunas características comunes que difieren de la evolución biológica.Sigue una meta definida: el diseño de un circuito electrónico, sujeto a especificaciones precisas. Una vez encontrado el circuito deseado el proceso evolucionario continúa. La población no tiene existencia material. A lo más lo que se ha llamado evolución ONLINE, hay un circuito disponible, sobre el cual se cargan los individuos de la población “uno a la vez”, para evaluar su aptitud. La ausencia de una población real en la cual los individuos coexistan simultáneamente presenta dificultades notables entre “organismos”. Esto lleva a un cálculo de aptitud completamente independiente, contrario a la naturaleza que presenta un escenario coevolucionario.Si uno trata de solucionar un problema bien definido, que incluye la búsqueda de un sistema lógico específico combinacional o secuencial, no hay aproximaciones intermedias. El cálculo de la aptitud se lleva acabo consultando una tabla que es una descripción completa del circuito. Los mecanismos evolucionarios se ejecutan externamente del circuito resultante. Esto incluye los operadores genéticos así como también el cálculo de la aptitud.Las diferentes fases de la evolución se desarrollan secuencialmente, controladas por una unidad central de software. CATEGORIZACIÓN ACTUAL Y HARDWARE EVOLUTIVO FUTURO El eje filogenético admite cuatro subdivisiones cualitativas: EJE Todas las operaciones genéticas en Hardware Evolución cerrada O Todas las operaciones en línea en Hardware Evolución no cerrada N L I Circuito Real O F F L I Mayoría de operaciones en Software Diseño de Circuitos evolucionarios Todas las operaciones genéticas en Software Fig. 9 El eje filogenético admite 4 subdivisiones. 109 operaciones se realizan en software, donde la solución resultante se carga posiblemente en un circuito real. Aunque es una metodología potencialmente útil, ésta falla dentro de la realidad de las técnicas tradicionales. Luego se encuentra en que se usa un circuito real durante el proceso evolutivo, aunque la mayoría de operaciones aún se realizan en software, hay algunos ejemplos donde el cálculo de la aptitud se efectúa sobre un circuito real. Thompson evolucionó un hardware para controlar un robot móvil con dos motores, que tenía un comportamiento simple para eludir obstáculos. Usó un Algoritmo Genético Simple para representar una máquina de estado. Thompson evolucionó un FPGA de 10 x 10 celdas, para discriminar entre ondas cuadradas de 1Khz y 10Khz presentados como entradas. Nuevamente usó un Algoritmo Genético Simple para representar un posible circuito. En ambos casos sólo tenía un FPGA disponible. Un aspecto interesante es que no hay restricciones en el uso del hardware. En otro caso, uno de los principales problemas fue superar el tamaño del genoma. Para esto se propusieron dos soluciones: Algoritmos Genéticos con longitud del cromosoma variable AGV, donde el genoma no representa directamente la cadena de bits de configuración sino codifica las posibles operaciones lógicas y conexiones. Es necesario entonces un decodificador para traducir el genoma en cadenas de configuración de FPGA. Este decodificador es más sencillo que el VHDL, así que se reduce el tamaño del genoma sin aumentar el costo computacional. Evolución a nivel de función, donde las unidades básicas no son componentes lógicas elementales sino funciones de mayor nivel (multiplicador, generador de ondas, etc.). No hay actualmente esa herramienta. Otro nivel en el eje, en el cual se encuentran sistemas en que todas las operaciones se hacen en línea en hardware. No es cerrada, no hay una meta predefinida ni un ambiente dinámico, se trata de un sistema celular evolutivo en donde tiene lugar la evolución completamente en línea. Se basa en un modelo de Autómatas Celulares que efectúa cálculos en forma distribuida y extendida especialmente en la grilla. Basado en un algoritmo evolucionario de programación celular implementado en un Autómata Celular no uniforme unidimensional, cada una de las 56 celdas de estado binario contiene un genoma que representa su tabla de reglas. Estos genomas se inicializan al azar, y se dejan evolucionar. El sistema especifica la resolución de una tarea de sincronización global: a partir de una configuración inicial aleatoria de estados celulares, el sistema debe alcanzar, después de un número de pasos una configuración donde los estados de las celdas oscilen entre todos ceros y todos unos. Esto se puede comparar con luciérnagas, miles de ellas alumbran al unísono, después de comenzar completamente descoordinadas. Cada insecto tiene su propio ritmo que cambia por interacciones con las luces de sus vecinos. 110 Debido a la conectividad local del sistema, este comportamiento global incluye toda la grilla lo cual comprende una tarea difícil. Sin embargo, aplicando el proceso evolucionario se soluciona tal tarea. El sistema celular evolutivo descrito presenta una evolución completa en línea, todas las operaciones se realizan en línea en hardware sin hacer referencia a un computador externo. La ultima subdivisión incluye una población de entidades de hardware que evolucionan en un ambiente cerrado. Cuando se impone un criterio de aptitud de acuerdo con la tarea que se va a solucionar (la regla con técnicas de evolución artificial), se tiene una forma de evolución guiada o dirigida, en contraste con la evolución abierta que ocurre en la naturaleza, que no admite criterios de aptitud impuestos externamente, en lugar de uno implícito, emergente, dinámico, que se podría resumir como supervivencia. La evolución abierta no dirigida es la única forma conocida de producir dispositivos como ojos, alas y sistemas nerviosos y dar surgimiento a la formación de especies. La no direccionalidad se aplicaría a la evolución artificial si quisiéramos observar la emergencia de sistemas completamente nuevos. Esta ultima categoría se puede realmente considerar hardware evolucionante meta que por ahora se elude. Un área de aplicación natural para tales sistemas esta en el campo de robot autónomos, que incluye máquinas capaces de operar en ambientes desconocidos sin intervención humana. EL EJE ONTOGENÉTICO: HARDWARE REPLICANTE Y REGENERANTE. El eje ontogenético incluye el desarrollo de un solo individuo a partir de su propio material genético, esencialmente sin interacciones ambientales. Como se puede ver en la figura 5 el eje ontogenético se puede considerar ortogonal al eje filogenético. El proceso principal del eje ontogenético se puede resumir como crecimiento o construcción. El hardware ontogenético presenta tales características como replicación y regeneración que encuentran su uso en muchas aplicaciones. Por ejemplo los sistemas replicantes tienen la habilidad de autorepararse cuando sufren un daño grave, y se han propuesto como un medio económico de exploración espacial. En efecto la replicación se puede considerar como un caso especial de crecimiento, este proceso incluye la creación de un organismo idéntico duplicando el material genético de una entidad madre en una hija creando así un clon exacto. Es importante distinguir entre dos términos diferentes: replicación y reproducción, que generalmente se consideran sinónimos. La replicación es un proceso de desarrollo ontogenético que no incluye operadores genéticos resultando en un duplicado exacto del organismo padre. La reproducción por otro lado es un proceso filogenético, que incluye operadores genéticos como cruce y mutación, llevando a la diversidad y finalmente a la evolución. GENOTIPO 1 Proceso Reproductivo Proceso de desarrollo FENOTIPO 2 111 La figura muestra dos generaciones precedidas y seguidas por un indefinido número de generaciones. La ontogenética incluye el desarrollo del fenotipo en una generación dada (flechas horizontales), mientras que la filogenética incluye la sucesión de generaciones a través de la reproducción del genotipo (flechas verticales). Los genes. Constituyentes básicos del genoma actúan en dos diferentes niveles, participan en el proceso de desarrollo, influenciando el desarrollo del fenotipo en una generación dada, y participan en la genética, teniendo copia de las generaciones (reproducción). La investigación sobre sistemas ontogenéticos comenzó con el trabajo de Von Neumann en su trabajo de autómatas auto-replicantes a final de los 40’s. Posteriormente este trabajo se amplió y más recientemente ha visto la emergencia de sistemas que presentan división celular y diferenciación celular. Esta línea de investigación se ha dividido en cuatro fases, ubicados a lo largo del eje ontogenético. Von Neumman y sus sucesores Banks, Burks y Codd desarrollaron un autómata auto-replicante capaz de realizar cómputo universal (capaz de simular una máquina de Turing universal). Mientras la complejidad de este autómata es tal que la implementación física completa aún no ha sido posible, las celdas de Von Neumman han sido recientemente implementadas en hardware. Langton y su sucesor Byl, Reggia y Morita e Imai desarrollaron un autómata auto-replicante, el cual es más simple y ha sido simulado completamente. Sin embargo estas máquinas carecen de capacidades de cómputo y construcción. Tempesti y Perrier desarrollaron un autómata auto-replicante inspirado en el trabajo de Langston, dotado con capacidades computacionales finitas o universales. Una de las características definidas de una celda biológica se refiere como la parte pequeña del inicio de la vida, la cual lleva consigo el plan completo del inicio, que es el genoma. Respecto a esto, los autómatas auto-replicantes son organismos unicelulares: hay un genoma particular que describe la máquina completa. Parecía que una vez que estaba en movimiento el ciclo de vida de la onda, las ondas nacientes y sus progenitoras formaban, lo que podía llamarse una colonia, poblando su territorio en una forma similar a cierta vida marina como un coral. Cuando la primera onda dio a luz, tanto la madre como la hija comenzaron la 112 reproducción, la madre formando una prole hacia el norte y la hija comenzando una tercera generación hacia el oriente. Pero en la medida en que se crearon nuevas ondas, alguna de las más antiguas quedaron desesperadamente rodeadas por descendientes no pudieron extender sus colas hacia fuera para reproducirse de nuevo. Las reglas de Langton permitieron en estos casos que se borraran las señales que fluían a lo largo de las celdas del núcleo, dejando una onda vacía, muertas. En la medida en que continuaba el proceso reproductor, más y más ondas muertas permanecían en el centro, mientras que una comunidad vital daba nacimiento a nuevas generaciones en niveles externos, muy parecido a un arrecife de coral. Era el comportamiento de la biología que surgía espontáneo de las reglas de la simulación de Autómatas Celulares . Para Langton el experimento era una venganza: las fuerzas de la biología puede reproducirse en las máquinas. El fenómeno de la cultura se aplica por fuera de la experiencia humana. Las estructuras basadas en las reglas, pueden mantener las claves para reproducir los seres y todo el universo Las piezas del rompecabezas estaban en su sitio. 1.3.6. PERSPECTIVAS DE LA VIDA ARTIFICIAL Investigación en herramientas.Son muchos las herramientas o técnicas que se deben combinar para obtener productos de Vida Artificial. Estas herramientas también están en investigación. Entre ellas se encuentran: • • • • • • • • • • • Redes Neuronales Artificiales. Algoritmos Evolutivos. Autómatas Celulares. Aprendizaje de Máquinas. Teoría de Agentes. Simulación. Etología Artificial Memética. Química Artificial. Teoría de la Auto-organización. Computación Molecular. Además de una revisión de la Termodinámica y de la Teoría de la Información, a la luz de los nuevos desarrollos. Actualmente se usan estas herramientas para solución de problemas de ingeniería, especialmente en optimización. Investigación en Vida Artificial. Los modelos de vida Artificial que se han construido para el estudio de problemas en biología., se clasifican por el medio en que se trabajan: Hardware, Software, y “Wetware” (húmedo); y por el nivel de organización: molecular, celular, de organismo, o de población. 113 Nivel molecular: sistemas wetware. Los sistemas de vida Artificial wetware son los más similares a la vida natural y en efecto actualmente se derivan de ella. La mayoría de los experimentos se relacionan con procesos artificiales de evolución, alrededor de la producción de moléculas de ácido ribonucléico (RNA) con propiedades catalíticas específicas. Nivel celular: sistema software. Estas investigaciones están dirigidas al entendimiento de como un ensamble multicelular diferenciado puede replicarse a sí mismo, y cómo se desarrolla tal replicación. Como vimos, Von Newmann fue el primero en caracterizar condiciones de autoreplicación en sistemas de AC. Se han hecho estudios de cómo las células individuales pueden reproducirse para formar el próximo nivel de organización. El nivel celular de vida está en el área donde podría parecer que los estudios de la Vida Artificial están solo comenzando. Nivel de organismo: sistemas hardware. Para modelar comportamientos de cosas vivientes en el nivel de organismo, por ejemplo, de insectos, se deben modelar el sistema nervioso y sensorial del organismo, su cuerpo, y su medio ambiente. Aunque pensamos que el sistema nervioso es lo más complejo, tendemos a ignorar el hecho de que los cuerpos de los animales son altamente complejos, su geometría su mecánica, dinámica sus propiedades térmicas, la imitación de energía, su crecimiento, su comportamiento dinámico, etc., son todos altamente complejos. En principio todos estos componentes se pueden simular por software, aunque en la práctica, la cantidad de computación requerida sobrepasa la capacidad de tecnológica actual.. Sin embargo, ahora es posible modelar en el medio físico, y representar los animales y sus interacciones usando pequeños robots autónomos móviles. Con esta tecnología, podemos modelar organismos que logran la interacción de varias modalidades perceptuales, como navegar en el espacio, controlar sus sensores y músculos, como hacen todas las cosas en tiempo real. Nivel de población: modelos de ecuaciones vs modelos de Vida Artificial.Los modelos de comportamiento de poblaciones, tradicionalmente se han expresado generalmente como sistemas de ecuaciones diferenciales. Desafortunadamente, estos modelos están sujetos a muchas limitaciones. Uno de los éxitos de la vida Artificial ha sido el desarrollo de una alternativa que modela la población como un conjunto de programas de computador coejecutándose, uno por cada célula o uno por cada organismo. Estos modelos ofrecen la ventaja de codificar el comportamiento de un organismo como un programa. Además, el código hace que los modelos sean más fáciles de usar y modificar. 1.3.7.Notas finales 114 Son muchas las posibilidades que nos presenta este nuevo paradigma, posibilidades en investigación y en aplicación. Si bien es cierto que hay niveles que requieren una infraestructura muy grande, también hay niveles donde podemos trabajar con solvencia. Desde nuestro punto de vista de ingeniería, debemos investigar para el diseño de sistemas que tengan algunos de los mecanismos de los sistemas naturales: autoreparación, autoadaptación, reproducción, flexibilidad, eficiencia, tolerancia a fallas, etc. En la Universidad hay varias personas trabajando en esta área, especialmente el Grupo de Sistemas Complejos y Bioinformática, conformado por Profesores de Biología, Matemáticas e Ingeniería. Entre las actividades más importantes desarrolladas por este grupo están: Seminario de Bioinformática, que lleva más de 5 años. Congreso Colombiano de Neurocomputación, que se ha efectuado en dos oportunidades. Línea de profundización en Sistemas Complejos y Bioinformática, que ofrece tres cursos a la carrera de Ingeniería de Sistemas. Proyectos de Grado, se han desarrollado del orden de 20 proyectos de grado en el área. 1.3.8.BIBLIOGRAFÍA 9. ADAMI, C. 1998, Introduction to Artificial Life. Springer-Verlag, TELOS. 10. FRANCO O., ESCALLON S. 1995, Estudio Básico de Vida Artificial, Proyecto de Grado, Facultad de Ingeniería, Universidad Nacional, Bogotá. 11. PAGELS, H., 1991. Los Sueños de la Razón, Editorial Gedisa, Barcelona,.. 12. TAYLOR C., JEFFERSON D., 1995, Artificial Life as a Tool for Biological Inquiry, Artificial Life an Overview, MIT Press. 13. TOFFOLI, T., MARGOLUS, N., 1987, Cellular Automata Machines: a new environment for modelling., MIT Press. 115 1.4. El aceite y el agua si se mezclan:Intersecciones entre las Ciencias Sociales y la Ingeniería hacia una perspectiva transdisciplinaria sobre Mundos Virtuales Javier Salazar, MSc. Tohoku Gakuin University . Human Informatics Division [email protected] Resumen Los estudios sobre Mundos Virtuales y su diseño ya constituyen uno de los tantos campos de estudio bien establecidos dentro de las Ciencias e Ingenierías de la Computación. Igualmente, dentro de las Ciencias Sociales existe también un cuerpo creciente de investigaciones relacionadas con los aspectos humanos de los Mundos Virtuales, tales como: la cognición humana como base para la Inteligencia Artificial, modelamiento de sistemas sociales , redes sociales y formación de grupos, identidades virtuales, cibereconomías y ciberculturas; entre otros. En este articulo me dedico a presentar una breves reseña sobre estos temas, con la intención de proveer al lector de una introducción acerca de cómo los Mundos Virtuales podrían ser estudiados bajo una perspectiva transdisciplinaria en la cual tanto las Ciencias Sociales como la Ingeniería puedan coexistir hacia la facilitación de una comprensión holistica del fenómeno. 116 1.4.1. Introducción: interdisciplinariedad y transdiciplinariedad La motivación para escribir este artículo surgió en el año 2004 cuando asistí a una de las conferencias sobre “Cyberworlds”, que en aquella oportunidad se llevo a cabo en Tokio, Japón. Para aquel entonces, mis intereses en investigación ya gravitaban en torno a los Mundos Virtuales, específicamente en torno a la gran variedad de fenómenos sociales complejos que ocurren dentro de ellos. Sin embargo, dado que mi “background” académico esta relacionado con Psicología Social y Antropología Cultural, la conferencia Cyberworlds 2004 me enfrentó con una serie de tópicos muy diferentes a los que yo estaba acostumbrado a estudiar dentro de mi campo de estudio: arquitecturas de servidores, programación de Inteligencia Artificial (I.A.), métodos para el modelamiento y creación de personajes en 3D, sistemas de seguridad criptográficos, entre muchos otros. Para mi sorpresa, descubrí que la mayoría de estos temas, si bien distantes de mi propia área de conocimiento; estaban tan intrínsecamente relacionados con mis propios temas de investigación que hubiera sido una gran omisión de mi parte el no tomarlos en cuenta. Cuando se estudian fenómenos sociales en los Mundos Virtuales, el investigador debería siempre de tomar en cuenta los aspectos técnicos de hardware y software al igual que las características de diseño del ambiente virtual dado. La razón de ello es que estos aspectos a la final siempre contribuirán en la caracterización de la serie de formaciones socioculturales que emergerán en dicho Mundo Virtual. Esta es la principal razón por la cual intente absorber tanto conocimiento como pude de la conferencia Cyberworlds 2004; y de hecho el hacerlo me dio su fruto: mi proyecto de investigación actual consiste en la simulación de patrones de (re)producción de identidades sociales en juegos online de multiusuarios y para lo cual necesito emplear tanto métodos de las Ciencias Sociales ( como por ejemplo la Etnografía) como métodos y procedimientos de la Ingeniería y Ciencias de la Computación ( como por ejemplo, simulación computarizada de sistemas complejos de multi agentes y programación de I.A.). El hecho de que mi quehacer académico actual incluya el estudio de temas y el uso de técnicas y métodos derivados de las “ciencias duras” (y que en un principio yo hubiera pensado que no tenían nada que ver con Psicología Social ni Antropología Cultural) es debido, en parte, a que tuve la buena fortuna de entrar en contacto con investigadores de otras disciplinas y campos de estudio que me permitieron ver la relevancia que tenia lo que sus áreas de conocimiento podían decir sobre mi objeto de estudio. Este tipo de posibilidades en las que las ciencias duras se encuentran con las ciencias blandas son precisamente el tema en el que pretendo enfocar este artículo. Históricamente, la relación entre las Ciencias Sociales y las disciplinas de la Ingeniería han sido análogas al viejo adagio que aprendimos en la escuela y que dice: el aceite y el agua no se mezclan. Hablando en términos metafóricos, así tal cual como nos enseñaron que el aceite tiene una “fuerza hidrofóbica de largo alcance” que causa que partículas el aceite dispersas en agua se atraigan las unas a las otras [1], los círculos académicos pareciesen responder a un principio muy similar. Por ejemplo, las conferencias en Ingeniería generalmente solo atraen ingenieros y no a científicos sociales, y viceversa. Igualmente, en la mayoría de las universidades los departamentos de Humanidades o Ciencias Sociales usualmente están separados no solo físicamente, sino incluso a veces ideológicamente, de aquellos de la Ingeniería. Como es de suponer, el hecho de que las “ciencias blandas” y las “ciencias duras” estudien distintos espectros de la realidad humana implica que un cierto grado de separación sea inevitable. No obstante, también existen muchos puntos de intersección entre ambos tipos de ciencias, y de hecho, la “interdisciplinariedad” tiene una larga tradición en la Ciencia [2]. Incluso, existen algunas disciplinas que son consideradas “interdisciplinarias” debido a la naturaleza 117 transversal de sus objetos de estudio, tales como la Ciencia Cognitiva, Psicología Evolutiva, Ingeniería Ambiental, entre otras. Sin embargo, la “interdisciplinariedad” solo implica una “semblanza” de fusión entre las disciplinas, pues se refiere a traer al encuentro disciplinas distintas con el fin de tratar problemas complejos; pero manteniendo claramente los limites entre estas disciplinas. Hablando en términos metafóricos de nuevo, esta situación es similar al tipo de emulsiones que se producen si batimos con suficiente fuerza un recipiente que contenga agua y aceite. Tal y cual como ocurre cuando batimos un aderezo italiano para ensaladas, la emulsión producida daría una “semblanza” de mezcla por un tiempo, pero luego el ingrediente aceitoso eventualmente se separará y quedará depositado al fondo del recipiente. Lo mismo ocurre en un debate interdisciplinario. Supongamos que se invite a un epidemiólogo y a un politólogo a discutir y dar sus opiniones sobre la pandemia del SIDA. Lo mas probable que ocurra es que por un lado el primero hable sobre virología y proyectos para buscar una cura, mientras que el otro hable sobre la necesidad de implementación de políticas de salud publica dos puntos de vista que, a pesar de que podrían ser igualmente relevantes, representan opiniones que tratan aspectos y quehaceres separados, no siempre fusionados. En este artículo, mi intención es dar un paso más allá de la “interdisciplinariedad” y proponer una perspectiva alterna de “transdisciplinariedad” en lo que concierne a Mundos Virtuales. En vez de poner una disciplina al lado de la otra tal y cual como lo haría un enfoque “interdisciplinario”; la “transdisciplinariedad” implica mas bien una yuxtaposición de disciplinas, en la cual hay una clara trasgresión entre los limites disciplinarios [3]. En términos prácticos, una investigación “interdisciplinaria” normalmente convocaría a investigadores de diferentes disciplinas para estudiar y/o analizar un problema dado, pero a la final cada investigador contribuiría desde su campo teórico y metódico compartamentalizado; mientras que un investigador orientado hacia la “transdisciplinariedad” iría mas allá de los limites de su propia disciplina e intentaría aprehender al menos una comprensión básica del lenguaje, teorías y métodos de disciplinas lejanas a la propia, con el fin de llegar a una comprensión holística del problema. Aunque pueda parecer una quimera, esta suerte de fusión utópica entre las “ciencias blandas” y “las ciencias duras”, por muy difícil que pueda parecer, es de hecho, posible. Consideremos por un momento que descubrimientos recientes sobre la interacción entre el agua desgasificada y el aceite han demostrado que, luego de siglos de creer lo contrario, existen pruebas irrefutables de que el agua y el aceite si se pueden mezclar 7. Por lo tanto, si luego de haber creído por años que “el aceite y el agua no se mezclan” resulta que “de hecho, el aceite y el agua si se mezclan”, ¿por que razón hemos de creer que las Ciencias Sociales y las Ingenierías no se pueden mezclar? Esta es precisamente la premisa en la cual este articulo esta basado, y su principal propósito es hacer un llamado a la reflexión sobre la necesidad de un cambio paradigmático que oriente hacia la “transdisciplinariedad” en lo que concierne al estudio de los Mundos Virtuales. Para cumplir este propósito, en primer lugar me avocaré a la explicación de las propiedades sociales de los Mundos Virtuales y la necesidad de que profesionales del área de la Ingeniería y Ciencias de la Computación los entiendan como ante todo, “Mundos Sociales”. Seguidamente, propondré al lector un esquema analítico por medio del cual dicha perspectiva transdisciplinaria podría ser alcanzada. 7 En 2003, el químico Richard Pashley de la Universidad Nacional Australiana demostró por medio de una serie de experimentos que, al remover las minúsculas partículas de oxigeno y nitrógeno que se dan naturalmente en el agua, el aceite se mezcla espontáneamente con el agua y puede permanecer mezclado asi por un tiempo indefinido. Para mayor información ver [1] 118 1.4.2.Mundos Virtuales como Mundos Sociales. Los Mundos Virtuales son ambientes persistentes moderados por computadoras [4] los cuales fueron creados en ciberespacios o espacios computacionales de manera intencional o espontánea , basados en un diseño premeditado o no [5]. Una de las características principales de algunos de los Mundos Virtuales (tales como los juegos online, espacios de encuentro virtual tales como centros comerciales virtuales, comunidades virtuales, ambientes para el e-trade o comercio electrónico, etc) es que a través de ellos varios individuos pueden interactuar recíprocamente de manera simultánea. Siendo el hombre un ser social por naturaleza, este tipo de Mundos Virtuales claramente se basan en la necesidad humana básica de interactuar con otros. De allí que una de las principales razones por la cual la gente participa en ellos es porque estos ambientes de una manera u otra habilitan y permiten las sociabilidad del usuario como individuo. No obstante, no todos los Mundos Virtuales posibilitan la sociabilidad de seres humanos de carne y hueso, algunos de ellos son sólo simulaciones de agentes que interactúan en un ambiente virtual dado. Incluso en estos casos, los Mundos Virtuales aun exhiben propiedades sociales: los agentes (bien sea su apariencia y/o su comportamiento programado por I.A.) son frecuentemente el resultado del modelamiento de ciertos aspectos de seres humanos reales o imaginarios. En efecto, para que un agente simule creíblemente a un ser humano, es necesario que este pueda imitar, por lo menos hasta cierto grado, comportamientos sociales típicamente humanos. Mas aun, no solamente los humanos y los agentes que habitan estos Mundos Virtuales exhiben propiedades sociales, sino que también el ambiente o espacio virtual propiamente dicho suele ser un modelo o una especie de maqueta construida a semejanza de ambientes o espacios de la vida real [5,6], los mismos espacios en los cuales los humanos vivimos en sociedad. En virtud de esto, los Mundos Virtuales casi siempre conllevan una naturaleza social implícita, bien sea porque sus diseñadores o creadores los dotan de propiedades sociales o porque los individuos que los habitan son recipientes de sociabilidad [7,10,11]. De allí que cuando un ingeniero o un especialista en ciencias de la computación discute, diseña o desarrolla Mundos Virtuales usualmente se ve en la necesidad de pensar en términos análogos a como, por ejemplo, un Alcalde debería de pensar. En este sentido, si un programador que este diseñando un Mundo Virtual se pregunta a si mismo “ ¿Que pasaría si le pongo este o aquel Interfaz Grafico de Usuario (Graphical User Interface o GUI) para la comunicación entre usuarios?, dicha pregunta es análoga a la que un Alcalde se haría si piensa “ ¿Que pasaría si la Alcaldía pasa una nueva ordenanza que restrinja el uso de telefonía celular en tal o cual área de la ciudad?”. En este caso, tanto el programador como el alcalde estarían tomando una decisión que tiene repercusiones en la vida social de otros individuos. De hecho, “ los ingenieros se transforman a si mismos en sociólogos, moralistas o politólogos en precisamente esos momentos en los que están mas concentrados en asuntos técnicos” [9], sobretodo porque la mayoría de los aspectos técnicos que un Mundo Virtual podría contener a la final tendrán influencia en el tipo de configuración social que este podría tener. Bajo este contexto, a continuación presentaré un esquema analítico en el cual se presenta una descripción estratificada de algunos de los aspectos esenciales a nivel psicológico, social, cultural, político y económico que deben ser tomados en cuenta cuando se diseña, discute y desarrolla un Mundo Virtual. 119 1.4.3. Niveles de Análisis para el estudio de transdisciplinario de Mundos Virtuales. Uno de los principales problemas que surgen cuando se intenta analizar los Mundos Virtuales bajo una óptica transdisciplinaria es darle respuesta a las siguientes preguntas: ¿Cuales elementos de los Mundos Virtuales son relevantes para cuales disciplinas? ¿Con respecto a cual de las varias disciplinas están relacionados? A mi entender este es un problema que concierne a niveles de análisis, y una de las maneras de enfrentarlo es comprometiéndose con una serie de categorías analíticas estratificadas que ayudarían al investigador a organizar y a localizar los elementos a estudiar. En este sentido, en este articulo utilizaré una adaptación del “Leveled Program for Cyberspace Research” (Programa Estratificado para la Investigación del Ciberespacio ) de Hakken [10] a manera de esquema analítico en el cual las subsiguientes secciones de este articulo estarán basadas [Tabla 1]. Entidades Niveles Ontológico Identitario Microsocial Mesosocial Macrosocial PolíticoEconomico Habitantes del Mundo Virtual (agentes y usuarios) Ambiente Características Características esenciales, de los esenciales del usuarios y agentes, etc. ambiente virtual Identidad del usuario y la Variables el nivel de “self ambientales para la awareness” de los auto identificación , agentes etc Relaciones diádicas entre Propiedades sociales los usuarios y los del ambiente; agentes, patrones de interfases de interacción humana interacción entre programación de la usuario-usuario, interacción por I.A. agente-agente y usuario-agente etc. Formacion de grupos y emergencia de redes sociales, etc. Modelamiento de mundos reales, formaciones ciberculturales, relaciones nacionales y transnacionales de intercambio entre usuarios, impacto de los mundos virtuales en el mundo real, etc. Las estructuras político-economicas en la cual estan enmarcados los mundos virtuales al igual que las que estos producen., etc Tabla 1. Niveles de análisis para el estudio transdisciplinario de los Mundos Virtuales. Cuando se estudian mundos virtuales y su diseño, el investigador no necesariamente debe intentar abarcar todos y cada uno de los tópicos mostrados en la Tabla 1. El poder analítico de este esquema reside en el hecho de que el contenido de cada celda de la matriz puede ser enfocado tanto desde las disciplinas de la Ingeniería y Ciencias de la Computación como de las Ciencias Sociales. Por lo tanto, dado que los temas claves que dicho esquema presenta podrían ser de relevancia para ambas disciplinas en cuestión, constituye una alternativa para la localización de puntos de intersección entre las “ciencias duras” y las “ciencias blandas” en lo que concierne a los Mundos Virtuales. En las siguientes páginas explicaré por separado cada uno de estos niveles de análisis y al final presentaré un caso de estudio que ejemplifica el tipo de interrelaciones complejas que existen entre ellos. Es importante señalar que dado que las áreas de formación de los probables lectores de este articulo sean la Ingeniería y Ciencias de la Computación, intentaré concentrar la discusión en la 120 identificación de algunos de los aspectos subjetivos, psicológicos, sociales, culturales, políticos y económicos claves para el estudio de los Mundos Virtuales, con la intención de despertar un verdadero interés transdisciplinario en dichos lectores. En todo caso, esta reseña debe ser leída mas como una guía sobre la gran variedad de aspectos humanos de los Mundos Virtuales; no como una descripción exhaustiva de cada uno de ellos. El Nivel Ontológico. ntológico El termino “ontología” usualmente refiere a las características esenciales, a las definiciones y componentes constituyentes de un objeto dado. En los Mundos Virtuales existen dos tipos de entidades esenciales que los constituyen; estas son sus Habitantes (usuarios y agentes) y el Ambiente ( el cual comprende el espacio computacional propiamente dicho del Mundo Virtual al igual que la plataforma de software y hardware en la cual este está sustentado). Aspectos tales como las definiciones de estas identidades (por ejemplo: “Que es un agente?”, “Que es un Mundo Virtual?”) pertenecen a este nivel de análisis, al igual que la determinación de las características esenciales de estas entidades. En este sentido, cuando se discuten las propiedades o características de lenguajes de programación, herramientas de software, sistemas de hardware, etc., se esta hablando de la ontología del ambiente virtual. Desde el punto de vista de las Ciencias Sociales, tal y cual como ya se explico anteriormente, los Mundos Virtuales son conceptualizados en esencia como “espacios sociales” que están localizados dentro de un espacio computacional. Esto implica que los usuarios actúan dentro del Mundo Virtual en un “como si” de los lugares en los cuales nosotros los humanos habitamos físicamente. Mas aun, los usuarios le atribuyen un significado social a este espacio digital en el cual socializan con otros, dando forma en efecto al panorama social que constituye la esencia misma de la sociabilidad dentro del Mundo Virtual [7,11]. En lo que se refiere al estatus ontológico de los agentes, la Ciencia Cognitiva ya cuenta con una larga tradición en esta área al ser la base para la programación de agentes; un campo de estudio que comúnmente se conoce como “Vida Artificial”. Los agentes en los Mundos Virtuales frecuentemente son definidos ontológicamente de acuerdo al tipo de objetivos, competencias y roles para los cuales fueron programados. Para una descripción exhaustiva del tipo de cualidades sociales que las distintas ontologías de agente intentan imitar, ver Iglesias & Luengo [12] y Gilbert & Troitzsch [13]. El Nivel Nivel Identitario. El Nivel Identitario esta relacionado con los aspectos subjetivos y psicológicos de los usuarios y las identidades que estos asumen dentro de los Mundos Virtuales, con la programación de “self awareness” en los agentes y con las características ambientales con las que los agentes y usuarios se autoidentifican al formar parte de Mundo Virtual. Desde las Ciencias Sociales, el estudio de los aspectos subjetivos e identitarios de lo usuarios tiende a gravitar en torno al fenómeno de la “Identidad Virtual”. La Identidad Virtual es básicamente la Identidad que un individuo asume en el Ciberespacio. Las investigaciones de Turkle [7] constituyen uno de los primeros estudios a profundidad sobre las identidades virtuales y, en concordancia con los postulados de otros investigadores tales como Suler15], sostiene que cuando un usuario se conecta online, este asume una “persona online”. La fonética del término “persona” proviene del latín “per/sonare” y refiere al hecho de que, en las obras teatrales de las civilización griega clásica, este termino estaba asociado a la 121 “mascara” que los actores asumían para interpretar los diferentes roles de la obra. En este sentido, la “persona online” es una especia de mascara que el usuario usa cuando este se conecta al ciberespacio. Puede asumir la forma de un “nick” o “nickname” (sobrenombre), un “login” o un “avatar” o “character” que representa usuario dentro del ambiente virtual. El usuario luego proyecta contenidos subjetivos y psicológicos tanto concientes como inconscientes en esta “persona online” y es a partir de este ser virtual que el usuario se relaciona con los otros virtuales. Los estudios de Turkle son prolíficos en ejemplos del cómo los individuos proyectan contenidos psicológicos en sus personas online: a veces sirven tanto para explorar aspectos del si mismo, lo cual podría conllevar a una integración mental saludable, reactuar aspectos neuróticos o simplemente descubrir aspectos del si mismo de los cuales el individuo no tenia plena conciencia. Las posibilidades son infinitas cuando se trata de la Identidad Virtual: las personas pueden ser lo que ellos quieran ser, bien sea en forma saludable o disruptiva. Es por ello que es importante que los diseñadores de Mundos Virtuales entiendan las bases de la Identidad Virtual : la comprensión de la gran variedad de formas en las cuales un ambiente virtual dado puede transfigurar y/o reafirmar la personalidad e identidad de los usuarios podría ayudar a entender sus comportamientos y a actuar en consecuencia. Con respecto a los agentes, lo que en Ciencia Cognitiva y Vida Artificial es conocido como “amenabilidad” (una de las propiedades que un dado agente podría tener, y que consiste en un nivel de auto conciencia o “self awareness” de su propia condición de agente e incluye la habilidad para adaptar su comportamiento al ambiente, auto monitoreo en el logro de objetivos, aprendizaje, comportamiento operante, entre otras ) es un buen ejemplo de cómo los agentes pueden ser analizados en el nivel identitario. Todo lo relacionado con los alcances y limites de la amenabilidad de los agentes, al igual que las implicaciones que estos tienen con respecto al los propósitos y usos de un Mundo Virtual dado, constituye un punto de intersección obvio entre temas tradicionalmente pertenecientes a las Ciencias Sociales ( tales como niveles de agencia o operancia de un individuo dentro de un grupo social ) y las bases de programación de agentes dentro de las Ciencias de la Computación, El ambiente virtual también tiene una influencia directa en el modo cómo los usuarios se perciben a si los mismos dentro del Mundo Virtual y en la manera cómo los agentes aprenderían a adaptarse al mismo. Desde un punto de vista de las Ciencias Sociales, los usuarios tenderán a identificarse con aquellos elementos del ambiente virtual que sean congruentes con su propia personalidad o que de alguna manera u otra atraigan su interés. Los usuarios son lo que son y se comportan de la manera que se comportan en Mundos Virtuales en concordancia con las características, regulaciones y limitaciones impuestas por el ambiente [15]. En virtud de esto, la identidad del usuario esta siempre en una constante relación dialéctica con el ambiente del Mundo Virtual. Por ejemplo, Klastrup y Tosca [16] hacen un interesante análisis del cómo los aspectos narrativos de ciertos Mundos Virtuales no solo están directamente relacionados con el tipo de experiencias que los usuarios tienen en ellos, sino también del como algunos conceptos de planificación de contenidos, narrativa y “storytelling” pueden convertirse en herramientas útiles para el diseño de Mundos Virtuales. Esto implica que, para un computista o ingeniero orientado hacia la transdisciplinariedad y que se encuentre diseñando un Mundo Virtual, la creación de contenidos inspirados por una comprensión básica de Teoría de la Narrativa Literaria y/o la comprensión de las bases psicológicas en la creación de identidades podría ayudarle a responder preguntas tales como : “ ¿Cómo hacer que mi Mundo Virtual sea de interés sus potenciales usuarios?”, o “ ¿Cuáles variables ambientales debería de considerar como catalizadoras en la interacción usuario-agente?”. 122 El Nivel Microsocial . Las principales áreas de estudio de este nivel de análisis son las interacciones entre los usuarios y/o agentes al igual que los interfases provistos por el Mundo Virtual para este fin. En lo que concierne a los agentes, la Ciencia Cognitiva es de nuevo útil para comprender el cómo se puede dotar de sociabilidad a los agentes a partir de sus patrones de interacción con los usuarios y otros agentes. Esto incluye la imitación del cómo los humanos tendemos a establecer relaciones dialógicas, díadas y triadas de interacción social, etc. Lo mismo aplica a las entidades de usuarios, dado que los usuarios suelen intentar reproducir patrones de interacción de la vida real dentro de los Mundos Virtuales. Cuando se desarrollan Mundos Virtuales, los diseñadores deberían de ser muy cuidadosos en incluir dentro del mismo cierto tipo de interfases sociales que faciliten estos patrones en vez de truncarlos. De hecho, este es probablemente uno de los aspectos que ha recibido mayor grado de atención en lo que respecta al estudio de la comunicación mediada por computador a través de una perspectiva interdisciplinaria e incluso transdisciplinaria. Por ejemplo, empresas como Microsoft y Apple constantemente invierten en la investigación de las maneras como los humanos interactuamos los unos con los otros y el modo como organizamos y recordamos la información; con la intención de diseñar sus GUI en concordancia con estos principios. En las Ciencias de la Computación existen incluso ejemplos mucho mas ilustrativos, como por ejemplo el campo de estudio llamado “Social Computing” (Computación Social), el cual promueve el diseño de interfases sociales basados en la recopilación de datos etnográficos (un método que tradicionalmente proviene de la Antropología) sobre el modo en el cual los usuarios interactúan los unos con los otros y con el interfase; con la intención de garantizar su “usability” (usabilidad) y su efectividad en la facilitación de la comunicación. A manera de ilustración de la importancia de este aspecto, consideremos los siguientes ejemplos de una interfase social fracasado en oposición a una interfase social exitoso: a) ¿Cuantas veces Ud. ha recibido email “spam” proveniente de alguien que Ud. no conoce ni del cual ha oído hablar nada en absoluto, pidiéndole que forme parte de su grupo de amigos? Mas importante aun, ¿Cuantas veces ha respondido Ud. positivamente a dicho tipo de mensajes? Este es un buen ejemplo de un interfaz social fracasado: en la vida real, la gente no esta usualmente acostumbrada a incluir en su circulo de amigos a alguien que “sale de la nada” pidiéndoselo. b) ¿Ha notado usted la creciente popularidad que la mensajeria telefónica por teléfono móvil ha adquirido en los últimos años? ¿Especialmente entre adolescentes? Pregúntese a si mismo el porqué alguien quisiera escribir un mensaje desde un aparato que puede ser usado efectivamente para hablar con la persona con la que se quiere interactuar. Podrían existir varias razones para ello. Tal vez es mejor escribirle un mensaje a un amigo a las 3 am de la madrugada en vez de arriesgarse a despertarlo; o tal vez algunas personas son menos inhibidas cuando están tipeando que cuando están hablando (por ejemplo, pareciese que hoy en día es mas cómodo para un chico adolescente invitar a una chica a salir a una cita a través de un mensaje de texto que a través de una llamada). Este es un buen ejemplo de un interfaz social exitoso. El ejemplo “a” ilustra un interfaz social diseñado sin prestar atención en lo absoluto a como los humanos interactuamos los unos con los otros mientras que el ejemplo “b” ilustra un interfase social diseñado con la intención de atender necesidades especificas de interacción humana. Una importante lección que 123 aprender de todo esto es que una innovación técnica no necesariamente debe ser implantada en un Mundo Virtual solo porque sea “innovativa”, “funcional” o “high tech”. Por el contrario, dado que muchos Mundos Virtuales tienen específicamente el propósito de facilitar y/o potenciar la interacción humana, la mayoría de sus características o innovaciones técnicas deberían de ser pensadas en términos de hasta que punto tales innovaciones son congruentes o no con la psique humana. Consecuentemente, un diseñador de Mundos Virtuales orientado hacia la transdisciplinariedad debería de intentar al menos de comprender en un nivel básico lo que las Ciencias Sociales tienen que decir sobre el lado humano de la comunicación mediada por computador. El Nivel Mesosocial. El nivel mesosocial analiza también las facetas de la interacción humana, pero desde un espectro mucho más amplio. Cuando un grupo de usuarios y/o agentes habitan un mismo Mundo Virtual, fenómenos de emergencia de grupos y redes sociales tienden a emerger. Sobre la base de la gran variedad y la multiplicidad de interacciones posibles entre los usuarios; se tienden a formar grupos, comunidades, y otras instituciones sociales. A partir de las relaciones sociales que se establecen entre los usuarios se da lugar a la emergencia subsiguiente de “redes sociales”, las cuales constituyen una compleja malla de nexos relacionales entre los usuarios, que usualmente están superpuestas y/o atadas las unas a las otras. Con el pasar del tiempo este sistema de relaciones se desarrolla lentamente al mismo tiempo que los grupos de usuarios contribuyen en la creación y el mantenimiento de normas y tradiciones grupales, de manera en que se convierten en co-constructores del Mundo Virtual del cual forman parte. Normalmente, la contribución especifica de un individuo en la formación de estas redes sociales es casi siempre invisible, de allí que deben ser vistas mas como sistemas complejos indivisibles, en vez de como una serie de individuos ligados los unos a los otros [17, 18]. Las redes sociales entre agentes también podrían ser analizadas en términos similares, y las ya explicadas propiedades sociales del Mundo Virtual al igual que los interfases sociales incluidos en los mismos son factores clave para facilitar los procesos que dan origen a estas redes sociales. Preece [19] insiste que el monitoreo de aspectos de las redes sociales tales como su comportamiento, patrones de distribución y su masa critica son de la mayor importancia en lo que concierne a la determinación de los prospectos de supervivencia que un Mundo Virtual podría tener (como por ejemplo, determinar la posibilidad de ocurrencia de que un Mundo Virtual dado sea clausurado porque no tiene suficientes usuarios o porque el grupo social que lo constituye no es lo suficientemente ameno o atractivo para garantizar la permanencia de sus miembros). Mas aun, otro tipo de instituciones tales como identidades sociales, estructuras de liderazgo, patrones de división de tareas, entre otras, son también indicadores importantes del como los usuarios y los agentes interactúan con las propiedades sociales del ambiente. En virtud de ello, la comprensión de estos tópicos informada por conocimientos en Sociología y Psicología Social podría ser muy útil en el estudio transdiciplinario de los Mundos Virtuales, especialmente en lo que respecta a la valoración y determinación de qué tan prolífico este podría llegar a ser. El Nivel Macrosocial. 124 Usualmente, los Mundos Virtuales son construidos como modelos de mundos reales o imaginarios, por lo tanto, son construcciones sociales que están contextualizadas por macro estructuras que los enmarcan. De hecho, los mundos virtuales comúnmente exhiben características que pertenecen al background cultural de sus diseñadores y/o usuarios. Por ejemplo, los Massive Multiplayer Online Role Playing Games -MMORPGs o juegos online de rol multiusuarios- diseñados en Asia , tales como Lineage o Final Fantasy XI, tienen una estética visual característicamente distinta a la de otros MMORPGs americanos u europeos tales como Star Wars Galaxies. Además, dentro de los mundos virtuales también emerge lo que en Antropología Cultural se denominan“formaciones ciberculturales” las cuales refieren al hecho de que los usuarios tienden a desarrollar practicas culturales que son especificas al Mundo virtual en cuestión, tales como costumbres, rituales e incluso dialectos usados para designar o significar elementos específicos de las “ciberexperiencias”[17,21]. Bajo este contexto, Escobar [21] define el termino “cibercultura” como “las construcciones y reconstrucciones culturales sobre las cuales las nuevas tecnologías están basadas al igual que las que a su vez, son producto de tales tecnologías”. El autor sostiene que artefactos tecnológicos tales como los Mundos Virtuales son, básicamente, invenciones culturales en el sentido en que son tecnologías que dan lugar a nuevos espacios en los que ciertos contenidos culturales pueden ser (re)producidos. Los Mundos Virtuales emergen dentro de un marco cultural y estos a su vez, dan origen a nuevas situaciones culturales y sociales dentro de ellos. Es por ello que es necesario considerar el background cultural de los usuarios que potencialmente habitarán el Mundo Virtual; pues las características del Mundo Virtual en si mismo y el grado de atracción que este pueda ejercer sobre sus usuarios son elementos que no pueden estar aislados en lo absoluto de las macro estructuras culturales, nacionales y trasnacionales que les sirven de contexto. Otro tipo de consideraciones macrosociales refieren al impacto que un Mundo Virtual dado pueda tener sobre la realidad humana. En este sentido, Kunii [5] hace una seria advertencia acerca del peligro de desatender esta área. El autor afirma que los Mundos virtuales “pueden llegar a un estado caótico y fuera de control, poniendo en peligro el mundo real … este creciente impacto que tiene los mundos virtuales pone en evidencia la necesidad de construir una firme disciplina en torno a ellos”. Mi opinión al respecto es que la transdiciplinariedad es una vía valida para crear no necesariamente una nueva disciplina en si misma, pero por lo menos para llegar a una comprensión holística sobre los efectos que los Mundos Virtuales puedan tener sobre los mundos reales. Además de la comprensión de los aspectos técnicos de los Mundos Virtuales, también es esencial tener una firme comprensión de sus implicaciones históricas, culturales, sociológicas y psicológicas si se quiere tener algún grado de agencia o control sobre el impacto de los mundos virtuales en la realidad humana. El Nivel PolíticoPolítico-Economico. En estrecha relación con el tema anterior, este nivel de análisis esta relacionado con las estructuras políticas y económicas que los Mundos Virtuales (re)producen y dentro de las cuales estos están constreñidos. Esto incluye los marcos legales que los sostienen y regulan, los modelos de negocios en los cuales están basados (sobre todo en lo que respecta a Mundos Virtuales con fines comerciales), las estructuras corporativas, institucionales o gubernamentales dentro de las cuales existen, al igual que las economías virtuales que florecen en ellos. Estos tópicos dependen en gran medida del tipo de mundo virtual al igual que de las características particulares del entorno político económico en el cual están 125 contextualizados, hasta el punto de que no es tarea fácil presentar siquiera una breve reseña general de este nivel de análisis. En virtud de ello, en la siguiente sección de este articulo presentaré un ejemplo de estudio de casos en el que el lector podrá vislumbrar como no sólo este nivel de análisis, sino todos los demás ya explicados están entrecruzados los unos con los otros. Caso: Caso: el sentido de propiedad en los MMORPGs. Recientemente, las disciplinas que estudian la legislatura y las leyes han venido desarrollado un creciente interés en los ¨Massive Multiplayer Online Role Playing Games” ( Juegos Online de Rol Multiusuario o simplemente, MMORPGs), tales como “World of Warcraft” o “Star Wars Galaxies”, en parte debido a un tema importado directamente del mundo real: el sentido de propiedad. Los MMORPGs son espacios complejos, cuya complejidad puede incluso a veces asemejarse de manera sorprendente a la complejidad el mundo real. En este sentido, Castronova [22] es bien conocido al haber escrito muchas paginas sobre las similitudes entre las economías del mundo real y sus homologas virtuales; hasta el punto de sugerir que los MMORPGs pueden ser vistos como si tuvieran economías reales poseedoras de indicadores estadísticos que cubren actividades tales como la producción, mano de obra, ingresos y egresos, inflación, comercio foráneo y tasa de cambio. Por lo tanto, a pesar de que los MMORPGs son tan solo juegos destinados a la recreación del usuario, estos juegos igualmente poseen economías complejas potenciadas por sus usuarios, en las cuales las bases de los principios capitalistas son aplicados con el fin de distribuir recursos y riquezas. En virtud de esto, en un mundo en el cual existen de hecho “divisas” para el comercio de bienes (incluso, también ocurren practicas comerciales milenarias tales como el intercambio de bienes) es natural que sus usuarios empiecen a sentir que son ¨dueños¨ de todo lo que han comprado con dinero digital. Mas aun, si se puede comerciar con lo que “se es dueño” dentro del Mundo Virtual, entonces también se puede comerciar con ello fuera de él … y con dinero REAL ( Dólares, Euros, Yenes, etc.). En efecto, si la gente ha venido haciendo comercio con propiedades intelectuales por décadas, entonces ¿porqué no comerciar con la “propiedad virtual”?. De hecho, el comercio de propiedades virtuales ya esta ocurriendo y moviliza enormes cantidades de dinero en el mundo [23]. Invito al lector a indagar un poco mas sobre este asunto, intente buscar en sitios de subastas online tales como eBay la venta de propiedades virtuales y así podrá tener una perspectiva: el precio de compra del software de un MMORPG oscila entre 40 o 50 dólares, mas un pago mensual de 12 o 15 dólares, pero la venta de un avatar o “character” nivelado hasta el tope permitido por el juego y poseedor de objetos muy poderosos o difíciles de obtener, podría estar siendo vendido en eBay por alrededor de 3000 dólares o mas. Castronova [22] incluso sostiene que juegos de este tipo tales como Everquest tienen un ingreso per cápita y un PTB mayor al de ciertos países pequeños en el mundo. Ahora sobreviene la pregunta ¿Por qué un ingeniero o programador que este desarrollando un MMORPG debería de preocuparse por un tema como el del sentido de propiedad? La respuesta a esta pregunta radica en que, este tipo de practicas concernientes con el comercio de propiedades virtuales, no solo permiten que los usuarios obtengan una ganancia económica sobre la cual el desarrollador no recibe porcentaje alguno, sino también porque la economía del juego en si misma podría ser alterada por este tipo de fuerzas de mercado externas [23]. En efecto, los desarrolladores de MMORPGs si se preocupan por este problema porque en respuesta de ello , incluyen dentro de los EULA ( End User License Agreement o Acuerdo de la Licencia del Usuario Final) o los TOF (Términos bajo los cuales se presta el Servicio) del software ciertas cláusulas especificas que 126 establecen que la casa desarrolladora del juego es dueña de todo lo que es producido dentro del MMORPG; un acuerdo legal que a su vez esta enmarcado dentro de la constitución y las leyes del país en el cual esta localizada la compañía desarrolladora del software. El usuario juega el juego constreñido por este tipo de estructuras jurisdiccionales, en donde el juego se provee a manera de un servicio en el cual, a pesar de ser capaz de crear y modificar contenidos dentro del mismo, el usuario no tiene ningún derecho de reclamar como propia ningún tipo de propiedad virtual. En este punto, se puede ya empezar a vislumbrar las repercusiones que el problema de la propiedad virtual tiene sobre el nivel político-económico . Mas aún, también tiene repercusiones en el nivel macrosocial. Consideremos, por ejemplo, que los objetos y el contenido creado por los usuarios son una parte integral de la riqueza cibercultural del MMORPG, y que debido a su valor existen incluso ciertas compañías dedicadas a acumular dinero digital de varios MMORPGS, al igual que objetos y “characters” con valor agregado, para luego venderlos por dinero real en el mundo real (por ejemplo, www.ige.com). Otro ejemplo extremo de como este problema podría afectar la vida real radica en el numero creciente de crímenes relacionados con MMORPGs, tal cual el caso ocurrido en China en el cual un jugador asesinó a otro jugador amigo por haber vendido sin su consentimiento una espada virtual que le pertenecía [23]. Es mas, una de las raíces del problema podría ser encontrada si lo examinamos a través del nivel identitario de la entidad del usuario. Los jugadores de MMORPGS usualmente sienten subjetivamente de que ellos son dueños de la identidad virtual de su “character”online, al igual que todos los objetos que este posee y el contenido intangible que el usuario ha venido creado en torno a su persona online. Esto a su vez es dependiente de la gran cantidad de redes sociales en las cuales el usuario esta insertado (lo cual corresponden al nivel micro y mesosocial) puesto que el valor subjetivo de un objeto y/o del “character" siempre es dependiente y relativo al capital social y a las estructuras mesosociales que le asignan este valor. Este tema del contenido creado subjetivamente por los usuarios es uno de los aspectos que presenta las mayores dificultades cuando se trata de establecer limites legales con respecto a quien es dueño de qué dentro de los MMORPGs: ¿Cómo se puede pretender que un usuario, que ha pasado incontables horas creando un “character”, creando una narrativa en torno a el mismo, estableciendo relaciones sociales a través de él y modificando con ideas originales el Mundo Virtual que le fue “prestado” a manera de un “servicio” por el desarrollador del juego; no tenga ningún derecho en los absoluto sobre su creación? [23] La respuesta a esta pregunta radica en torno a una discrepancia básica entre la manera como los desarrolladores del juego conciben la ontología del Mundo Virtual en oposición a como sus usuarios la tienden a concebir. Si le preguntamos a un desarrollador el porqué este piensa que debe ser dueño de los contenidos creados por los usuarios, probablemente responderá que la casa de software simplemente esta proveyendo un servicio, en el cual se le “presta” al usuario un Mundo Virtual y un “character” virtual para que el usuario los use, no para que el usuario se adueñe de el. No obstante, si por otro lado le preguntamos a un “ebayer” (un jugador que compra y/o vende en eBay) el porqué el piensa que tiene el derecho de vender su “character” virtual, este probablemente dirá que no es el “character” propiamente dicho lo que esta vendiendo, sino mas bien el tiempo invertido en crearlo ( por ejemplo, el tipo de “character” de MMORPG que se venden por miles de dólares en eBay solo pueden ser construidos y nivelados hasta ese punto luego de varios meses o incluso años de arduo trabajo con los mismos). Además, no necesariamente es sólo un problema de tiempo invertido en la construcción del “charácter”, sino también una cuestión del valor subjetivo y psicológico que el usuario le ha atribuido a su persona online. Por eso, no siempre un usuario estaría de acuerdo en la suposición de que el MMORPG es tan solo “un servicio que le esta 127 siendo prestado”; por el contrario para un gran numero de usuarios el MMORPG es mucho más que eso, pues es también un espacio social que posee un significado subjetivo cuya intangibilidad escapa del control del desarrollador y/o de la casa de software. De allí que la esencia del problema del “sentido de propiedad” sobre la “propiedad virtual” resida en el nivel ontológico, puesto que es el resultado de una simple incongruencia entre la concepción que los desarrolladores del juego tienen sobre el MMORPG versus la concepción que la mayoría de los usuarios pueden llegar a tener sobre el mismo. Esta es una incongruencia ontológica que, como se habrá podido vislumbrar en este estudio de caso; no solo tiene resonancia sobre todos demás niveles de análisis del esquema presentado en este articulo sino que también plantea la necesidad de reexaminar las concepciones tradicionales que se tienen de los Mundos Virtuales. Como ya se mencionó anteriormente, el hecho de que ya hayan ocurrido casos en que un usuario asesine a otro en la vida real a razón de una “propiedad virtual” es evidencia de que el problema del “sentido de propiedad” que un usuario puede llegar a tener sobre contenidos virtuales no siempre debería ser tomado a la ligera por aquellos que estén interesados en el estudio o en el desarrollo de los Mundos Virtuales. Este ejemplo pretende ser tan solo uno de las tantas posibles ilustraciones sobre el tipo de problemas complejos que los Mundos Virtuales presentan y que no pueden ser enfrentados efectivamente a menos que el investigador o el desarrollador adopte una perspectiva transdisciplinaria. Debido al problema de la propiedad virtual, actualmente los profesionales provenientes de la ingeniería y ciencias de la computación que estén interesados en desarrollar Mundos Virtuales deberían de interesarse también en comprender por lo menos a un nivel básico las teorías existentes sobre las economías virtuales, teorías sociológicas acerca de la apropiación cultural al igual que en las leyes de copyright y demás aspectos relacionados. 1.4.4. Conclusión: Conclusión: Sobre el uso de este esquema. esquema. Como ya se explicó anteriormente, el esquema de análisis presentado en las paginas anteriores es tan solo un intento en la explicación del cómo ciertos aspectos relevantes en el estudio de los Mundos Virtuales podrían ser localizados dentro de una perspectiva transdisciplinaria. De hecho, no puede ser mas que una alternativa dentro de muchas otras, básicamente porque lo explicado en este articulo tiene, en esencia, un carácter selectivo. Debido a limitaciones en la extensión de este escrito, al igual que mis propias limitaciones e inclinaciones en el conocimiento de ciertos aspectos de los Mundos Virtuales (en oposición a otros que son mas lejanos a mi área de especialidad) este articulo solo pudo presentar una pequeña muestra de la amplia gama de temas que podrían ser estudiados bajo un una óptica transdisciplinaria. Mi intención es invitar al lector a usar este esquema analítico a manera de herramienta guía en la localización e identificación de aspectos claves para sus propios proyectos de investigación y/o temas de interés, para luego intentar alcanzar su propio enfoque transdisciplinario a partir de allí. Las referencias bibliograficas citadas en este articulo ya contienen de por si una gran variedad de aspectos alternativos a estudiar en los Mundos Virtuales, y existen muchos otros para aquel que tenga una mente curiosa. En virtud de esto, este articulo tiene el propósito de ser tan solo uno de muchos otros pasos iniciales necesarios para incentivar y propiciar un cambio paradigmático urgente en la manera como se han venido estudiando los Mundos Virtuales; hacia una nueva óptica en la que sus investigadores y desarrolladores estén mucho mas dispuestos a transgredir sus limites disciplinarios y aprender sobre lo que otras 128 ciencias y disciplinas lejanas tienen que decir en lo que respecta a temas de estudio en común. Si, después de todo, resultó ser que el aceite y el agua si se pueden mezclar, entonces es probable que algún día las “ciencias blandas” y las “ciencias duras” también se puedan fusionar … por lo menos en lo que respecta a la comprensión holística de los Mundos Virtuales. 1.4.6.Referenc Referencias Referencias Bibliograficas [1] Nowak. Rachel. “Oil and Water do mix after all”, New Scientist, Melbourne, Accesado en: http:// www.newscientist.com/article.ns?id=dn3408 , 2003. [2] Morillo F., Bordons M., Gómez I. , “Interdisciplinarity in science: A tentative topology of disciplines and research areas “. Journal of the American Society for Information Science and Technology. Wiley Periodicals, Inc.. Volume 54, Issue 13, 2003. Pages 1237-1249 [3] Nowotny. Helga. “The Potential of Transdisciplinarity”. Interdisciplines, France, Accesado en: http://www.interdisciplines.org/interdisciplinarity/papers/5/24#_24, 2006. [4] Bartle, Richard “Pitfalls of Virtual Property” . The Themis Group . Accesado en: www.themis-group.com 2004. [5] Kunii Tosiyasu, “The Potential of Cyberworlds – an Axiomatic Approach-“ .2004 International Conference on Cyberworlds (CW’ 04). Conference Procedings. 2004 Pages 2-7. [6] Kunii Tosiyasu, “Cyberworld Modeling Integrating Cyberworlds, the Real World and Conceptual Worlds “ .2005 International Conference on Cyberworlds (CW’ 05). Conference Procedings. 2005 Pages 3-1 . [7] Turkle, Sherry Life on the Screen : Identity in the Age of the Internet. Simon & Schuster. New York, USA. 275 p. [9] Callon, M. “Techno-economic Networks and Irreversibility”. En J. Law (Ed) Sociology of monsters: Essays on Power, Technology, and Domination. London, Routledge. 1991. pp 5168. [10] Hakken, David. Cyborgs @ Cyberspace: An Ethnographer looks to the Future. Routledge, New York. 1999. 264 p [11] Salazar, Javier. “Cybontology: The Ontology of the Online Being and the (re)allocation of the notion of the “cyborg”. II Congreso Online del Observatorio para la Cibersociedad. CDROM. 2004. [12] Iglesias A, Luengo, F. “Intelligent Agents in Virtual Worlds“ .2004 International Conference on Cyberworlds (CW’ 04). Conference Procedings. 2004 Pages 62-77. [13] Gilbert, N., Troitzch, K. Simulation for the Social Scientist. Open University Press. 2005. 375 p. [14] Suler, J. Psychology of Cyberspace. Rider www.rider.edu/users/suler/psycyber/ psycyber.html 1996. University. Accesed at: [15] Salazar, Javier. “On the Ontology of MMORPG Beings: A theorethical model for research”. Digital Games Research Association Conference Changing Views : “Worlds in Play” 2005 (DIGRA 2005). Conference Proceedings. CD-ROM. [16] Klastrup, L., Tosca, S. “Transmedial Worlds: Rethinking Cyberworld Design“ .2004 International Conference on Cyberworlds (CW’ 04). Conference Procedings. 2004 Pages 409-416. 129 [17] Salazar, Javier. Social Identity (re)production in Virtual Communities: the Case of the Star Wars Galaxies MMORPG. Tohoku Gakuin University, Human Informatics Division. Japan, 2006. 110p. [18] Taylor, T.L., Jakobsson, M. "The Sopranos Meets EverQuest: Socialization Processes in Massively Multiuser Games". Digital Arts and Culture (DAC) 2003 Streaming Wor(l)ds Conference Proceedings, Melbourne, Australia, 2003. [19] Preece, Jennifer. Online Communities: Designing Usability and Supporting Sociability. John Wiley and Sons. 2002. 343 p. [20] Squire, K & Steinkuehler, C. Generating Cybercultures: The Case of Star Wars Galaxies. Languages and cultures of the Internet. (2004) [21] Escobar, Arturo. “Welcome to Cyberia: Notes on the Anthropology of Cyberculture”. In Bell & Kennedy (eds): The Cybercultures Reader.Routledge, 2001, pages 56-76. [22] Castronova, Edward. “On Virtual Economies”. Game Studies, The international journal of computer game research.. Volume 3, Issue 2. Accesed at : www.gamestudies.org, 2003. [23] Salazar, Javier. “Who owes (or owns?) what to whom ? :Ownership of Player Created content in MMORPG. . Vol. 10, 2005. Pages 15-
Documentos relacionados
Leer más... - UN Virtual
Proceedings; Virtual Worlds , Conferencias organizadas por la Universidad Leonard D’ Vinci y Springer Verlag Lecture Notes on Artificial Intelligence (1998-2000) ; CAST 01 , Conferencia organizada ...
Más detalles