Hacia el fin de la metáfora

Transcripción

Hacia el fin de la metáfora
Hacia el fin de la metáfora
El hombre se acerca indefectible y aceleradamente a una forma
mucho más humana de interacción con las computadoras
La interacción del hombre con la computadora, ha sufrido cambios significativos con el
transcurso de su corta relación: aproximadamente unos 100 años (compárese con los 200.000
años que la ciencia le adjudica a la presencia del hombre en el planeta).
Desde la tarjeta perforada, al uso de las metáforas actuales como “el escritorio” o “el
navegador”, el ser humano ha logrado mejorar su comunicación con las computadoras (el
apéndice adjunto provee una breve reseña al respecto).
Cabría preguntarnos cual será la próxima metáfora: ¿provendrá de Steve Jobs como una
evolución natural de la incluida en el iPhone de Apple, el cual ofrece una pantalla “multi-touch”
con un teclado y botones virtuales? ¿Será del estilo de la utilizada por Chief John Anderton (T.
Cruise) en la película de ciencia ficción “Minority Report/Sentencia Previa”? ¿Será la navegación
3D que nos permitirá recorrer los silos de información?
O más desafiante aún: ¿habrá una nueva metáfora o estamos listos para una nueva forma de
interacción, mucho más directa, simple, humana? (1).
Si bien no es fácil poder predecir la evolución en el corto plazo, paradójicamente, el mediano
parece ineludible: la relación hombre-computadora se dirige hacia una interacción
mucho más natural para el hombre.
Por miles de años, el ser humano se ha comunicado con su entorno mediante el lenguaje
hablado, y posiblemente sea este el paradigma que adopte la nueva relación con las
computadoras también. Más aún, es fácil extender el concepto a muchos otros dispositivos
electrónicos/electro-mecánicos con los que interactuamos a diario: equipos de música,
automóviles, micro-ondas, etc.
Si bien cognitivamente el ser humano exhibe una complejidad significativa que excede al
lenguaje, el mismo es el vehiculo propio del hombre para comunicarse con su entorno. Tan
importante es el lenguaje como característica propia del hombre, que corrientes filosóficas
como el positivismo lógico lo hacen centro de la concepción humana (2).
Los desafíos no son insalvables con el estado actual de la tecnología. Entre ellos: la generación
de voz a partir de texto (TTS: text to speech), el reconocimiento de voz, y la “comprensión” del
lenguaje. Los dos primeros, son de naturaleza tecnológica; el tercero en cambio, requiere de la
semántica lingüística cuando nos apartamos de comandos simples.
Varias iniciativas encuadradas dentro de la Asociación para el avance de la Inteligencia Artificial
(Association for the Advancement of Artificial Intelligence, AAAI), focalizan sus esfuerzos en el
procesamiento natural del lenguaje: Natural Language Processing (3).
Mientras que empresas como IBM y Microsoft, ya incluyen estas tecnologías dentro de sus
productos actuales: IBM Text Analyzer (parte del Enterprise Information Portal como uno de los
WebSphere Business Component); el verificador de gramática de Microsoft Office para inglés,
francés, alemán y español; el SDK 5.1 el cual incluye motores text-to-speech (TTS) en. Inglés y
chino simplificado, motores de reconocimiento (Speech Recognition - SR) en inglés, chino
simplificado y japonés.
Los avances en estos campos no están restringidos al laboratorio, sino que cuentan con
numerosos ejemplos de aplicación práctica. A fines de 1995, Ford anunció el comando por voz,
Voice to Control (V2C), en una amplia gama de sus vehículos: Mondeo, Fiesta, Fusion, Focus;
RIM utiliza el discado activado por voz, Voice Activated Dialing (VAD), en sus dispositivos
Blackberry 8800; Innitechsystems, ofrece una amplia gama de dispositivos controlados por voz:
SurfBoard Remote Control, Sunshine Alarm Clock, Kelvin Thermostat, etc. con aplicaciones
directas en domótica.
Sin embargo, el tópico de mayor interés y complejidad, es la comprensión del lenguaje en el
contexto del diálogo. Richard Wallace, cuyos trabajos datan de 1995 con SETL y A.L.I.C.E.
(Artificial Linguistic Internet Computer Entity), ha hecho un singular aporte al mismo mediante
el desarrollo del lenguaje AIML (Artificial Intelligence Markup Lenguaje) el cual se basa
fundamentalmente en el principio de “estímulo-respuesta”, es decir respuestas preconcebidas
para cada estimulo (4). AMIL agrega facilidad de programación mediante la técnica de
reducción simbólica (Symbolic Reduction Artificial Intelligence) con la cual expresiones como:
¿Sabe Ud. quién es Einstein?, ¿Podría decirme quién es Einstein?, ¿Conoces quién es Einstein?,
etc. pueden todas ser “reducidas” a: ¿quién es Einstein?.
Posiblemente el elemento más destacable de AIML en el proceso de “interpretar” el mensaje,
sea la posibilidad de establecer el contexto del mismo, basado en las interacciones previas;
característica esta que acerca la eventual respuesta de la computadora a la propia de un
humano (5).
Otros proyectos de singular interés son Júpiter, servicio meteorológico del MIT, y de un alcance
mucho más ambicioso aún, Oxygen, donde el lenguaje hablado es la interfase primaria, pero no
única de un conjunto de dispositivos interconectados, tendientes a brindar una computación
centrada en el hombre: “Pervasive, Human-Centered Computing”.
Sin embargo, más interesante aún que los detalles técnicos de estas implementaciones, son las
consecuencias que podemos imaginar.
¿Se establecerá el inglés como el lenguaje “universal” de interacción con las computadoras?
¿Tendrá el esperanto una segunda oportunidad, y desplazará al inglés en ese role? ¿Podrán las
computadoras comunicarse en varios lenguajes?
Si bien la mayoría de los trabajos de investigación se han basado en el idioma inglés, mucho de
los logros son extensibles a otras lenguas, entre ellas, las lenguas romances (derivas del latín)
como el español, italiano, francés, portugués, etc. Por otro lado, su extensión a otros lenguajes
con estructuras diferentes como el chino y el Japonés involucran desafíos particulares (por
ejemplo, el hecho que las “palabras” no estén separadas por espacios).
¿Qué porcentaje de nuestros “diálogos” serán con computadoras en lugar de personas? ¿Qué
impacto tendrá este hecho en la evolución natural de los idiomas? Podemos especular que se
reducirá el uso de homófonos o parónimos (vocablos cuya pronunciación es igual o muy similar,
y su significado diferente); que incluso el lenguaje coloquial adquirirá un mayor nivel de
formalización; que los matices regionales dejarán lugar a características comunes, etc., etc.
Por otro lado, ¿qué impacto tendrán los contenidos curriculares tanto generales como los
específicos de los profesionales en ciencias informáticas? ¿Habrá una mayor cantidad de
contenidos en semántica, particularmente semántica lingüística: estudio de los significados de
las expresiones del lenguaje; sintaxis: las reglas y principios, más allá de significados
específicos; y pragmática: significado y usos alternativos y contextuales de las expresiones?
¿Darán estas tecnologías un renovado impulso a la productividad? ¿Y si así fuera, serán sus
beneficios compartidos por todos los seres humanos o apropiados por unos pocos?
Si bien los avances de las nuevas tecnologías han alcanzado un número muy alto de seres
humanos en un tiempo record (según las “Internet World Stats”, el 21% de la humanidad o 1.4
de 6.7 billones ya utiliza Internet), la brecha entre quienes tienen acceso y los que no, se ha
profundizado: hablamos de la Web 2.0, de las redes sociales, de “prosumers”, etc., mientras 2
billones de seres humanos padecen anemia.
Estos y muchos otros interrogantes, seguramente adquieran creciente dimensión en la medida
que los proveedores de soluciones profundicen esta tendencia.
Sin embargo, más allá de plazos y caminos alternativos de evolución, es altamente probable
que relación hombre-computadora (concepto extensible a muchos otros dispositivos, como ya
comenté) se humanice, haciendo que el hombre recobre su supremacía: será la computadora la
que deberá hacer el esfuerzo de comprendernos, extendiendo los beneficios de las
computadoras a un número muchísimo mayor de personas y en la forma en que nos resulta
natural: hablando.
Néstor H. Mazza
Profesor – Administración de Recursos Informáticos, UBA-FCE
Buenos Aires, Diciembre de 2008.
…………………………………………………………………………………………………………………………………………
Apéndice: breve reseña de los mecanismos de interacción entre el ser humano y la
computadora
La tarjeta perforada fue en sus orígenes, el mecanismo por excelencia mediante el cual el
hombre le indicaba a la computadora qué hacer y qué datos procesar. Su utilización se remonta
a 1801 cuando Joseph-Marie Jacquard introdujo “programación” en los telares.
En 1890, la tarjeta perforada fue utilizada por primera vez para el procesamiento de datos
(censo de los estados Unidos de Norte América), mediante “maquinas tabuladoras” diseñadas
por Herman Hollerith. Cientos de tarjetas eran entonces preparadas (tediosísimo proceso de
grabo-verificación), agrupadas y finalmente leídas por la computadora, la cual las procesaba:
instrucciones y datos, en el lenguaje que la computadora pudiera entender y lejos de la
comprensión de los humanos, a excepción de unos pocos expertos.
La interfase de línea de comandos, CLI (Command Line Interface), por medio de la cual
pueden digitarse comandos que son interpretados por el sistema operativo y las aplicaciones,
surge recién en 1950 como evolución de las maquinas de teletipo (TTY).
Así, las pantallas y los teclados sirvieron como principal vehiculo de interacción, facilitando
notablemente la interactividad y la transmisión de información en un formato más próximo al
hombre: el comando escrito. No obstante este significativo avance, se siguió requiriendo de
especialistas que pudieran dar las instrucciones siguiendo una sintaxis precisa, mientras que su
alcance se extendía más allá de las fronteras de las computadoras centrales “mainframes”, a las
computadoras personales, de la mano de DOS (Disk Operating System).
El próximo paso en la evolución, se originó en el Stanford Research Institute, con la aparición
del ratón y los hipervínculos, los cuales desembocaron en la las primeras interfases gráficas de
usuario (Graphical User Interfase, GUI) implementadas comercialmente en 1981 en la Xerox
8010 Star Information System.
Sin embargo, fue la Apple Macintosh in 1984, la primera computadora destinada al usuario
final, la que recogió, expandió y popularizó la GUI basada en la metáfora del escritorio.
Simplemente, la metáfora del escritorio “trasforma” las instrucciones a la computadora, por
acciones equivalentes en el mundo físico: eliminar un documento, significa arrastrarlo a la
papelera de reciclaje; imprimirlo, arrastrarlo a la impresora, etc., todo asistido de nuevos
“dispositivos de entrada” como el ratón, el track-point, etc.
Microsoft, cuya habilidad comercial para desarrollar “estándares de facto” es indiscutible, supo
incorporar esta nueva forma de interacción hombre-computadora, en el sistema operativo
Windows; metáfora que ha perdurado por más de 15 años, y que fue, posiblemente con el bajo
costo asociado a la tecnología CMOS (tecnología de fabricación de circuitos integrados como los
microprocesadores), determinante en que la computadora se extendiera fuera del territorio de
los expertos.
En 1993, apareció el navegador (browser) de Internet. Originalmente introducido por Marc
Andreessen de NCSA Mosaic, fue posiblemente una de las últimas metáforas introducidas. La
simplicidad que ofrece para acceder a la vasta información contenida en la word wide web,
“navegando” entre sus múltiples sitios como si recorriéramos una galería, fue de sigular
importancia en la adopción de Internet como fuente de información y plataforma para cientos
de servicios asociados.
Un vez más, la habilidad comercial de Microsoft, al integrar el explorador de Internet en su
ampliamente aceptado sistema operativo Windows, acercó aún más la computadora al hombre.
(1) Michael Dertouzos, “The Unfinished Revolution”. Harper Collins Publishers Inc., 2001. ISBN:
0-06-662067-8
(2) Jaime Barylko “La Filosofía. Una invitación a pensar”. Grupo Editorial Planeta S.A.I.C., 1997.
ISBN 950-49-0564-1.
(3) Daniel Jurafsky and James H. Martin “Speech and Language Processing: An Introduction to
Natural Language Processing, Computational Linguistics, and Speech Recognition”. PrenticeHall, 2000.
(4) Wallace, R., “The Elements of AIML Style”, Alice A.I. Foundation, Inc., 2003.
(5) Alan Turing, “Computing Machinery and intelligence” Artículo original de Turing en la revista
Mind, 1950.

Documentos relacionados