Informática y Sociedad 7 Seriedad del Web 2.0

Transcripción

Informática y Sociedad 7 Seriedad del Web 2.0
Informática y Sociedad 7
Seriedad del Web 2.0
Maximiliano Opitz, Ricardo Vásquez, Sebastián Vera
Departamento de Ciencias de la Computación
Universidad de Concepción, Chile
June 27, 2013
1
Introducción del profesor
¿Por qué será que la Web 2.0 no es tomada en serio? No digo que no se la
tome en cuenta; que no se admita que es un fenómeno muy masivo que sustenta
muchı́simas experiencias de muchı́simos participantes. Pero lo que además frecuentemente se da a entender, es que lo que sucede en el ámbito 2.0 de la Web,
es light, mero divertimento, caótico, entregado a emociones, irresponsable, poco
confiable, bastante cuestionable, etc.
Por ejemplo, piense en Wikipedia. Está claro que no sólo deplazó a las enciclopedias clásicas y a Encarta –enciclopedia multimedial digital de Microsoft,
publicada desde 1993 al 2009– que desde la Web 1.0 habı́a logrado hegemonizar
lo enciclopédico online. Hoy incluso compite diariamente con las editoriales de
publicaciones cientı́ficas. En la academia, frente a alguna duda, frente a alguna
laguna de conocimiento que necesitamos llenar con alguna urgencia, tı́picamente
ya no se duda en, en primer lugar, consultar Wikipedia. Ello no obstante, a la
hora de informar resultados académicos, y referirse a las fuentes de conocimientos usados, raramente se recuerda el aporte de Wikipedia. Se prefiere apuntar
directamente a las autoridades que se conocieron a través de Wikipedia. Es que
Wikipedia, en la Academia –con mayúscula; para distinguir la institución de su
base– sigue teniendo mala prensa. Se argumenta, tı́picamente, que cualquiera
puede publicar cualquier cosa en Wikipedia; que no hay control; que se sabe de
muchos errores garrafales; incluso malintencionados.
Este es también el tenor de las crı́ticas a los bloggers del periodismo participativo que desde el comienzo de la Web 2.0 han ondeado esa bandera. En el
caso de las redes sociales, en cambio, la crı́tica de origen Web 1.0 no se centra
tanto en las formas que esos fenómenos informáticos asumen –tal vez porque
se ven tan caóticas que no tendrá sentido tratar de reordenarlas–, sino en las
consecuencias sociales que se les adjudican. Sean chismografı́as, bullings o levantamientos al estilo primavera árabe. En todo caso los resultados, si bien se
1
admite que pueden ser contundentes, no gozan de buena reputación; y en el
mejor de los casos se entiende que demandan reconsideraciones más serias.
Ello no obstante, las cosas no están tan claras. Porque la gran mayorá de
las redes sociales pareciera que igual está siendo domesticada. Aún si sólo fuera
porque tienen lugar sobre una plataforma que tiene dueño; tipo Facebook. Y
si, continuando con ejemplos importantes del Web 2.0, centramos la mirada en
Google, entonces mientras más pasa el tiempo, más cabe preguntarse si este gran
impulsor inicial sigue orientándose en los planteos que caracterizan al paradigma
informático que aquı́ nos interesa.
Por eso que es hora de recordar que el principal principio de la Web 2.0 es la
participación, masiva y activa, de sus usuarios; que por lo mismo dejan de ser
meros usuarios como los verá el Web 1.0, y pasan a ser colaboradores. Insisto:
la diferencia es la participación. Pero, ¿Qué es eso? El que Google tome en
cuenta los intereses y preferencias que, explı́cita o implı́citamente, manifestan
los navegantes; que rankée y seleccione los enlaces que ofrece de acuerdo a ello,
¿Debe interpretarse como participación de los navegantes? ¿Hay uso que deja
huellas, o hay colaboración? ¿Tiene interés el hacer la diferencia?
Para tratar de responder a estas preguntas, propongo basarnos en lo que
ya expresó Francisco Varela en un artı́culo titulado Autonomie und Autopoiesis
–publicado en S.J. Schmidt (Ed.), Der Diskurs des Radikalen Konstruktivismus, Suhrkamp, 1987– y que yo, en parte, traduje: Autonomı́a signifı́ca literalmente reglamentación propia. Para entender más claramente las implicaciones de este concepto lo opondremos a su contrario, la alonomı́a, heteronomı́a
o reglamentación exógena, lo que llamamos control. Estas dos imágenes, la
autonomı́a y el control, describen un constante baile. El primer concepto representa la creación, la regulación interna, la confirmación de la identidad propia.
El segundo articula el uso, el input y output, la confirmación de la identidad
por otros. El baile de esta pareja va desde la genética a la sicoterapia. La forma
básica en que interactuamos con un sistema de control es la instrucción; los
efectos no deseados son errores. La forma básica de nuestras interacciones con
un sistema autónomo es la conversación; y los efectos no deseados son quiebres
de ella. En un sistema de control la información se entiende como instrucción y
representación. Pero ello no es necesariamente el caso para un sistema autónomo
para el cual la información es diferente de la instrucción y está más cercana a
la construcción, asi como también es diferente de la representación y está más
cercana a la manera de ser, en la medida en que esta refleja la viabilidad del
funcionamiento de un sistema.
En otras palabras : Las usuales concepciones del control, y de la información
como representación, condensan toda una constelación de supuestos filosóficos
referidos a nuestro relacionamiento con sistemas naturales. No solamente hablo
de sistemas vivos sino también de agregaciones, como redes ecológicas, empresas,
etc. Rosenberg (en 1974) caracterizó esta visión preponderante como gestalt del
2
computador. Creo que tiene razón en dos sentidos. Primero porque de hecho
se trata de una imagen-gestalt en la medida en que privilegia e instaura una
perspectiva difı́cil de obviar a la hora de adoptar un punto de vista propio. Y
segundo porque la computadora entrega la metáfora clave sobre la cual todo lo
demás descanza. Ası́, en la gestalt del computador la información es lo que es
representado; y representada es una correspondencia entre unidades simbólicas
de una estructura y unidades semejantes de otra estructura. Si en cambio resaltamos el aspecto autónomo de sistemas naturales, la gestalt del cumputador
resulta cuestionada. No existe nada en el cerebro a lo que nos podamos referir
para confirmar correspondencias. Como en otros sistemas naturales, solo existirán ciertas regularidades que, como observadores externos que somos, nos
interesan puesto que observamos las actividades del sistema y al mismo tiempo
sus interacciones.
Si optamos por interpretar estas regularidades cognitiva o informáticamente,
veremos que siempre nos exigen considerar el sistema como un todo, trátese de
una célula, de un cerebro o de una conversación. Lo que desde esta perspectiva
podrı́amos llamar representación no es una correspondencia con datos externos, sino más bien una coherencia con el proceso de manten- ción de la propia
identidad. Si entonces abandonamos la perspectiva del control para adoptar
la de la autonomı́a, el concepto de la información se diferenciará en aspectos
importantes del de la gestalt del computador. Información no es captada ni
transmitida, ni existen diferencias entre entidades informantes y no informantes
del medio ambiente. Debido a ello el concepto de información debe ser redefinido
como codependiente o constructivo, totalmente opuesto al de representación o
instrucción. Ello se puede investigar reemplazando las cuestiones sobre correspondencias semánticas por estudios de tipos de estructuras. Una estructura
dada determina lo que constituye al sistema y cómo este se hace cargo de perturbaciones provenientes del medio ambiente; pero el sistema no necesita para
sus operaciones recurrir a inscripciones de cualquier tipo ni a representaciones.
Claro, en informática siempre tuvimos tendencia a controlar todo; mediante
el software que para ello desarrollamos: Los procesos computacionales están
controlados por los códigos; la incidencia de los datos, es circunstancial; no
estructural. La masificación social de datos podrı́a tener lugar; pero permitir
que esta tenga efectos codi
cantes, ya serı́a aventurarse demasiado lejos; precisamente porque sus consecuencias tı́picamente nos impactan como incontrolables. Si es que, aconseja esta
visión, habrı́a que al menos supervisar y estructurar cuidadosamente el campo
de posibles efectos de tales retroalimentaciones masificadas.
Hoy, impactados por las revelaciones sobre el proyecto PRISM –vea nuestro
ObserWeb–, no queda más que preguntarse si son tales consideraciones las que
fundamentan la secreta colaboración entre empresas como Microsoft, Facebook
y Google, con la NSA; la Agencia Nacional de Seguridad de EE.UU. En todo
caso parece que este proyecto avala lo que nos indica Varela. Porque según
3
el informe filtrado, el proyecto se centra en el estudio de las estructuras que
constituyen al sistema que resultaron de la manera de funcionar de los correspondientes sub-sistemas de la Web 2.0. Las inscripciones o representaciones
–siempre refiriéndome a la concepctualización propuesta por Varela– no parecen tan interesantes –son poco serias–; en cambio sı́ merecen toda la atención la
coherencia con el proceso de mantención de la identidad de esos sub-sistemas.
Quién comunica con quién; con qué frecuencia; cómo. La Unión Estadounidense
por las Libertades Civiles (ACLU, por sus siglas en inglés) alega que la práctica
es similar a robar la libreta de teléfonos de todos los estadounidenses, con anotaciones que detallan con quiénes hemos hablado, cuándo, durante cuánto tiempo
y desde dónde. Esta práctica le da al gobierno un amplio registro de nuestras
asociaciones y movimientos públicos y le revela una gran cantidad de detalles
sobre nuestra vida familiar, polı́tica, profesional, religiosa e ı́ntima.
Pero de esto al menos quedará claro que los controladores del proyecto
PRISM se toman la Web 2.0 en serio. Falta sólo que nosotros, los que valoramos
su autonomı́a, también reconozcamos la seriedad de este proyecto alternativo.
¿En qué topamos?
Está claro que, por ejemplo, que eso de que en la Web 2.0 no haya censura
previa, es algo que puede presentar inconvenientes. Pero ¿son importantes? O
será más bien que la selección de lo que convence igual temprano o tarde tiene
lugar, sólo que ahora, en la Web 2.0, en la medida en que pasan a aportar a las
conversaciones constructivas –según Varela– de las comunidades.
O también está claro que la falta de control en la Web 2.0 obliga a entregar
confianza; que, por supuesto, puede ser mal correspondida; llevar a quiebres de
coherencias –Varela–. Pero ¿no son tales riesgos inevitables, si se quiere fomentar la creación y construcción?
En suma: ¿No son estas actitudes autónomas al menos tan serias como las
controladas?
Discuta todas estas cuestiones en términos generales. Pero atterrice también
sus convicciones en ejemplos ojalá bien concretos del Web 2.0.
4
2
Nuestra visión
Una de los principales motivos de la poca seriedad que existe en la Web 2.0,
creemos que es la ”falsa confiabilidad” que nos ofrece esta misma y la ingenuidad
de los usuarios. Hoy en dı́a, la mayorı́a de las páginas a las que queremos acceder, ya sea para buscar información, leer noticias, etc, piden un registro, en
donde se está ingresando informacion personal. La pregunta que uno se deberı́a
hacer ante estos registros es, ¿estamos conscientes de a que lugar en la Web va
esta información? ¿Sabemos quienes son los que tienen acceso a estos datos?
Ejemplos como Facebook, Gmail o Twitter, presentan un contrato de términos
que en la mayorı́a de las ocaciones los usuarios no leen (solo lo aceptan) y ponen
plena confianza en que su información esta en buenas manos. Esto puede ser
catastrófico. Un claro ejemplo es lo sucedido con el proyecto PRISM.
El punto de todo esto, es que los mismos usuarios son los culpables del poco
control que existe con la información en la Web 2.0. Mas que controladores en
los sistemas (como en el caso de PRISM), creemos que la misma sociedad es
la que debe tener un control sobre que datos esta entregando, que opiniones
esta compartiendo, etc. El principal ”filtro” que debe haber en la Web es el
propio usuario. En conclusión, la responsabilidad del usuario juega un papel
determinante en la seriedad de la Web.
Otro aspecto que puede conllevar a la poca seriedad de la Web 2.0, es que
a pesar que hay marcas de gran embergadura como Facebook o Google que
estan detrás de todas estas aplicaciones que hacen participar a los usuarios, estas empresas no son validadores, sino que solo son sostenedoras, lo cual marca
una gran diferencia ya que toda la informacion que es creada, no es controlada
por ningún ente, ni la marca misma. El hecho de que la informacion no sea
validada, crea una gran desconfianza a momento de utilizar esas herramientas
como fuente de informacion, por ejemplo, la wikipedia.
Es importante aclarar que la seriedad no siempre va de la mano con el nivel
de importancia, y esto es fundamental tenerlo en cuenta al momento de analizar
la Web 2.0. Sabemos el poder que tiene la Web 2.0, ya que ésta es un fiel reflejo
de nosotros (como sociedad) en ciertos aspectos, donde cada uno de nosotros ha
ido generando una copia virtual de si mismo, dando a conocer sus actividades,
opiniones y emociones. Gracias a esto último, por medio de la Web se generan
tendencias, rechazos, se informar, etc.... Y eso tiene repercusiones en la vida
real que no son menores. Es cosa de pensar en algunos ejemplos:
• Las movilizaciones
• La Famosa ley 20.000
• Las candidaturas a la presidencia
5
Son temas que a traves de la Web 2.0 estan agarrando fuerza y la gente se
esta empezando a informar y a organizar, y esto se debe en gran parte, por no
decir en su totalidad, a la Web 2.0.
A medida que pase el tiempo y con el ritmo que lleva la Web 2.0, esta seguirá
siendo poco seria porque es inevitable que en alguna medida lo sea. Si queremos
hacer participe a toda la sociedad en estos sistemas, siempre se dará para cosas
poco formales y mas sociales, es una tendencia que no se puede evitar. Sin
embargo, como se menciona anteriormente la gente empezará a tomarle importancia independiente de que si es poco seria, y poco a poco se le empezará a dar
cavida para temas serios que eventualmente podrian involucrar a la Web 2.0.
Basta destacar que existen empleos en grandes empresas que solo se enfocan
a la adminstración de ésta en las redes sociales, y no hay empresa importante
que este presente en las redes sociales. Y si eso no es tomarse la Web 2.0 con
seriedad entonces no sabemos que es.
Pero el control sobre la Web 2.0 ya se esta dando. Un ejemplo son los portales de noticias, mas especificamente EMOL, que tiene un filtro controlado de
palabras, es decir, no se le permite al usuario que quiere comentar una noticia
escribir un garabato o una palabra ofensiva. En conclusión, la Web 2.0 tiene
mayormente autonomı́a pero ası́ también ya se esta dando este control sobre ella.
Sin embargo, nosotros creemos que no deberia existir un control sobre la
Web 2.0. Ası́ como está, la Web 2.0 refleja la sociedad de hoy en dı́a. Los
usuarios opinan lo que quieren con total libertad. Y si nos ponemos a pensar
en que tan impregnada está la Web 2.0 en nuestra vida real, crear resticciones
a la Web se reflejarı́a en restricciones en la vida real. Es importante entender
lo ligada que esta la Web 2.0 con nuestros quehaceres del dı́a a dı́a. Se deberı́a
educar a las personas sobre la Web 2.0 en vez de generar restricciones sobre ésta.
Para poder concluir eso, hicimos la analogı́a con las leyes que existen en la vida
real. Si se pudiera educar mejor a la gente, no existirian tantas restricciones
(control), habrı́a más libertad, y de cierta manera la web nos permite eso y no
deberı́a cambiar. De cierto modo, y volvemos a repetir, el unico responsable de
las acciones que se ejecutan en la Web es el propio usuario.
Finalmente concluimos que efectivamente los sistemas que incorporan actitudes autónomas son menos serias que las controladas, sin embargo, a partir de
sistemas autónomos, si se realiza un estudio adecuado del contenido expuesto en
dichas plataformas de la Web, es posible obtener conocimiento fehaciente acerca
de la manera de pensar, sentir y actuar de quienes participan de estos sistemas.
6