Informática y Sociedad 7 Seriedad del Web 2.0
Transcripción
Informática y Sociedad 7 Seriedad del Web 2.0
Informática y Sociedad 7 Seriedad del Web 2.0 Maximiliano Opitz, Ricardo Vásquez, Sebastián Vera Departamento de Ciencias de la Computación Universidad de Concepción, Chile June 27, 2013 1 Introducción del profesor ¿Por qué será que la Web 2.0 no es tomada en serio? No digo que no se la tome en cuenta; que no se admita que es un fenómeno muy masivo que sustenta muchı́simas experiencias de muchı́simos participantes. Pero lo que además frecuentemente se da a entender, es que lo que sucede en el ámbito 2.0 de la Web, es light, mero divertimento, caótico, entregado a emociones, irresponsable, poco confiable, bastante cuestionable, etc. Por ejemplo, piense en Wikipedia. Está claro que no sólo deplazó a las enciclopedias clásicas y a Encarta –enciclopedia multimedial digital de Microsoft, publicada desde 1993 al 2009– que desde la Web 1.0 habı́a logrado hegemonizar lo enciclopédico online. Hoy incluso compite diariamente con las editoriales de publicaciones cientı́ficas. En la academia, frente a alguna duda, frente a alguna laguna de conocimiento que necesitamos llenar con alguna urgencia, tı́picamente ya no se duda en, en primer lugar, consultar Wikipedia. Ello no obstante, a la hora de informar resultados académicos, y referirse a las fuentes de conocimientos usados, raramente se recuerda el aporte de Wikipedia. Se prefiere apuntar directamente a las autoridades que se conocieron a través de Wikipedia. Es que Wikipedia, en la Academia –con mayúscula; para distinguir la institución de su base– sigue teniendo mala prensa. Se argumenta, tı́picamente, que cualquiera puede publicar cualquier cosa en Wikipedia; que no hay control; que se sabe de muchos errores garrafales; incluso malintencionados. Este es también el tenor de las crı́ticas a los bloggers del periodismo participativo que desde el comienzo de la Web 2.0 han ondeado esa bandera. En el caso de las redes sociales, en cambio, la crı́tica de origen Web 1.0 no se centra tanto en las formas que esos fenómenos informáticos asumen –tal vez porque se ven tan caóticas que no tendrá sentido tratar de reordenarlas–, sino en las consecuencias sociales que se les adjudican. Sean chismografı́as, bullings o levantamientos al estilo primavera árabe. En todo caso los resultados, si bien se 1 admite que pueden ser contundentes, no gozan de buena reputación; y en el mejor de los casos se entiende que demandan reconsideraciones más serias. Ello no obstante, las cosas no están tan claras. Porque la gran mayorá de las redes sociales pareciera que igual está siendo domesticada. Aún si sólo fuera porque tienen lugar sobre una plataforma que tiene dueño; tipo Facebook. Y si, continuando con ejemplos importantes del Web 2.0, centramos la mirada en Google, entonces mientras más pasa el tiempo, más cabe preguntarse si este gran impulsor inicial sigue orientándose en los planteos que caracterizan al paradigma informático que aquı́ nos interesa. Por eso que es hora de recordar que el principal principio de la Web 2.0 es la participación, masiva y activa, de sus usuarios; que por lo mismo dejan de ser meros usuarios como los verá el Web 1.0, y pasan a ser colaboradores. Insisto: la diferencia es la participación. Pero, ¿Qué es eso? El que Google tome en cuenta los intereses y preferencias que, explı́cita o implı́citamente, manifestan los navegantes; que rankée y seleccione los enlaces que ofrece de acuerdo a ello, ¿Debe interpretarse como participación de los navegantes? ¿Hay uso que deja huellas, o hay colaboración? ¿Tiene interés el hacer la diferencia? Para tratar de responder a estas preguntas, propongo basarnos en lo que ya expresó Francisco Varela en un artı́culo titulado Autonomie und Autopoiesis –publicado en S.J. Schmidt (Ed.), Der Diskurs des Radikalen Konstruktivismus, Suhrkamp, 1987– y que yo, en parte, traduje: Autonomı́a signifı́ca literalmente reglamentación propia. Para entender más claramente las implicaciones de este concepto lo opondremos a su contrario, la alonomı́a, heteronomı́a o reglamentación exógena, lo que llamamos control. Estas dos imágenes, la autonomı́a y el control, describen un constante baile. El primer concepto representa la creación, la regulación interna, la confirmación de la identidad propia. El segundo articula el uso, el input y output, la confirmación de la identidad por otros. El baile de esta pareja va desde la genética a la sicoterapia. La forma básica en que interactuamos con un sistema de control es la instrucción; los efectos no deseados son errores. La forma básica de nuestras interacciones con un sistema autónomo es la conversación; y los efectos no deseados son quiebres de ella. En un sistema de control la información se entiende como instrucción y representación. Pero ello no es necesariamente el caso para un sistema autónomo para el cual la información es diferente de la instrucción y está más cercana a la construcción, asi como también es diferente de la representación y está más cercana a la manera de ser, en la medida en que esta refleja la viabilidad del funcionamiento de un sistema. En otras palabras : Las usuales concepciones del control, y de la información como representación, condensan toda una constelación de supuestos filosóficos referidos a nuestro relacionamiento con sistemas naturales. No solamente hablo de sistemas vivos sino también de agregaciones, como redes ecológicas, empresas, etc. Rosenberg (en 1974) caracterizó esta visión preponderante como gestalt del 2 computador. Creo que tiene razón en dos sentidos. Primero porque de hecho se trata de una imagen-gestalt en la medida en que privilegia e instaura una perspectiva difı́cil de obviar a la hora de adoptar un punto de vista propio. Y segundo porque la computadora entrega la metáfora clave sobre la cual todo lo demás descanza. Ası́, en la gestalt del computador la información es lo que es representado; y representada es una correspondencia entre unidades simbólicas de una estructura y unidades semejantes de otra estructura. Si en cambio resaltamos el aspecto autónomo de sistemas naturales, la gestalt del cumputador resulta cuestionada. No existe nada en el cerebro a lo que nos podamos referir para confirmar correspondencias. Como en otros sistemas naturales, solo existirán ciertas regularidades que, como observadores externos que somos, nos interesan puesto que observamos las actividades del sistema y al mismo tiempo sus interacciones. Si optamos por interpretar estas regularidades cognitiva o informáticamente, veremos que siempre nos exigen considerar el sistema como un todo, trátese de una célula, de un cerebro o de una conversación. Lo que desde esta perspectiva podrı́amos llamar representación no es una correspondencia con datos externos, sino más bien una coherencia con el proceso de manten- ción de la propia identidad. Si entonces abandonamos la perspectiva del control para adoptar la de la autonomı́a, el concepto de la información se diferenciará en aspectos importantes del de la gestalt del computador. Información no es captada ni transmitida, ni existen diferencias entre entidades informantes y no informantes del medio ambiente. Debido a ello el concepto de información debe ser redefinido como codependiente o constructivo, totalmente opuesto al de representación o instrucción. Ello se puede investigar reemplazando las cuestiones sobre correspondencias semánticas por estudios de tipos de estructuras. Una estructura dada determina lo que constituye al sistema y cómo este se hace cargo de perturbaciones provenientes del medio ambiente; pero el sistema no necesita para sus operaciones recurrir a inscripciones de cualquier tipo ni a representaciones. Claro, en informática siempre tuvimos tendencia a controlar todo; mediante el software que para ello desarrollamos: Los procesos computacionales están controlados por los códigos; la incidencia de los datos, es circunstancial; no estructural. La masificación social de datos podrı́a tener lugar; pero permitir que esta tenga efectos codi cantes, ya serı́a aventurarse demasiado lejos; precisamente porque sus consecuencias tı́picamente nos impactan como incontrolables. Si es que, aconseja esta visión, habrı́a que al menos supervisar y estructurar cuidadosamente el campo de posibles efectos de tales retroalimentaciones masificadas. Hoy, impactados por las revelaciones sobre el proyecto PRISM –vea nuestro ObserWeb–, no queda más que preguntarse si son tales consideraciones las que fundamentan la secreta colaboración entre empresas como Microsoft, Facebook y Google, con la NSA; la Agencia Nacional de Seguridad de EE.UU. En todo caso parece que este proyecto avala lo que nos indica Varela. Porque según 3 el informe filtrado, el proyecto se centra en el estudio de las estructuras que constituyen al sistema que resultaron de la manera de funcionar de los correspondientes sub-sistemas de la Web 2.0. Las inscripciones o representaciones –siempre refiriéndome a la concepctualización propuesta por Varela– no parecen tan interesantes –son poco serias–; en cambio sı́ merecen toda la atención la coherencia con el proceso de mantención de la identidad de esos sub-sistemas. Quién comunica con quién; con qué frecuencia; cómo. La Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés) alega que la práctica es similar a robar la libreta de teléfonos de todos los estadounidenses, con anotaciones que detallan con quiénes hemos hablado, cuándo, durante cuánto tiempo y desde dónde. Esta práctica le da al gobierno un amplio registro de nuestras asociaciones y movimientos públicos y le revela una gran cantidad de detalles sobre nuestra vida familiar, polı́tica, profesional, religiosa e ı́ntima. Pero de esto al menos quedará claro que los controladores del proyecto PRISM se toman la Web 2.0 en serio. Falta sólo que nosotros, los que valoramos su autonomı́a, también reconozcamos la seriedad de este proyecto alternativo. ¿En qué topamos? Está claro que, por ejemplo, que eso de que en la Web 2.0 no haya censura previa, es algo que puede presentar inconvenientes. Pero ¿son importantes? O será más bien que la selección de lo que convence igual temprano o tarde tiene lugar, sólo que ahora, en la Web 2.0, en la medida en que pasan a aportar a las conversaciones constructivas –según Varela– de las comunidades. O también está claro que la falta de control en la Web 2.0 obliga a entregar confianza; que, por supuesto, puede ser mal correspondida; llevar a quiebres de coherencias –Varela–. Pero ¿no son tales riesgos inevitables, si se quiere fomentar la creación y construcción? En suma: ¿No son estas actitudes autónomas al menos tan serias como las controladas? Discuta todas estas cuestiones en términos generales. Pero atterrice también sus convicciones en ejemplos ojalá bien concretos del Web 2.0. 4 2 Nuestra visión Una de los principales motivos de la poca seriedad que existe en la Web 2.0, creemos que es la ”falsa confiabilidad” que nos ofrece esta misma y la ingenuidad de los usuarios. Hoy en dı́a, la mayorı́a de las páginas a las que queremos acceder, ya sea para buscar información, leer noticias, etc, piden un registro, en donde se está ingresando informacion personal. La pregunta que uno se deberı́a hacer ante estos registros es, ¿estamos conscientes de a que lugar en la Web va esta información? ¿Sabemos quienes son los que tienen acceso a estos datos? Ejemplos como Facebook, Gmail o Twitter, presentan un contrato de términos que en la mayorı́a de las ocaciones los usuarios no leen (solo lo aceptan) y ponen plena confianza en que su información esta en buenas manos. Esto puede ser catastrófico. Un claro ejemplo es lo sucedido con el proyecto PRISM. El punto de todo esto, es que los mismos usuarios son los culpables del poco control que existe con la información en la Web 2.0. Mas que controladores en los sistemas (como en el caso de PRISM), creemos que la misma sociedad es la que debe tener un control sobre que datos esta entregando, que opiniones esta compartiendo, etc. El principal ”filtro” que debe haber en la Web es el propio usuario. En conclusión, la responsabilidad del usuario juega un papel determinante en la seriedad de la Web. Otro aspecto que puede conllevar a la poca seriedad de la Web 2.0, es que a pesar que hay marcas de gran embergadura como Facebook o Google que estan detrás de todas estas aplicaciones que hacen participar a los usuarios, estas empresas no son validadores, sino que solo son sostenedoras, lo cual marca una gran diferencia ya que toda la informacion que es creada, no es controlada por ningún ente, ni la marca misma. El hecho de que la informacion no sea validada, crea una gran desconfianza a momento de utilizar esas herramientas como fuente de informacion, por ejemplo, la wikipedia. Es importante aclarar que la seriedad no siempre va de la mano con el nivel de importancia, y esto es fundamental tenerlo en cuenta al momento de analizar la Web 2.0. Sabemos el poder que tiene la Web 2.0, ya que ésta es un fiel reflejo de nosotros (como sociedad) en ciertos aspectos, donde cada uno de nosotros ha ido generando una copia virtual de si mismo, dando a conocer sus actividades, opiniones y emociones. Gracias a esto último, por medio de la Web se generan tendencias, rechazos, se informar, etc.... Y eso tiene repercusiones en la vida real que no son menores. Es cosa de pensar en algunos ejemplos: • Las movilizaciones • La Famosa ley 20.000 • Las candidaturas a la presidencia 5 Son temas que a traves de la Web 2.0 estan agarrando fuerza y la gente se esta empezando a informar y a organizar, y esto se debe en gran parte, por no decir en su totalidad, a la Web 2.0. A medida que pase el tiempo y con el ritmo que lleva la Web 2.0, esta seguirá siendo poco seria porque es inevitable que en alguna medida lo sea. Si queremos hacer participe a toda la sociedad en estos sistemas, siempre se dará para cosas poco formales y mas sociales, es una tendencia que no se puede evitar. Sin embargo, como se menciona anteriormente la gente empezará a tomarle importancia independiente de que si es poco seria, y poco a poco se le empezará a dar cavida para temas serios que eventualmente podrian involucrar a la Web 2.0. Basta destacar que existen empleos en grandes empresas que solo se enfocan a la adminstración de ésta en las redes sociales, y no hay empresa importante que este presente en las redes sociales. Y si eso no es tomarse la Web 2.0 con seriedad entonces no sabemos que es. Pero el control sobre la Web 2.0 ya se esta dando. Un ejemplo son los portales de noticias, mas especificamente EMOL, que tiene un filtro controlado de palabras, es decir, no se le permite al usuario que quiere comentar una noticia escribir un garabato o una palabra ofensiva. En conclusión, la Web 2.0 tiene mayormente autonomı́a pero ası́ también ya se esta dando este control sobre ella. Sin embargo, nosotros creemos que no deberia existir un control sobre la Web 2.0. Ası́ como está, la Web 2.0 refleja la sociedad de hoy en dı́a. Los usuarios opinan lo que quieren con total libertad. Y si nos ponemos a pensar en que tan impregnada está la Web 2.0 en nuestra vida real, crear resticciones a la Web se reflejarı́a en restricciones en la vida real. Es importante entender lo ligada que esta la Web 2.0 con nuestros quehaceres del dı́a a dı́a. Se deberı́a educar a las personas sobre la Web 2.0 en vez de generar restricciones sobre ésta. Para poder concluir eso, hicimos la analogı́a con las leyes que existen en la vida real. Si se pudiera educar mejor a la gente, no existirian tantas restricciones (control), habrı́a más libertad, y de cierta manera la web nos permite eso y no deberı́a cambiar. De cierto modo, y volvemos a repetir, el unico responsable de las acciones que se ejecutan en la Web es el propio usuario. Finalmente concluimos que efectivamente los sistemas que incorporan actitudes autónomas son menos serias que las controladas, sin embargo, a partir de sistemas autónomos, si se realiza un estudio adecuado del contenido expuesto en dichas plataformas de la Web, es posible obtener conocimiento fehaciente acerca de la manera de pensar, sentir y actuar de quienes participan de estos sistemas. 6