En este artículo comenzamos una serie para analizar una de
Transcripción
En este artículo comenzamos una serie para analizar una de
The Panopticon Singularity (Le vigilamos por su propia seguridad) Antonio Manuel Amaya Calvo Tecnologías La Sociedad de la Información ofrece muchos beneficios pero también algunas amenazas...como la que aquí se analiza. No se lo pierda. En este artículo comenzamos una serie para analizar una de dichas posibles amenazas, generada por el incremento de datos sobre las personas disponibles en la red. "The 18th century utopian philosopher Jeremy Bentham's panopticon was a prison; a circle of cells with windows facing inwards, towards a tower, wherein jailers could look out and inspect the prisoners at any time, unseen by their subjects[1]." Así comienza un relato corto de realidad-ficción de Charles Stross, The Panopticon Singularity (http://www.antipope.org/charlie/rant/panopticon-essay.html), cuyo título he tomado prestado para el título de este artículo. El relato de Charles Stross, cuya lectura recomiendo (solo la frase ‘Trusted Computing (http://www.cl.cam.ac.uk/~rja14/tcpa-faq.html) doesn't mean computers you can trust: it means computers that intellectual property corporations can trust[2]' ya hace que merezca la pena), hace un recorrido por diez tecnologías que pueden hacer posible lo que él llama 'singularidad panóptica'. La singularidad panóptica, según el relato de Charles Stross será el momento a partir del cual todo aquello que hagamos podrá ser controlado por las autoridades, en directo o en un momento posterior. La verdad es que leí el relato en el 2.002, cuando apareció en la web y recordaba el fondo pero no de quien era ni mucho menos donde estaba. E irónicamente, gracias a la magia de Google, un par de búsquedas después ahí estaba. Y digo irónicamente porque lo que hizo que me acordase de un artículo que había leído hace siete años son, precisamente, unas palabras de Eric Schmidt, CEO de Google: 'If you have something that you don't want anyone to know, maybe you shouldn't be doing it in the first place. But if you really need that kind of privacy, the reality is that search engines - including Google - do retain this information for some time. And it's important, for example, that we're all subject in the United States to the Patriot Act... it is possible that that information could be made available to the authorities[3].' La parte que está en negrita se ha tomado como el quid de la cuestión, con cierta lógica, porque es inferencia falsa. Es el tipo de lógica que dice: ‘los criminales no quieren que haya supervisión total, porque hacen cosas que quieren ocultar, luego si tú no eres un terrorista no tendrás cosas que ocultar, y por lo tanto no debes objetar a la supervisión total‘. Y que normalmente se rebate simplemente por el hecho, indiscutible, de que algo que en este momento no quieras ocultar porque no se considere ilegal o inmoral en este momento (que es otra falacia que lleva implícita la falacia anterior) no vayas a quererlo ocultar en el futuro si cambian las leyes o los estándares. Pues... no lo hagas dirían los que se creen la lógica. Yo no tengo nada que ocultar dirían. Y... eso es falso. Más que falso, eso está basado en creer que solo las cosas censurables se quieren ocultar. Pero en realidad todos tenemos cosas que queremos ocultar. ¿No? Imaginemos una pequeña conversación que podría ir más o menos así... No, yo no tengo nada que ocultar ¿Seguro? Sí, seguro, solo la gente rara tiene cosas que ocultar, yo no hago nada que no quiera que se sepa. Ah. Entonces supongo que nunca has hecho un regalo a alguien cuya gracia o parte de la gracia es que era secreto hasta el momento de dárselo ... ¡Pero eso no es lo mismo! Solo que, por suerte o por desgracia sí que lo es. Porque como dice Charles Stross... 'But acts of mass terror exist at one end of a scale that begins with the parking ticket, the taping of a CD for personal use in a Walkman, a possibly-defamatory statement about a colleague sent in private email to a friend, a mistakenly omitted cash receipt when compiling the annual tax return ... the list is endless, and to a police authority with absolute knowledge and a robotic compulsion to Enforce The Law, we would all, ultimately, be found guilty of something[4].' Y ni siquiera se trata de ser culpables o no. En un mundo transparente podríamos acceder a las búsquedas o los accesos de cualquier otro, en pos de la apertura total. Y en un mundo así posiblemente sería posible saber que te van a regalar incluso antes de que la persona que hace el regalo realice la compra. Eso es también privacidad, y lamentablemente lo uno lleva a lo otro. Curiosamente, las declaraciones de Eric Schmidt son la tercera vez que algo me ha recordado el artículo en los últimos tres meses. Antes fue Eugene Kaspersky, CEO de Kaspersky Labs[5]: That's it? What's wrong with the design of the Internet? There's anonymity. Everyone should and must have an identification, or Internet passport. The Internet was designed not for public use, but for American scientists and the U.S. military. That was just a limited group of people-hundreds, or maybe thousands. Then it was introduced to the public and it was wrong...to introduce it in the same way. I'd like to change the design of the Internet by introducing regulation-Internet passports, Internet police and international agreement-about following Internet standards. And if some countries don't agree with or don't pay attention to the agreement, just cut them off[6]. Y recientemente (Diciembre de 2009, el primero de varios cambios en la política de privacidad), Facebook ha cambiado el diseño de los controles de privacidad e invita a sus usuarios a ‘abrirse' al mundo. Ahora por defecto, y salvo que el usuario indique lo contrario, las fotos y entradas son indexables por los motores de búsqueda (como el susodicho Google). Lo cual por cierto ha llevado a cosas graciosas como la publicación de fotos de Mark Zuckerberg[7], ejecutivo jefe de Facebook. Fotos que él aseguró que había publicado a intento, pero que desaparecieron rápidamente en cualquier caso. Malos tiempos para la privacidad, pues. ¿Y por qué? Pues hay una explicación sencilla, en el caso de Facebook, Kaspersky y posiblemente Google: ROI[8]. Invertir en privacidad, hoy en día, es un mal negocio, y en el caso de Facebook, directamente va contra el negocio. Más información pública en los motores de búsqueda es igual a más accesos es igual a más ingresos por publicidad. De hecho, en la misma línea de wishful thinking[9] podemos encuadrar estas declaraciones de Marissa Meyer, Vicepresidente del producto de búsqueda y experiencia de usuario de... Google, sí. I really feel that the virtual world follows the physical world ... There's very few things you can do anonymously in the physical world. I think that over time, on the internet, there will be less anonymity. And I actually think that's good; I think it creates, you know, more accountability, people acting more responsibly[10] Wishful thinking, decía, porque un escenario como el que planteaba antes de los regalos en realidad sería un negocio estupendo, enfocado desde otro punto. Imaginaros que un día recibís un mail que dice algo así como: Estimado cliente, el cumpleaños de XXX, con el/la/ello que últimamente intercambia largas conversaciones y correos es la semana que viene. Para su comodidad y conveniencia, le informamos que últimamente XXX mira muchas páginas de productos de cría de cebollinos. Permítanos recomendarle los siguientes proveedores de productos de cría de cebollinos, con vista a realizar su regalo: ¿A que sería conveniente... a la par que siniestro? Y si pudiesen convencernos de que la transparencia es buena, posiblemente un buen negocio también. De todas formas, más que los casos de Facebook y Kaspersky me sigue preocupando más el comentario de Eric Schmidt, pero por la segunda frase más que por la primera: But if you really need that kind of privacy, the reality is that search engines - including Google - do retain this information for some time. ¿Y porque me preocupa esto? Porque suena a otra forma de decir que si esperamos esa clase de privacidad -o sea, estar seguros de que nuestras búsquedas, nuestros hábitos de navegación son privados, no sabía que hubiese otra clase de privacidad- de un buscador, nuestras expectativas están mal puestas. Y eso me recuerda al famoso problema de las contraseñas. ¿De quién es la culpa de que los ataques de fuerza bruta tengan éxito? La respuesta a esa pregunta, generalmente, es ‘de los usuarios'... que son los que, por otra parte, no han tenido responsabilidad en las decisiones de diseño del sistema, ni la posibilidad de realizar cambios en el mismo. La declaración de Eric Schmidt va en la misma línea. Si la aceptamos como buena, la responsabilidad de las posibles fugas de información ya no será de Google. Será de sus usuarios, que no deberían haber esperado que su información estuviese protegida en primer lugar. Por ejemplo, hay algo que Charles Stross no menciona en su artículo, posiblemente porque se centra más en la vigilancia policial, posiblemente porque en el 2.002 no se podía imaginar aun: La democratización de la vigilancia. Hoy en día si haces algo embarazoso o que simplemente le resulte gracioso a alguien en la calle, es muy probable que tu ‘hazaña' sea capturada en vídeo, pero no por alguna cámara de vigilancia del Gran Hermano, sino por una, dos, o cien cámaras de teléfono móvil. Y a continuación acabarás en YouTube, con casi total seguridad. Solo que... colgar el video en YouTube, según nuestra Ley Orgánica de Protección de Datos (LOPD para los amigos) es directamente ilegal, con lo que puedes pedir que retiren el vídeo y posiblemente Google (de nuevo) lo retire rápidamente. Y si la posición de Eric Schmidt se sostiene, entonces, en lugar de buscar soluciones técnicas para evitar la violación de tu privacidad, simplemente consideraremos que, al igual de que la culpa de que se puedan romper las contraseñas es de los usuarios (y no del que no puso medidas técnicas para evitarlo) la culpa de hacerte famoso en YouTube será... sí, tuya. No de quien ni siquiera parece que tenga intenciones de buscar soluciones o medidas técnicas para proteger la privacidad de sus usuarios, sino de los propios usuarios. Pero si de todas formas la ley nos protege, ¿qué más da que haya o no haya medidas técnicas? Pues que Google puede retirar un vídeo (por seguir con el ejemplo) después de que el ‘actor' del mismo se queje. Pero... el problema es que puedes impedir que nadie más vea el vídeo, pero una vez alguien lo vio es imposible hacer que lo olvide (y no digamos si lo copió impedir que lo vuelva a subir al mismo o distinto sitio). Y que, ilegal o no, recuerdo haber visto en el periódico vídeos que, con la ley en la mano, no deberían haberse publicado nunca. Precisamente con la privacidad es imprescindible ser proactivo en lugar de reactivo, porque una vez un secreto se ha contado ya no puede volver a ser secreto. En un artículo posterior comentaremos algunos ejemplos reales de servicios creados sin tomar en cuenta las necesidades de privacidad de sus usuarios. Bibliografía Electronic Frontier Foundation: http://www.eff.org/deeplinks/2009/12/google-ceo-eric-schmidt-dismisses-privacy The Register: Nueva política de Facebook: http://www.theregister.co.uk/2009/12/10/facebook_privacy_change_default_exposure/ The Register: Fotos de Mark Zuckerberg publicadas: http://www.theregister.co.uk/2009/12/14/facebook_photo_privacy_snafu/ Referencias [1]: El panópticon del filósofo utópico del siglo XVIII Jeremy Bentham era una prisión; un círculo de celdas con ventanas hacia el interior, hacia una torre, desde donde los carceleros podían mirar hacia fuera e inspeccionar a los prisioneros en cualquier momento, sin que estos pudiesen verlos. [2]: Computación Confiable no significa ordenadores en los que puedas confiar: significa ordenadores en los que las empresas de propiedad intelectual puedan confiar. [3]: Si tienes algo que no quieres que se sepa, tal vez no deberías estar haciéndolo en primer lugar. Pero si realmente necesitas esa clase de privacidad, la realidad es que los motores de búsqueda –incluyendo a Google—conservan toda la información durante algún tiempo. Y es importante (recordar), por ejemplo, que todos en los Estados Unidos estamos sujetos al ‘Patriot Act’… y por lo tanto es posible que dicha información se le entregue a las autoridades. [4]: Pero los actos terroristas están en el extremo final de una escala que comienza con una multa de aparcamiento, la grabación de un CD para su uso personal, una posible declaración difamatoria sobre un colega enviada por correo electrónico privado a un amigo, un recibo de pago en efectivo omitido por error en la declaración de la renta… la lista es interminable, y para una autoridad policial con conocimiento absoluto y una compulsión robótica para ‘Hacer Cumplir la Ley’, todos seríamos, en última instancia, culpables de algo. [5]: http://www.zdnetasia.com/news/security/0,39044215,61974697,00.htm [6]: ¿Eso es todo? ¿Qué problema hay con el diseño de Internet. Está el anonimato. Todo el mundo podría, y debería tener, una identificación o Pasaporte de Internet. Internet no fue diseñada para su uso público, sino para la comunidad científica y los militares americanos. El conjunto de usuarios previsto era un grupo limitado de personas—unos cientos o tal vez miles. Entonces se amplió al público en general, y fue un error… ampliarlo sin modificarlo. Me gustaría cambiar el diseño de Internet introduciendo regulación –Pasaportes de Internet, policía de Internet y acuerdos internacionales—para el cumplimiento de estándares de Internet. Y si algunos países no están de acuerdo con las normas, o no las cumplen, simplemente cortarles el acceso. [7]: http://www.theregister.co.uk/2009/12/14/facebook_photo_privacy_snafu/ [8]: Return of Investment, Retorno de la Inversión [9]: Expresar como hechos algo que son deseos. [10]: Realmente creo que el mundo virtual sigue los pasos del mundo físico… Hay muy pocas cosas que se puedan hacer de forma anónima en el mundo físico. Creo que, según pase el tiempo, en Internet habrá menos anonimato. Y creo que eso, en realidad, es bueno; creo que traerá más responsabilidad sobre las acciones, y provocará por lo tanto que la gente actué de forma más responsable.