En este artículo comenzamos una serie para analizar una de

Transcripción

En este artículo comenzamos una serie para analizar una de
The Panopticon Singularity (Le vigilamos por su propia seguridad)
Antonio Manuel Amaya Calvo
Tecnologías
La Sociedad de la Información ofrece muchos beneficios pero también algunas amenazas...como la que aquí se analiza. No se lo pierda.
En este artículo comenzamos una serie para analizar una de dichas posibles amenazas, generada por el
incremento de datos sobre las personas disponibles en la red.
"The 18th
century utopian philosopher Jeremy Bentham's panopticon was a prison; a circle of cells with windows
facing inwards, towards a tower, wherein jailers could look out and inspect the prisoners at any time,
unseen by their subjects[1]." Así comienza un relato corto de realidad-ficción de Charles Stross, The
Panopticon Singularity (http://www.antipope.org/charlie/rant/panopticon-essay.html), cuyo título he
tomado prestado para el título de este artículo. El relato de Charles Stross, cuya lectura recomiendo (solo
la frase ‘Trusted Computing (http://www.cl.cam.ac.uk/~rja14/tcpa-faq.html) doesn't mean computers you
can trust: it means computers that intellectual property corporations can trust[2]' ya hace que merezca la
pena), hace un recorrido por diez tecnologías que pueden hacer posible lo que él llama 'singularidad
panóptica'. La singularidad panóptica, según el relato de Charles Stross será el momento a partir del cual
todo aquello que hagamos podrá ser controlado por las autoridades, en directo o en un momento posterior.
La verdad es que leí el relato en el 2.002, cuando apareció en la web y recordaba el fondo pero no de
quien era ni mucho menos donde estaba. E irónicamente, gracias a la magia de Google, un par de
búsquedas después ahí estaba. Y digo irónicamente porque lo que hizo que me acordase de un artículo
que había leído hace siete años son, precisamente, unas palabras de Eric Schmidt, CEO de Google: 'If
you have something that you don't want anyone to know, maybe you shouldn't be doing it in the
first place. But if you really need that kind of privacy, the reality is that search engines - including
Google - do retain this information for some time. And it's important, for example, that we're all subject in
the United States to the Patriot Act... it is possible that that information could be made available to the
authorities[3].' La parte que está en negrita se ha tomado como el quid de la cuestión, con cierta lógica,
porque es inferencia falsa. Es el tipo de lógica que dice: ‘los criminales no quieren que haya supervisión
total, porque hacen cosas que quieren ocultar, luego si tú no eres un terrorista no tendrás cosas que
ocultar, y por lo tanto no debes objetar a la supervisión total‘. Y que normalmente se rebate
simplemente por el hecho, indiscutible, de que algo que en este momento no quieras ocultar porque no se
considere ilegal o inmoral en este momento (que es otra falacia que lleva implícita la falacia anterior) no
vayas a quererlo ocultar en el futuro si cambian las leyes o los estándares. Pues... no lo hagas dirían los
que se creen la lógica. Yo no tengo nada que ocultar dirían. Y... eso es falso. Más que falso, eso está
basado en creer que solo las cosas censurables se quieren ocultar. Pero en realidad todos tenemos cosas
que queremos ocultar. ¿No? Imaginemos una pequeña conversación que podría ir más o menos así...
No, yo no tengo nada que ocultar
¿Seguro?
Sí, seguro, solo la gente rara tiene cosas que ocultar, yo no hago nada que no quiera que se sepa.
Ah. Entonces supongo que nunca has hecho un regalo a alguien cuya gracia o parte de la gracia es
que era secreto hasta el momento de dárselo
... ¡Pero eso no es lo mismo!
Solo que, por suerte o por desgracia sí que lo es. Porque como dice Charles Stross... 'But acts of mass
terror exist at one end of a scale that begins with the parking ticket, the taping of a CD for personal use
in a Walkman, a possibly-defamatory statement about a colleague sent in private email to a friend, a
mistakenly omitted cash receipt when compiling the annual tax return ... the list is endless, and to a police
authority with absolute knowledge and a robotic compulsion to Enforce The Law, we would all,
ultimately, be found guilty of something[4].' Y ni siquiera se trata de ser culpables o no. En un mundo
transparente podríamos acceder a las búsquedas o los accesos de cualquier otro, en pos de la apertura
total. Y en un mundo así posiblemente sería posible saber que te van a regalar incluso antes de que la
persona que hace el regalo realice la compra. Eso es también privacidad, y lamentablemente lo uno lleva a
lo otro. Curiosamente, las declaraciones de Eric Schmidt son la tercera vez que algo me ha recordado el
artículo en los últimos tres meses. Antes fue Eugene Kaspersky, CEO de Kaspersky Labs[5]: That's it?
What's wrong with the design of the Internet?
There's anonymity. Everyone should and must have an identification, or Internet passport. The Internet
was designed not for public use, but for American scientists and the U.S. military. That was just a limited
group of people-hundreds, or maybe thousands. Then it was introduced to the public and it was wrong...to
introduce it in the same way. I'd like to change the design of the Internet by introducing
regulation-Internet passports, Internet police and international agreement-about following Internet
standards. And if some countries don't agree with or don't pay attention to the agreement, just cut them
off[6]. Y recientemente (Diciembre de 2009, el primero de varios cambios en la política de privacidad),
Facebook ha cambiado el diseño de los controles de privacidad e invita a sus usuarios a ‘abrirse' al
mundo. Ahora por defecto, y salvo que el usuario indique lo contrario, las fotos y entradas son indexables
por los motores de búsqueda (como el susodicho Google). Lo cual por cierto ha llevado a cosas graciosas
como la publicación de fotos de Mark Zuckerberg[7], ejecutivo jefe de Facebook. Fotos que él aseguró
que había publicado a intento, pero que desaparecieron rápidamente en cualquier caso. Malos tiempos
para la privacidad, pues. ¿Y por qué? Pues hay una explicación sencilla, en el caso de Facebook,
Kaspersky y posiblemente Google: ROI[8]. Invertir en privacidad, hoy en día, es un mal negocio, y en el
caso de Facebook, directamente va contra el negocio. Más información pública en los motores de
búsqueda es igual a más accesos es igual a más ingresos por publicidad. De hecho, en la misma línea de
wishful thinking[9] podemos encuadrar estas declaraciones de Marissa Meyer, Vicepresidente del
producto de búsqueda y experiencia de usuario de... Google, sí. I really feel that the virtual world follows
the physical world ... There's very few things you can do anonymously in the physical world. I think that
over time, on the internet, there will be less anonymity. And I actually think that's good; I think it
creates, you know, more accountability, people acting more responsibly[10] Wishful thinking, decía,
porque un escenario como el que planteaba antes de los regalos en realidad sería un negocio estupendo,
enfocado desde otro punto. Imaginaros que un día recibís un mail que dice algo así como: Estimado
cliente,
el cumpleaños de XXX, con el/la/ello que últimamente intercambia largas conversaciones y correos es la
semana que viene. Para su comodidad y conveniencia, le informamos que últimamente XXX mira muchas
páginas de productos de cría de cebollinos. Permítanos recomendarle los siguientes proveedores de
productos de cría de cebollinos, con vista a realizar su regalo: ¿A que sería conveniente... a la par que
siniestro? Y si pudiesen convencernos de que la transparencia es buena, posiblemente un buen negocio
también. De todas formas, más que los casos de Facebook y Kaspersky me sigue preocupando más el
comentario de Eric Schmidt, pero por la segunda frase más que por la primera: But if you really need that
kind of privacy, the reality is that search engines - including Google - do retain this information for some
time. ¿Y porque me preocupa esto? Porque suena a otra forma de decir que si esperamos esa clase de
privacidad -o sea, estar seguros de que nuestras búsquedas, nuestros hábitos de navegación son privados,
no sabía que hubiese otra clase de privacidad- de un buscador, nuestras expectativas están mal puestas. Y
eso me recuerda al famoso problema de las contraseñas. ¿De quién es la culpa de que los ataques de
fuerza bruta tengan éxito? La respuesta a esa pregunta, generalmente, es ‘de los usuarios'... que son los
que, por otra parte, no han tenido responsabilidad en las decisiones de diseño del sistema, ni la posibilidad
de realizar cambios en el mismo. La declaración de Eric Schmidt va en la misma línea. Si la aceptamos
como buena, la responsabilidad de las posibles fugas de información ya no será de Google. Será de sus
usuarios, que no deberían haber esperado que su información estuviese protegida en primer lugar. Por
ejemplo, hay algo que Charles Stross no menciona en su artículo, posiblemente porque se centra más en la
vigilancia policial, posiblemente porque en el 2.002 no se podía imaginar aun: La democratización de la
vigilancia. Hoy en día si haces algo embarazoso o que simplemente le resulte gracioso a alguien en la
calle, es muy probable que tu ‘hazaña' sea capturada en vídeo, pero no por alguna cámara de vigilancia
del Gran Hermano, sino por una, dos, o cien cámaras de teléfono móvil. Y a continuación acabarás en
YouTube, con casi total seguridad. Solo que... colgar el video en YouTube, según nuestra Ley Orgánica
de Protección de Datos (LOPD para los amigos) es directamente ilegal, con lo que puedes pedir que
retiren el vídeo y posiblemente Google (de nuevo) lo retire rápidamente. Y si la posición de Eric Schmidt
se sostiene, entonces, en lugar de buscar soluciones técnicas para evitar la violación de tu privacidad,
simplemente consideraremos que, al igual de que la culpa de que se puedan romper las contraseñas es de
los usuarios (y no del que no puso medidas técnicas para evitarlo) la culpa de hacerte famoso en YouTube
será... sí, tuya. No de quien ni siquiera parece que tenga intenciones de buscar soluciones o medidas
técnicas para proteger la privacidad de sus usuarios, sino de los propios usuarios. Pero si de todas formas
la ley nos protege, ¿qué más da que haya o no haya medidas técnicas? Pues que Google puede retirar un
vídeo (por seguir con el ejemplo) después de que el ‘actor' del mismo se queje. Pero... el problema es que
puedes impedir que nadie más vea el vídeo, pero una vez alguien lo vio es imposible hacer que lo olvide
(y no digamos si lo copió impedir que lo vuelva a subir al mismo o distinto sitio). Y que, ilegal o no,
recuerdo haber visto en el periódico vídeos que, con la ley en la mano, no deberían haberse publicado
nunca. Precisamente con la privacidad es imprescindible ser proactivo en lugar de reactivo, porque una
vez un secreto se ha contado ya no puede volver a ser secreto. En un artículo posterior comentaremos
algunos ejemplos reales de servicios creados sin tomar en cuenta las necesidades de privacidad de sus
usuarios. Bibliografía
Electronic Frontier Foundation:
http://www.eff.org/deeplinks/2009/12/google-ceo-eric-schmidt-dismisses-privacy
The Register: Nueva política de Facebook:
http://www.theregister.co.uk/2009/12/10/facebook_privacy_change_default_exposure/
The Register: Fotos de Mark Zuckerberg publicadas:
http://www.theregister.co.uk/2009/12/14/facebook_photo_privacy_snafu/
Referencias [1]: El panópticon del filósofo utópico del siglo XVIII Jeremy Bentham era una prisión; un
círculo de celdas con ventanas hacia el interior, hacia una torre, desde donde los carceleros podían mirar
hacia fuera e inspeccionar a los prisioneros en cualquier momento, sin que estos pudiesen verlos. [2]:
Computación Confiable no significa ordenadores en los que puedas confiar: significa ordenadores en los
que las empresas de propiedad intelectual puedan confiar. [3]: Si tienes algo que no quieres que se sepa,
tal vez no deberías estar haciéndolo en primer lugar. Pero si realmente necesitas esa clase de privacidad,
la realidad es que los motores de búsqueda –incluyendo a Google—conservan toda la información durante
algún tiempo. Y es importante (recordar), por ejemplo, que todos en los Estados Unidos estamos sujetos
al ‘Patriot Act’… y por lo tanto es posible que dicha información se le entregue a las autoridades. [4]:
Pero los actos terroristas están en el extremo final de una escala que comienza con una multa de
aparcamiento, la grabación de un CD para su uso personal, una posible declaración difamatoria sobre un
colega enviada por correo electrónico privado a un amigo, un recibo de pago en efectivo omitido por error
en la declaración de la renta… la lista es interminable, y para una autoridad policial con conocimiento
absoluto y una compulsión robótica para ‘Hacer Cumplir la Ley’, todos seríamos, en última instancia,
culpables de algo. [5]: http://www.zdnetasia.com/news/security/0,39044215,61974697,00.htm [6]: ¿Eso
es todo? ¿Qué problema hay con el diseño de Internet. Está el anonimato. Todo el mundo podría, y
debería tener, una identificación o Pasaporte de Internet. Internet no fue diseñada para su uso público,
sino para la comunidad científica y los militares americanos. El conjunto de usuarios previsto era un
grupo limitado de personas—unos cientos o tal vez miles. Entonces se amplió al público en general, y fue
un error… ampliarlo sin modificarlo. Me gustaría cambiar el diseño de Internet introduciendo regulación
–Pasaportes de Internet, policía de Internet y acuerdos internacionales—para el cumplimiento de
estándares de Internet. Y si algunos países no están de acuerdo con las normas, o no las cumplen,
simplemente
cortarles
el
acceso.
[7]:
http://www.theregister.co.uk/2009/12/14/facebook_photo_privacy_snafu/ [8]: Return of Investment,
Retorno de la Inversión [9]: Expresar como hechos algo que son deseos. [10]: Realmente creo que el
mundo virtual sigue los pasos del mundo físico… Hay muy pocas cosas que se puedan hacer de forma
anónima en el mundo físico. Creo que, según pase el tiempo, en Internet habrá menos anonimato. Y creo
que eso, en realidad, es bueno; creo que traerá más responsabilidad sobre las acciones, y provocará por lo
tanto que la gente actué de forma más responsable.

Documentos relacionados