20 junio 2016

Nuevos retos para la privacidad online

Por José A. Vázquez Aldecoa

Concept about machine learning to improve artificial intelligence ability for predictions, vía Shutterstock

Hay varias maneras de afrontar el problema de la privacidad. De entre las muchas, una de ellas es a nivel de la comunicación –redes sociales, por ejemplo-, mediante la cual los usuarios se exponen de manera voluntaria a ser un producto cuyo valor fundamental son los datos que aportan. Datos directos (demográficos, estudios, gustos, confesión, sexualidad) e indirectos (me gusta, contenidos que se comparten, opiniones, etc.).

Otro nivel es el del simple usuario de internet. Usuarios de buscadores como Google, de navegadores, de apps móviles -ahora también vinculadas a la realidad virtual-, y pronto de las tecnologías “ponibles”, bots o el ‘Internet de las cosas’. También otras tecnologías más intrusivas como las de reconocimiento facial, ajenas a todo uso voluntario.

En muchas ocasiones parece que es tan sencillo como advertir que los datos recopilados van a ser usados de un modo u otro. Es el caso de las cookies y ese incómodo mensaje un tanto absurdo porque es de obligada aceptación para poder navegar. Esto no hace hincapié sino en la realidad sujeta a la conexión digital: que la privacidad es casi imposible online, por mucho que se hable de “privacidad diferencial”. Además, el activismo a favor de la privacidad online tiene un precio que, entre otros, es no poder navegar con libertad.

Recolectar datos es necesario para el buen funcionamiento de inteligencias artificiales o algoritmos que luego nos van a prestar algún servicio. Es entonces cuando la privacidad alcanza otro estadio, el de la neutralidad o no de los resultados ofrecidos, como en los casos de Facebook o Google y las frecuentes denuncias de manipulación.

Así, es imposible evitar –al menos en esta internet de hoy- que páginas, herramientas, apps, buscadores entren en nuestra privacidad, no así evitar que tengamos un conocimiento real de cómo se utilizan estos datos. Se puede también clamar por una regulación o una legislación que mire por la seguridad, privacidad e intereses de los usuarios.

Otra alternativa, claro, es estar lo suficientemente formado para saber sortear todos los cauces por los que se filtran nuestro datos a través de plugins, proxys, complementos, conocimientos informáticos o, directamente, haciendo uso de canales alternativos (como ya los hay a Google) o como disidentes de cualquier herramienta o plataforma online al uso. No obstante, en el caso de la necesidad de tener los conocimientos –y la voluntad- necesaria para evitar ser rastreado y vendido, se incide en otros de los problemas/soluciones globales: a más y mejores conocimientos, más niveles de elección y libertad. Pero hasta que todo el mundo pueda o quiera adquirir tales conocimientos, hay que, al menos, llamar la atención sobre el uso que se hace de nuestros datos.

Como es natural, cada persona es libre de que hacer o deshacer, online u offline, pero al menos conviene estar verdaderamente informado de las consecuencias del uso indiscriminado de datos: “La industria de los metadatos y la perfilación, relacionadas con las técnicas de minería de datos (data mining), no tiene nada que ver con el dato en sí si no con el conjunto de las informaciones alrededor del dato: quién, dónde, en relación con qué, en qué estado emocional” (grupo Ippolita).

El lugar común del común usuario al decir “me da igual, no soy un terrorista o no tengo nada que ocultar” cuando se entera de que sus datos son usados por terceros, o incluso de que su Smartphone le espía o que sus emails son leídos por aburridos funcionarios de gobiernos sin escrúpulos, demuestra hasta qué punto ha calado el mensaje de la “sociedad de la transparencia” (transparencia sólo de una parte, la de los usuarios). Seguro que si a esas mismas personas les digo que he abierto su correspondencia, entrado en sus casas o que yo, particularmente, he entrado en sus cuentas o perfiles online para “echar el rato” la respuesta no sería igual de complaciente.

Como se suele decir -porque es cierto-, la tecnología va antes que la legislación, y mucho más rápido. Quizá debería haber una fase de prueba antes de lanzar al mercado productos que van a cambiar nuestros hábitos y van inmiscuirse aún más en nuestra privacidad. Abrazamos esta intrusión con naturalidad, tanto que ha cambiado el comportamiento de las personas hasta llegar a exponerse de manera emocional casi a niveles pornográficos (utilizando la terminología habitual al respecto de Baudrillard y Byung-Chul Han).

Si bien es cierto que este sería otro debate (el de la exposición física y emocional sin pudor ante todo el mundo, literalmente), hay dos cuestiones breves sobre las que llamar la atención. Una en relación a las emociones, que casi parece anecdótica, pero que no lo es: la sugerencia de la policía belga (un pequeño gesto de responsabilidad y de alfabetización) de que no se haga clic en los emoticonos que Facebook ha añadido a los “me gusta”, puesto que pueden dar información aún más detallada sobre el perfil psicológico de los usuarios; la otra, que la gente ha aceptado -sin reflexionar mucho sobre ello ni medir las consecuencias- abrir las puertas de su intimidad.

Como decimos, esto entra dentro de otro debate sobre el análisis del comportamiento actual, del usuario como consumible y proveedor de consumibles, sin más recompensa –si hablamos en los mismos términos mercantiles, que no significa, al menos en mi caso, estar de acuerdo o buscar algo parecido- que un “me gusta” (una necesidad de aprobación que tiene sus consecuencias en algunos adolescentes) o miles o cientos de miles de seguidores.

Todo este positivismo del no pasa nada, toda esta feliz exposición transparente también se traduce en datos. Big Data que no es si no mercancía para las grandes corporaciones: “La posibilidad de una protocolización total de la vida suplanta enteramente la confianza por el control. En lugar del Big Brother aparecen los Big Data”, señala Byung-Chul Han en El enjambre. Que haya gente que renuncie a su privacidad no impide que otros nos preocupemos de cómo se gestionan nuestros datos y queramos la misma transparencia que se nos pide en el entorno red, incluso que leamos los términos y condiciones (webs como Docracy.com lo ponen más fácil).

Se ha hablado ya mucho del asunto a propósito de Google, de Facebook, también de las apps móviles, por tanto poco voy a detenerme ahora en esto. Hay, como he mencionado al comenzar, nuevas tecnologías que también suponen un riesgo para la privacidad. Por ejemplo, la implantación de beacons o tecnologías de reconocimiento facial en tiendas ya ha comenzado a ser tema de debate al respecto. El Future of Privacy Forum ya advierte de algunas necesidades mínimas a propósito del uso de estas herramientas de monitorización y analítica, proponiendo que las empresas que se dediquen a estas actividades se comprometan a cumplir un código de conducta, así como incluir un letrero que alerte sobre el uso de tecnologías de rastreo con las instrucciones debidas para que los usuarios o visitantes tengan la oportunidad de desactivarlas o elegir ser objeto de los diferentes análisis de datos.

Una muestra en una estación de tren de Londres que notifica apasajeros que los están registrando en el vídeo, vía Shutterstock

Hasta que no se establezcan este tipo de derechos o pautas se darán casos abusivos en el uso de tecnologías de reconocimiento facial, mediante las cuales una empresa puede saber el nivel de agrado o frustración de un visitante ante determinado producto. El estado de Illinois ha sido el primero en legislar a favor de los usuarios  ante la precisión y posible mal uso del uso de la biométrica por parte de Facebook. El argumento de aquellos que desarrollan estas tecnologías pero a quienes no les importar la privacidad es, precisamente, afirmar que la “privacidad ha muerto”. Como en el caso de Zuckerberg, los responsables de la, al parecer, increíblemente precisa app FindFace, señalan que ya no va a existir el concepto de anonimato.

Ya no es sólo la información que pueden recopilar estos negocios, es que si sus sistemas informáticos no son lo suficientemente seguros, habrá terceros que los pueden robar. El costo de inversión va más allá de la adopción de la mera tecnología y llega hasta la seguridad de los datos. Sólo en 2015, las ventas de software y equipos de reconocimiento facial fueron de 2.8 mil millones de dólares en todo el mundo, con un pronóstico al alza de entre 6 y 7 mil millones para el año 2020. Demasiadas cámaras inteligentes para no legislar cuanto antes sobre su uso.

El llamado “Internet de las cosas” también conlleva planteamientos éticos en la misma dirección. Mientras hay a quien todo esto le suena a temas irrelevantes, en el Reino Unido 9 de sus más importantes universidades han formado un consorcio de investigación para estudiar la ética del “Internet de las  cosas”: el Grupo Petras (acrónimo de privacidad, ética, confianza, fiabilidad, aceptabilidad y seguridad).

Una legislación internacional al respecto y elementos supervisores van a ser tan necesarios como urgentes. A medida que aumenta la interconexión de objetos y personas, más inversión control e inversión debe haber, pero no después, si no al tiempo en que se está investigando en este tipo de tecnología que, como toda sujeta a internet, puede ser hackeada. Apple, Google, Microsoft serán de nuevo los protagonistas, las mismas que saquen beneficios de la obtención de metadatos provenientes de sus usuarios. Con la experiencia que tenemos hasta el momento no deberíamos esperar más para exigir poner límites al uso indiscriminado de nuestros datos.

La realidad virtual no está exenta de dudas. Ante éstas los responsables de las gafas Oculus han reconocido la necesidad de recoger toda la información de los usuarios (ubicación, movimientos, datos) para su buen funcionamiento. La necesidad de recoger datos, de retroalimentarse como los algoritmos, no puede ir acompañada de manera casi obligada de falta de protección del usuario.

En ocasiones, muchas empresas desarrolladoras sabiendo proteger los datos ya en las fases beta de sus proyectos, no lo hacen porque hasta que se les exija tal protección los beneficios son altos. No hablo de beneficios técnicos, sino monetarios, y sin previo aviso. Las configuraciones de privacidad y avisos de recopilación de datos deberían ser tan importantes e ir en letra tan o más grande que el nombre de la marca que se anuncia en la caja.

Lo cierto es que cada vez hay una mayor concienciación sobre la privacidad (casi el 80% de los europeos piensan que las empresas la respetan poco o nada, aunque la valoramos poco a cambio de algún servicio “gratuito”), pero a medida que nos internamos cada vez más en una actividad digital, surgen, como hemos visto, nuevas tecnologías sobre las que estar en guardia. A menos que alguien libremente quiera renunciar a la conectividad, su vida digital va a estar influenciada en gran medida por los algoritmos. Que un algoritmo nos haga recomendaciones en base a datos no es algo negativo. Lo negativo es que esos algoritmos no estén para prestar un servicio, sino para guiar nuestras decisiones en favor de tal o cual compañía, por ejemplo Facebook.

Office binders private data, vía Shutterstock

No hay trivialidad en llamar la atención sobre el buen o mal uso de los datos con los que se alimentan los algoritmos, aún más cuando entes como el European Data Protection Supervisor, el Parlamento Europeo o el creado más reciente Council for Big Data, Ethics, and Society trabajan por una gestión de datos ética [aquí, aquí y aquí, respectivamente], al margen de su eficacia o independencia. Entiendo que adentrarse en estos temas supone leer textos largos y farragosos, por lo que se puede caer en juicios banales que poco aportan al debate.

Mientras, comisiones antimonopolio, algo más legitimadas, dudan sobre la necesidad de regular la gestión de los algoritmos, como cree Alemania frente a la Comisión Europea. Sin entrar en la eficacia o verdadero interés por proteger nuestra privacidad y no el beneficio de las grandes empresas, al menos se plantean estas cuestiones, para algunos un tema ético tan importante como para ser un derecho más de los Derechos Humanos.

La gestión de los Big Data y los algoritmos en el sector cultural pueden suponer grandes mejoras de servicio para entidades y usuarios. Para bien o para mal, ya estamos inmersos en un océano casi infinito de datos e información que, sin ayuda, difícilmente podremos asimilar. Precisamente para apartar lo banal de intereses de verdadero valor para cada uno. No hay biblioteca, editorial, museo que no se deba sentir concernido por saber cómo se trabaja con los datos, sobre todo si están al cuidado de terceros que son los que controlan, analizan e interpretan felizmente para  su cliente o asociado.

Particularmente, no quiero ser catalogado para que vendan esa información, o peor, para que intenten dirigir mis opiniones o comportamiento en lugar de recomendarme buenas lecturas o exposiciones en función de datos que libremente he aportado para un servicio adquirido de manera voluntaria. Y, aunque sé cómo evitar activamente algunas de esas malas prácticas, tampoco las quiero para los demás. Al menos, para aquellos que también quieran cierta autonomía y el derecho a estar a veces solos online, y no expuestos de manera conjunta en una categoría falsamente homogénea.

Leave a Reply