“Es más peligroso tener a Alexa encima de la mesa que a un señor observándote cada día en el salón”
La abogada Paloma Llaneza explica que borrar ‘apps’ como Facebook y WhatsApp es la única forma de evitar que recopilen nuestros datos.
ISABEL RUBIO
4 MAR 2019 - 17:18 CET
https://elpais.com/tecnologia/2019/02/21/actualidad/1550768323_045000.html
Paloma Llaneza (Madrid, 1965) fue una de las primeras usuarias de Facebook. Pero esta abogada experta en protección de datos, al ver cómo funcionaba la red social y la información suya que recopilaba, borró su cuenta. El día que la compañía de Zuckerberg compró WhatsApp también desinstaló de su teléfono este servicio de mensajería instantánea. Y envió un mensaje a todos sus contactos: “Facebook ha comprado WhatsApp y lo ha comprado por los usuarios, lo ha comprado por vuestros datos. Yo me voy”.
“Los datos son valiosos porque dicen muchísimo de nosotros y somos votantes potenciales, compradores potenciales y peticionarios de servicios de transporte, salud, educación y crédito potenciales. El mundo gira alrededor de nuestras necesidades. Cuanto mejor te conozca a ti, mejor seré capaz de venderte lo que creo que necesitas, aunque tú no creas necesitarlo aún, y de negarte lo que pides”, explica en una entrevista a EL PAÍS. Llaneza, que también es auditora de sistemas y consultora en ciberseguridad, acaba de publicar Datanomics, un libro en el que explica qué hacen las empresas tecnológicas con nuestros datos personales.
El coste de tener instaladas aplicaciones como Facebook, Whatsapp o Instagram “es muy alto”: “El día que WhatsApp hable de todo lo que le hablamos se acaba el mundo”. Los gigantes tecnológicos llegan a conocer al usuario mejor que unos padres, una pareja o incluso uno mismo. “Lo que más nos dice de un ser humano es aquello que oculta de sí mismo: su parte emocional. Las redes sociales permiten saber cuál es tu estado de ánimo en tiempo real, si estás sufriendo de amores o buscando medicación para los nervios, si tienes depresión, si abusas demasiado del alcohol, si sales mucho o si la música que escuchas indica una tendencia al suicidio o una melancolía transitoria que forma parte de tu carácter”, asegura la abogada.
Facebook analizó datos de más de seis millones de adolescentes australianos y neozelandeses para determinar su estado de ánimo y facilitar a los anunciantes información sobre los momentos en los que se sentían más vulnerables, según un documento de la compañía en Australia filtrado en 2017 por el periódico The Australian. Al saber cómo es una persona y cómo siente en cada instante, las empresas pueden venderle en el momento oportuno “cualquier cosa que emocionalmente necesite”: “Una idea, un pensamiento, un partido político, un modo de vida o incluso un sentimiento de superioridad nacional”. “Esto que es preocupante ha funcionado muy bien en el Brexit, en las elecciones de Trump y en alguna elección reciente en España”, afirma Llaneza.
Cómo evitar la recopilación de nuestros datos
Para evitar que las compañías tecnológicas recopilen datos sobre nosotros, Llaneza afirma que la única solución es borrar este tipo de aplicaciones: “No hay un consejo intermedio, da igual compartir más o menos publicaciones”. “La parametrización de privacidad que hace Facebook está pensada para terceros, pero Facebook lo ve todo y guarda hasta tus arrepentimientos, incluso ese correo que ibas a mandar poniendo a caer de un burro a alguien y que luego decidiste no hacerlo. Porque un arrepentimiento dice de ti mucho más que lo que mandas”, explica. Hacer un uso menos intensivo de estas aplicaciones no serviría, según Llaneza, ya que “tienen un montón de permisos para acceder a tu teléfono móvil”: “Incluso por cómo mueves el teléfono y tecleas, tienen una huella biométrica tuya que te identifica con un alto grado de probabilidad”.
Los dispositivos y las aplicaciones están pensados para ser “usables, molones y altamente adictivos”. El problema es que la percepción del riesgo entre los usuarios “es muy baja”: “Nadie es consciente de la cantidad brutal de información que da a un móvil incluso sin tocarlo”. “Tener un móvil o a Alexa encima de la mesa de tu casa te parece lo más normal y, sin embargo, no tendrías un señor sentado en el salón de tu casa todos los días observando cómo hablas o viendo como meriendas. Es mucho más peligroso tener a Alexa encima de la mesa que a ese señor, que tiene una memoria humana y se le va a olvidar la mitad de lo que oiga”, concluye Llaneza.
CÓMO SACAN LAS COMPAÑÍAS RENTABILIDAD A LOS DATOS
Las compañías sacan rentabilidad a los datos de sus usuarios “a base de vender la publicidad targetizada y de generar otros negocios alrededor de esa información”. Mientras que en Europa hay una regulación “más o menos estricta”, en EE UU “el hecho de que te caiga una pena más o menos grave, tengas acceso a distintas universidades o te denieguen un crédito, un seguro o un servicio médico dependerá de los datos tratados sobre ti”. ¿Por qué a pesar de no haber impagado nunca una deuda, te pueden denegar un crédito? “Porque los nuevos sistemas son predictivos y no analizan el pasado, sino que leen el futuro”, afirma Llaneza. Si un modelo predice por ejemplo que alguien tiene una alta probabilididad de divorciarse y su capacidad económica bajará, es posible que no se le conceda una hipoteca.
El uso de estos sistemas conlleva un riesgo, ya que los datos con los que los algoritmos son entrenados están condicionados por nuestros conocimientos y prejuicios. Además, las máquinas terminan siendo en ocasiones una caja negra que hace imposible entender qué camino ha seguido el modelo para llegar a una determinada conclusión: “Una de las grandes cuestiones que tenemos delante es la transparencia algorítmica. Usted ha tomado una decisión: ¿Por qué y cómo?”. “La propiedad de datos ya está regulada. Lo que ahora debemos regular es el control sobre el resultado del tratamiento sobre esos datos”, afirma la abogada.
No hay comentarios:
Publicar un comentario