Urge verificar la legitimidad del uso que hace Meta de datos privados de usuarios para entrenar Inteligencia Artificial

Muchos habréis recibido la notificación con la que Meta anuncia el lanzamiento de un nuevo programa de desarrollo para su inteligencia artificial. En definitiva, Meta utilizará más o menos toda la información depositada a lo largo de los años por sus usuarios para entrenar sus algoritmos. Imagínate: chats personales, expresiones de las que no estás orgulloso o que ya no reconoces como propias, comentarios más o menos ridículos, me gusta en fotos o publicaciones de dudoso gusto. Todo esto servirá para entrenar la IA, que, a su vez, podrá “comunicarse” con terceros.

(En la foto: Stefano Rossetti es abogado de Noyb – Centro Europeo de Derechos Digitales)

Lo que todo esto significa sigue siendo, francamente, un misterio. En teoría se puede oponerse a ello, pero sólo en teoría. Por elección explícita de Meta, ejercer este derecho es de hecho bastante difícil (ver el excelente artículo de Annalisa Godi sobre este tema). En cualquier caso, incluso cuando el usuario tiene éxito, realmente no hay forma de verificar si la solicitud es aceptada en la práctica. La autoridad irlandesa, territorialmente competente para investigar Meta, no se caracteriza por la diligencia con la que ejerce sus funciones de control.

Por estos motivos, noyb ha presentado una serie de denuncias ante diferentes autoridades de protección de datos, subrayando la necesidad de una acción concertada y urgente para verificar la legitimidad de tales operaciones.

En el fondo de todo hay una ambigüedad deliberada e intencionada en cuanto al procesamiento de datos. Cuando todo empezó, hace un par de décadas, nadie podía imaginar que los datos de su cuenta personal pudieran utilizarse para ningún fin. En cambio, al principio fue marketing directo. Luego, la focalización política (¿alguien recuerda a cierta Cambridge Analytica?). Y ahora la inteligencia artificial, con los posibles riesgos que ello conlleva, sobre todo si el entrenamiento del algoritmo se basa en este tipo de información (pensemos en los chats privados).

Un caso práctico. Hace unos días, en un esfuerzo por mejorar mi inglés, le pedí a un asistente de IA que me ayudara a hacer mi expresión más natural. El robot me hizo una pregunta: “¿Qué te gusta?”, Y pensé: “Leer”. Respondí: «Me apasionan los libros, me encanta tenerlos cerca, leerlos, aprender de grandes mentes, mujeres y hombres». Solución de IA: «Me apasionan los libros. Me encanta rodearme de ellos, profundizar en sus páginas y absorber la sabiduría de grandes mentes, tanto hombres como mujeres». Para proporcionar una versión más refinada, la IA invirtió el significado de las dos palabras resaltadas, colocando “hombres” antes de “mujeres”, como siempre ha sido. Lo hizo porque el algoritmo fue entrenado en un conjunto de datos que estadísticamente arrojó esa secuencia. En otras palabras, reiteró la discriminación de género. Y este tipo de dinámica se puede repetir en muchos otros sectores.

Por ejemplo, volviendo a Cambridge Analytica, existe un riesgo claro de que la IA pueda influir en el debate democrático, proponiendo artículos que confirmen un prejuicio en lugar de aportar elementos adicionales, esenciales para formar un cerebro pensante y votante (queremos ser optimistas). ). Todo esto puede alimentar riesgos sistémicos como el discurso de odio, la discriminación de todo tipo y la limitación de la libertad de expresión en línea. Por ejemplo, si una publicación no refleja una posición aceptada y, por tanto, recibe comentarios negativos, la IA podrá tildarla de “ilegítima” y eliminar el contenido y su autor de la plataforma. (No es ciencia ficción. Todo esto sucede y es objeto de una nueva regulación europea, la Ley de Servicios Digitales.) Impugnar la decisión algorítmica es teóricamente posible, al igual que obtener una intervención de revisión humana. Sin embargo, para hacer esto de manera efectiva, sería necesario conocer la lógica de toma de decisiones de la IA. Las plataformas, sin embargo, no están particularmente interesadas en dar estas explicaciones porque exponen su propiedad industrial a riesgos y porque la moderación humana cuesta dinero (a menos que subcontraten la función a países en desarrollo, sin protecciones de la legislación laboral, e incluso esto hemos escuchado antes.) Y aquí entra en juego el papel de las autoridades supervisoras.

El sistema de cooperación previsto por el reglamento europeo de privacidad prevé que la competencia para supervisar este tipo de procesamiento recaiga en las autoridades de protección de datos de los países donde estos gigantes tienen su principal establecimiento. Básicamente, Irlanda y Luxemburgo. Sólo hay un “pequeño” problema. Por alguna razón inescrutable –digamos “inescrutable” para no herir la sensibilidad de nadie– estos países no tienen normas procesales claras para la tramitación de las denuncias, con la consecuencia de que, en la gran mayoría de los casos, no se lleva a cabo ninguna investigación y rara vez algún tipo de intervención. Es decir, el sistema no sirve precisamente para el tratamiento de datos personales para los que debería funcionar mejor.

Al no regular rápidamente las actividades de sus autoridades supervisoras, estos países permiten, de hecho, la creación de verdaderos paraísos de la privacidad. Esto es una violación de las regulaciones europeas. La Comisión Europea podría intervenir con un procedimiento de infracción. Sin embargo, hasta ahora no ha hecho mucho. Quizás las negociaciones para la nueva Comisión puedan tener en cuenta esta situación. Realmente ha llegado el momento de actuar constructivamente. De hecho, ya llegamos muy tarde.

por Stefano Rossetti (Fuente: Mañana)

PREV MENOS DE LA MITAD del precio de este SSD NVMe de 4 TB: ¡QUÉ OFERTA! (-54%)
NEXT Giusi Parolino: medalla de oro en lanzamiento de jabalina y decimoséptimo título de campeón italiano