Israel registra masivamente a palestinos con reconocimiento facial de IA

Israel registra masivamente a palestinos con reconocimiento facial de IA
Descriptive text here

La tecnología de reconocimiento facial puede ser una herramienta poderosa para garantizar la seguridad, pero también un arma peligrosa si se utiliza de forma opaca y discriminatoria. Esto lo demuestra lo que ocurrió en la Franja de Gaza, donde Israel implementó discretamente un vasto programa de vigilancia biométrica sobre los palestinos tras los atroces y bárbaros ataques del 7 de octubre. Aprovechando los algoritmos de Fotos de Google y el inicio Corsightel ejército israelí ha perfilado a miles de personas sin su consentimiento, en lo que parece ser un caso inquietante de elaboración de perfiles étnicos mediante alta tecnología.

Gran Hermano en Gaza

La historia, publicada por el New York Times, tiene los contornos de un thriller distópico. Después de los ataques del 7 de octubre, la Unidad 8200 del ejército israelí (la principal unidad de inteligencia) comenzó a identificar posibles sospechosos analizando imágenes de cámaras de vigilancia y vídeos que Hamás había publicado en las redes sociales. Al mismo tiempo, los soldados interrogaron a prisioneros palestinos para identificar a personas de sus comunidades afiliadas a Hamás.

Con este material, la startup Corsight (que cuenta con sistemas capaces de reconocer rostros incluso cuando menos del 50% de ellos son visibles) ha creado una herramienta de reconocimiento facial ad hoc para los oficiales israelíes que trabajan en Gaza. Para enriquecer aún más la base de datos y encontrar otros objetivos, el ejército instaló puestos de control equipados con cámaras biométricas a lo largo de las principales carreteras utilizadas por los palestinos para huir hacia el sur. El objetivo, reveló un funcionario al Times, era crear una “lista de objetivos” de los participantes en los ataques del 7 de octubre. En la práctica, un expediente de los “sospechosos habituales” basado en algoritmos y perfiles étnicos. Una persecución de alta tecnología, llevada a cabo sin el conocimiento y consentimiento de los involucrados. Una pesadilla orwelliana hecha realidad.

Israel, errores y abusos

La tecnología, como sabemos, no es infalible. Especialmente cuando se basa en imágenes granuladas o rostros parcialmente cubiertos. Esta es también la razón por la que Europa adopta una actitud cautelosa con respecto al reconocimiento facial. Los propios soldados israelíes admitieron al Times que el sistema de Corsight no siempre era exacto. En ocasiones identificó falsamente a personas como afiliadas a Hamás. Este es el caso del poeta palestino Mosab Abu Toha, recogido en un puesto de control israelí cuando intentaba salir de Gaza hacia Egipto con su familia a mediados de noviembre. La IA lo había reportado como buscado. Resultado: dos días de detención, palizas e interrogatorios, antes de ser enviado de regreso a Gaza. Sin siquiera explicaciones.

Un destino que podría haber corrido quién sabe cuántas otras personas inocentes, etiquetadas como terroristas potenciales sólo por su origen étnico o el lugar donde viven. Un riesgo inherente a los sistemas de reconocimiento facial, que puede amplificar los prejuicios humanos si no se utilizan con precaución y transparencia.

reconocimiento facial israelí

Google, la oreja grande

Pero no es sólo Corsight quien está detrás de este programa de vigilancia. Los soldados revelaron al Times que el ejército israelí ha integrado la tecnología de la empresa con otra herramienta más accesible y quizás incluso más poderosa: Fotos de Google. Los agentes de inteligencia cargaron bases de datos de “personas conocidas” en los servidores de Big G y utilizaron la función de búsqueda de imágenes para identificar sospechosos adicionales. Google Fotos, observó un soldado, es capaz de reconocer rostros incluso desde detalles mínimos, superando a otras aplicaciones, incluida Corsight.

En resumen, el gigante de Mountain View, quizás sin saberlo, se ha convertido en un engranaje clave en la maquinaria de control de Israel sobre Gaza. Un gran oído capaz de mapear y espiar a toda una población, vulnerando su privacidad y sus derechos en nombre de la seguridad nacional. Un uso controvertido y opaco de la IA, que en Gaza se combina con el uso de otras tecnologías avanzadas como robots y drones, y plantea dudas sobre las responsabilidades éticas de las grandes tecnologías.

No sólo Israel: la cara oscura de la vigilancia

Lamentablemente, el caso de Gaza no es un caso aislado. Corsight, fundada en 2019 con una inversión de 5 millones de dólares del fondo canadiense Awz Ventures, se especializa en el suministro de soluciones de reconocimiento facial. Para muchas realidades: gobiernos, fuerzas del orden y ejércitos. En 2020apenas un año después de su creación, la empresa se jactaba de poder identificar rostros enmascarados. Dos años después, en 2023, anunció que estaba desarrollando una herramienta capaz de reconstruir los rasgos de una persona a partir de su ADN (hablamos de ello aquí). En 2023colaboró ​​​​con la policía de Bogotá para localizar a sospechosos de asesinato y robo en el transporte público.

Un negocio en crecimiento, alimentado por la retórica del miedo y el hambre de seguridad, pero no exento de zonas grises. Basta pensar en las declaraciones de Aarón Ashkenazi, socio director de Awz Ventures, quien escribió en un editorial en octubre pasado en el Jerusalem Post que su fondo estaba proporcionando a Israel “las herramientas tecnológicas para detener en seco a estos malvados terroristas”. Es fácil imaginar cuáles son estas herramientas.

Del lado del Gran Hermano

En términos más generales, la de Corsight y otras empresas similares parece ser una misión al servicio del Gran Hermano global. Un esfuerzo por hacer que cada rostro sea rastreable, catalogable y vigilable, en un mundo donde el anonimato es un lujo que ya no podemos permitirnos y la privacidad es una opción que debe sacrificarse en el altar de la defensa.

No sorprende entonces que en los últimos meses algunos hospitales de Israel también hayan comenzado a utilizar los algoritmos de Corsight para identificar pacientes desfigurados, como informa Forbes. Una aplicación aparentemente humanitaria, pero que abre el camino a usos más cuestionables de esta tecnología invasiva. El riesgo, como lo demuestran los acontecimientos en Gaza, es que los sistemas de reconocimiento facial se conviertan en instrumentos de opresión y discriminación en las manos equivocadas. Que transformen el derecho a la seguridad en una excusa para violar otros derechos fundamentales, empezando por el derecho al anonimato o a un juicio justo. Seamos claros: no se trata de demonizar el reconocimiento facial en sí, que puede tener aplicaciones positivas en diversos campos, desde la atención sanitaria hasta la seguridad. Sino regular su uso de forma clara y democrática, poniendo límites a sus potenciales distorsiones y abusos.

Eso reduce a las personas a píxeles y porcentajes, etiquetándolas según el color de la piel, los rasgos faciales o el origen social. Una pesadilla que ciertamente pone en duda la responsabilidad de quienes desarrollan y venden estas tecnologías, pero ciertamente también de quienes las compran y utilizan.

PREV Noticias de Reggio, domingo 21 de abril de 2024 Reggionline – Telereggio – Últimas noticias Reggio Emilia |
NEXT emisión de pasaportes, nueva “Agenda Prioritaria” para trámites más urgentes – Inside Salerno