• Un grupo de militares del ejército de Israel supervisa a través de una cámara los movimientos de los palestinos. (Foto: AFP)
Publicada: jueves, 6 de marzo de 2025 18:08

The Guardian revela que el ejército israelí está creando una herramienta de inteligencia artificial con datos de vigilancia altamente sensibles de palestinos.

El informe del medio británico ha agregado en su investigación que el nuevo modelo de IA, similar a ChatGPT, está diseñado para analizar las comunicaciones interceptadas.

The Guardian ha indicado que la agencia de vigilancia militar de Israel “ha utilizado una vasta colección de comunicaciones palestinas interceptadas para construir una poderosa herramienta de inteligencia artificial, similar a ChatGPT, que espera transforme sus capacidades de espionaje”.

El informe precisa que esta herramienta es capaz de responder preguntas sobre las personas que monitorea, y proporcionar información sobre las enormes cantidades de datos de vigilancia que recopila, subrayando que “confiar en herramientas para analizar información de inteligencia implica riesgos debido a la posibilidad de cometer errores”.

La investigación ilustra que “la Unidad 8200 entrenó el modelo de IA para comprender el árabe hablado utilizando grandes volúmenes de conversaciones telefónicas y mensajes de texto, obtenidos a través de su extensa vigilancia de los territorios ocupados”.

 

Una fuente familiarizada con el tema ha revelado que la herramienta también busca rastrear a activistas de derechos humanos y monitorear la cotidianidad de los palestinos en la Cisjordania ocupada.

Sin embargo, el proyecto ha suscitado inquietudes entre expertos en derechos humanos y vigilancia, que han advertido que incorporar IA al análisis de inteligencia podría aumentar la probabilidad de sesgos y errores, y puede ser difícil entender cómo se toman las decisiones que resultan de estos sistemas, según The Guardian.

En tal sentido, Zach Campbell, investigador principal de vigilancia de la organización Human Rights Watch (HRW), ha avisado que el uso de material de vigilancia para entrenar un modelo de inteligencia artificial era “invasivo e incompatible con los derechos humanos”, y que, como entidad ocupante, Israel está obligado a proteger los derechos de privacidad de los palestinos.

Campbell ha dicho que la herramienta “es una máquina de adivinar”, y “en última instancia, esas suposiciones pueden terminar utilizándose para incriminar a la gente”. “Estamos hablando de datos altamente sensibles tomados de personas que no son sospechosas de ningún delito y que se utilizan para entrenar una herramienta que luego podría ayudar a establecer sospechas”, agrega la ONG citada en el informe de The Guardian.

Por su parte Nadim Nashif, director de un grupo palestino de defensa y derechos digitales, ha precisado que los palestinos se han “convertido en sujetos del laboratorio de Israel para desarrollar estas técnicas y convertir la IA en arma, todo con el propósito de mantener [un] régimen de apartheid y ocupación donde estas tecnologías se utilizan para dominar a un pueblo, para controlar sus vidas”.

gec/ctl/tmv