Columnas - Marta Peirano

Esas tecnologías son letales

  • Por: MARTA PEIRANO
  • 25 MARZO 2025
  • COMPARTIR
Esas tecnologías son letales

Considerar que los sistemas de vigilancia, espionaje y reconocimiento facial no son armas es como decir que el dedo no sabe lo que hace el ojo cuando dispara

Los sistemas de armas autónomas letales o LAWS, que es como se conocen en el contexto jurídico aquellos capaces de seleccionar y atacar objetivos sin intervención humana, nos parecen tan peligrosos que los hemos declarado ilegales en todas partes. Queremos que haya siempre un cerebro humano apretando el gatillo, por lo que pueda pasar. Al mismo tiempo, desde la invasión de Ucrania, la financiación militar para inteligencia artificial (IA) y sistemas letales autónomos se ha disparado en todo el mundo, incluyendo EE UU, China y los países europeos. Los países de la OTAN están financiando investigaciones sobre drones autónomos y sistemas robóticos de combate. De momento, van todos por detrás de aquellos lugares donde los derechos humanos han sido desplazados por las rutinas del muro y de la ocupación.

La primera incidencia registrada de un arma autónoma ilegal fue en la segunda guerra civil libia. Dice un informe del Panel de Expertos sobre Libia del Consejo de Seguridad de la ONU que, en 2020, un dron Kargu-2 del Gobierno de Acuerdo Nacional persiguió y atacó a las fuerzas leales al mariscal de campo libio Jalifa Hafter, cuando estaban en retirada. Era de fabricación turca. La descripción no es ambigua: 

“Los sistemas de armas autónomas letales estaban programados para atacar objetivos sin necesidad de conexión de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar”. En mayo de 2021, Israel lanzó un enjambre de nuevos drones de combate guiados por IA para localizar y disparar sobre objetivos en Gaza.

Los dos sistemas son productos de un mercado en plena burbuja. Unos han sido desarrollados y perfeccionados en los territorios palestinos ocupados, especialmente Gaza y Cisjordania. Otros han sido probados en los bordes entre Turquía e Irán, y probablemente las fronteras que separan Turquía de Europa. En su imprescindible El laboratorio palestino, Antony Loewenstein describe la clase de ecosistema que genera la lógica de la ocupación. Una de las conclusiones naturales que derivan de su investigación es que las tecnologías de vigilancia, programas espía y sistemas de reconocimiento facial sin consentimiento no son diferentes de las armas letales autónomas, sino que son el prólogo imprescindible para su implementación. Discriminar esas tecnologías automáticas de frontera como no armamentizadas es argumentar que el dedo no sabe lo que hace el ojo cuando dispara. Y ofrecen la coartada perfecta para ejecutar un genocidio o justificar técnicas de control de población.

Esas “soluciones” no son “armas”, sino “sistemas avanzados de vigilancia y seguridad”. Productos de empresas como Coresight, que suministra los sistemas de reconocimiento facial que Israel dice usar para buscar a rehenes e identificar a miembros de Hamás. La empresa jura que sólo necesita escanear la mitad del rostro de una persona para una identificación positiva. 

A diferencia de otros sistemas similares en países democráticos, no se ha equivocado nunca. Como Magna BSP, fabricante de los sistemas de monitorización que usa la División de Gaza de las Fuerzas de Defensa de Israel (FDI) en Jerusalén Este y en cárceles. Como Cellerite, especializada en “sistemas de extracción forense”, capaces de acceder y extraer datos de dispositivos móviles, incluso si están bloqueados o encriptados, sin permiso de su legítimo dueño. Como NSO Group, que ayuda a los gobiernos a espiar a terroristas a través de Pegasus. Y tampoco se equivoca nunca.


Continúa leyendo otros autores