20 de enero de 2022

La última amenaza: armas que deciden matar solas

Ya se han usado algunos prototipos en conflictos, como es el caso del dron Kargu-2 utilizado por Azerbaiyán contra Armenia
Terminator ya no es sólo una película. Los robots asesinos ya están aquí. Son denominados como Sistemas de Armas Autónomas Letales (SAAL) o LAWS por sus siglas en inglés. Son aparatos que deciden entre la vida y la muerte con poca o ninguna intervención de personas. Los avances en Inteligencia Artificial (IA), robótica e identificación de imágenes han facilitado su existencia. Mientras las armas atómicas requieren ingredientes difíciles de obtener, las armas autónomas están al alcance de muchos, actores estatales o no, democratizan la carrera armamentística.
Ya se han usado algunos prototipos en conflictos, como es el caso del dron Kargu-2, fabricado por la empresa turca STM, utilizado por Azerbaiyán contra Armenia en la guerra del Alto Karabaj. En Libia, tropas gubernamentales usaron ese dron para rastrear y atacar a las fuerzas del general Hafter. También tenemos el robot de Samsung SGR-A1 que vigila la frontera entre las dos Coreas y tiene capacidad de disparar sobre un blanco a tres kilómetros de distancia. Rusia, por su lado, desarrolló el carro de combate Armata T-14 que puede operarse a distancia o convertirse en un arma autónoma. EE.UU. investiga un navío para sustituir a los clásicos destructores y trabaja en el proyecto Atlas (Advanced Targeting and Lethality Automated System), para dotar de IA a sus carros de combate y reducir a la tercera parte el tiempo necesario para identificar y disparar sobre sus objetivos. Los países que más han invertido en IA para misiones militares son: Estados Unidos, China, Rusia, Reino Unido, Francia, Israel y Corea del Sur.
El Debate

El DebateKindelan

El Debate

El DebateKindelan

El Pentágono estadounidense invierte en inteligencia artificial, a través de contratistas de defensa, como Lockheed Martin, Boeing, Raytheon y Northrop Grumman y también compañías civiles como Google, Microsoft y Amazon para el desarrollo de sistemas de IA. Existen proyectos para misiles que detectan objetivos en movimiento basándose en la radiofrecuencia, minidrones enjambre que identifican y eliminan blancos, etc.

Toma de decisiones

Por ahora, hay tres sistemas de Inteligencia Artificial en esas armas. Cuando una persona las controla se conocen como HITL: Human in the loop; los drones actuales operados por humanos quienes seleccionan los objeticos y deciden su destrucción. Cuando un humano las supervisa son llamadas HOTL: Human on the loop, como el sistema de combate AEGIS. Finalmente, cuando es la máquina quien toma las decisiones sin necesidad de refrendo de una persona, se llaman HOOTL: Human out of the loop, como el dron Mini-Harpy israelí, munición merodeadora. Son este tercer tipo el que presenta consideraciones éticas dado que por sí solas seleccionan el objetivo y deciden destruirlo basándose en su Big Data. ¿Cómo valora una máquina los daños colaterales aceptables para destruir un blanco?

Críticas

La Comisión Europea dedicó un libro blanco a la Inteligencia Artificial, publicado el 19 de febrero de 2020, donde ya se mencionan las armas autónomas. Unas 125 naciones miembros de la Convención sobre Ciertas Armas Convencionales pidieron restricciones para los robots asesinos. Sin embargo, encontraron la oposición de quienes están desarrollando estas armas. El tema no es de ahora. Desde 2014, la Convención de las Naciones Unidas sobre Armas enfoca la creación de una legislación sobre las LAWS: 30 naciones y 165 organizaciones no gubernamentales quieren su prohibición, al menos del tipo HOOTL.
Peter Maurer, presidente del Comité Internacional de la Cruz Roja, señaló la importancia de la ética en el uso de armas autónomas letales sin la participación de personas. La organización Human Rights Watch y la Escuela de Derecho de Harvard solicitaron un pacto vinculante que requiere siempre el control humano. Noel Sharkey, presidente del Comité Internacional para el Control de las Armas Robóticas, declaró que era preferible un nuevo tratado a más debates en convenciones.
La principal crítica a esos sistemas de armamentos es dejar en manos de máquinas la decisión de vida o muerte, además de los errores que puedan cometer en la identificación de blancos legítimos. Maaike Verbruggen, experta en tecnología militar del Centro de Seguridad, Diplomacia y Estrategia de Bruselas, teme la difícil regulación de los usos de la inteligencia artificial. Franz-Stefan Gady, investigador del Instituto Internacional de Estudios Estratégicos, negó que los jefes militares confíen en las LAWS por miedo a los errores.
En 2018, Google renunció a un contrato con el Ejército de EE.UU., el Proyecto Maven, tras la protesta de miles de empleados contra la participación de esa empresa en un programa de inteligencia artificial para selección de blancos de los drones. La compañía también creó nuevos límites éticos que prohíben el uso de su tecnología para armas y vigilancia.
Moscú exige que las limitaciones sean unánimes, mientras Washington defiende que las leyes internacionales de hoy son suficientes por ahora.

Ventajas

Hay quienes defienden que las armas autónomas reducen las bajas de soldados humanos. En las democracias la pérdida de vidas reduce el respaldo ciudadano a las operaciones militares. Otros, como el ministro neozelandés Phil Twyford, arguyen que esas armas «podrían reducir el umbral de la guerra al sacar a los humanos de la cadena de muerte», con lo que los soldados estarían fuera de peligro, asumiendo, además, que las LAWS aceleran la toma de decisiones y reducen el error en las mismas.
El «Manual de defensa: política de EU sobre autonomía letal», un informe del Congreso estadounidense, de noviembre del año pasado, define a las Armas Autónomas Letales como «una especial clase de sistemas de armas que utilizan sensores y algoritmos informáticos para identificar de forma autónoma un blanco y emplear un sistema de armas para atacar y destruir ese objetivo sin control humano del sistema». El documento manifiesta que, en breve, facilitará operaciones militares en donde «sistemas tradicionales no pueden operar».
El exdirector de software de la Fuerza Aérea de EE.UU., Nicolas Chaillan, declaró a The Financial Times que dimitió por la timidez del progreso tecnológico dentro del ejército estadounidense, en particular en el uso de la IA por consideraciones éticas, mientras otros países, como China, apuestan por él. De hecho, los chinos usan la IA hasta para identificar a los ciudadanos que trasgreden las normas, incluso por saltarse un semáforo en rojo, tomando represalias reduciendo ayudas sociales, laborales y educativas a los infractores. Pero esa es otra historia, la de la privacidad y la IA.
tracking