IA letal sin regulación: alertan de los ‘robots asesinos’ capaces de matar por su cuenta

Es el 27 de marzo de 2020. Después de más de diez años de guerra civil en Libia, el por entonces primer ministro, Fayez al Sarraj, da inicio a la Operación Tormenta de Paz, con la que espera acabar finalmente con la resistencia en el litoral del país. Y funcionó, los rebeldes acabaron replegando posiciones; y durante el enfrentamiento, de acuerdo con un informe de la ONU, se podría haber recurrido a armamento inteligente capaz de acabar con la vida de una persona sin necesidad de que ningún humano de la orden. Es decir, un ‘killer robot’. Un ‘robot asesino’.

Desde hace años varios países dedican muchos recursos al desarrollo de armas ‘con cerebro’ capaces de tomar decisiones, ya sea en forma de dron, barco, tanque o de munición de merodeo, capaz de esperar a que aparezca un objetivo antes de lanzarse contra este.

«Estos sistemas de armas, una vez activados, usan inteligencia artificial (IA) e información de sensores como cámaras, señales de radar o de calor y otros datos para identificar un objetivo. Tras encontrarlo, disparan o liberan su carga sin necesidad de aprobación ni revisión por parte de un operador humano. Esto significa que es una máquina, y no un humano, quien determina dónde, cuándo y contra qué se usa la fuerza», señala Wareham a ABC.

«Permitir que las máquinas arrebaten vidas humanas en el campo de batalla o a nivel policial traspasa una línea moral y plantea diversas preocupaciones legales, éticas, de seguridad y tecnológicas», remarca la directiva de la ONG.

La conclusión es clara: a juicio de la ONG, el uso de este tipo de armamento puede ir en contra del derecho a la vida, la reunión pacífica, la privacidad y la reparación, así como a los principios de dignidad humana y no discriminación. De este modo, se solicita que los países inicien «lo antes posible» negociaciones para la elaboración de un tratado internacional que lo regule y prohíba.

La directiva apunta que en 2021, dentro del conflicto del Alto Karabaj entre Armenia y Azerbaiyán, también fue empleado armamento de esta clase. En concreto «diversas municiones de merodeo, como el Harop, desarrollado por Israel Aerospace Industries». A pesar de que sigue sin encontrarse solución al problema, desde la ONG se pone en valor los «avances significativos» que se han conseguido en la última década «para concienciar sobre los peligros que plantean los sistemas».

Desde 2014, la Convención sobre Armas Convencionales (CCW) en Ginebra ha servido como foro para el debate sobre ‘robots asesinos’; sin embargo, para la toma de decisiones regulatorias dentro del marco de la convención hacía falta un consenso total entre los países que la conforman. Algo que ha sido imposible. «(En la CCW) un solo país puede rechazar una propuesta, incluso si todos los demás países la aprueban. Un puñado de grandes potencias militares que invierten en sistemas de armas autónomas —en particular, India, Israel, Rusia y Estados Unidos— han aprovechado este proceso para bloquear repetidamente las propuestas de negociación de un instrumento jurídicamente vinculante», dice Wareham.