El peligro es real: un dron ha atacado a personas de forma totalmente autónoma por primera vez, según un informe de Naciones Unidas

Enrique Pérez

Editor especializado en tecnología de consumo y sociedad de la información. Estudié física, pero desde hace más de diez años me dedico a escribir sobre tecnología, imagen y sonido, economía digital, legislación y protección de datos. Interesado en aquellos proyectos que buscan mejorar la sociedad y democratizar el acceso a la tecnología.LinkedIn

El peligro de los drones autónomos es real. Según uninforme del Consejo de Seguridad de las Naciones Unidas, el año pasado por primera vez un dron militar pudo haber atacado de forma autónoma a humanos en Libia. No han trascendido detalles de la operación ni si hubo víctimas, peroconfirma que estas armas autónomas letales ya se están utilizandoen el campo de batalla pese a losesfuerzos internacionales por prohibirlas.

Undron STM Kargu-2 de fabricación turcahabría sido utilizado para “perseguir y comprometer remotamente” a los soldados en retirada, según describe el informe. El uso de estos drones en el conflicto de Libia puede abrir un nuevo capítulo para las armas autónomas. Unas herramientas programadas para que la IA decida por si sola eliminar a sus objetivos, incluidos los humanos.

Así son los Kargu-2, drones autónomos preparados para matar

En junio de 2020, el ejército turco compraba cerca de 500 drones Kargu aDefense Technologies Engineering and Trade Inc, más conocida como STM, una empresa turca armamentística. La primera generación de estos drones se presentó en 2017 y en2019se mostró la variante Kargu-2, capaz de llevar a cabo ataques en modo enjambre y operar de manera autónoma.

Kargu puede traducirse en turco como “halcón”. La compañía explica que estándiseñados para la “guerra asimétrica y la lucha antiterrorista”. Con un peso de unos 7 kg, el dron puede permanecer en el aire al menos durante 30 minutos y volar a una velocidad de unos 145 km/h. Números mejorados en la segunda generación.

El informe del Consejo de Seguridad de las Naciones Unidas describe el suceso de la siguiente manera:

“Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de “disparar, olvidar y encontrar”. Los vehículos aéreos de combate no tripulados y la pequeña capacidad de inteligencia, vigilancia y reconocimiento de drones con que cuentan las fuerzas afiliadas a Haftar fueron neutralizados mediante interferencia electrónica gracias al sistema de guerra electrónica Koral”.

Las pruebas encontradas por las Naciones Unidas indican quelos STM Kargu-2 utilizaron munición y están operativos en Libia. Se trata de la primera vez que detectan su uso y su despliegue supone un incumplimiento delpárrafo 9 de la resolución 1970 (2011).

Los drones de la serie Kargu pueden ser operados manualmente, pero también están preparados para operar autónomamente gracias al uso de sensores que vandesde cámaras de video electroópticas e infrarrojas a un sistema de imágenes láser (LIDAR).

A través del programa KERKES, la empresa STM preparó a sus drones para podercoordinarse de manera autónoma en enjambrey moverse siguiendo el GPS. Junto a otros 20 drones, los Kargu-2 están programados con una IA capaz de seleccionar y atacar objetivos.

Por el momento no se ha informado de ninguna víctima de una de estas armas autónomas (sería la primera), pero en los vídeos demostrativos de STMse muestra como estos drones atacan a un grupo de maniquíes.

Cómo decide un dron autónomo a quién atacar

Las minas antipersona pueden configurarse para adaptar la sensibilidad y únicamente detonarse con adultos. Con los drones autónomos todavía hay mucho debate sobre qué parámetros concretos determinan cuándo atacan.

El aprendizaje automático de estos drones está programado con un gran conjunto de datos y permite diferenciar objetos. También vehículos como tanques, autobuses o furgonetas. Se presupone que los distintos ejércitos pueden entrenar a la IA del dron para que se focalice en las particularidades del enemigo, dándoleacceso a bases de datos con imágenes e información de quienes desean abatir.

Sin embargo, de la misma manera que hemos visto comolos algoritmos tienen muchos sesgosy no están exentos de fallos, estos drones autónomos también pueden equivocarse, con consecuencias fatales.

Expertos y organismos piden prohibir estas armas autónomas antes que sea demasiado tarde

Desde la Unión Europea hanadvertidocontra estos robots asesinos. También Estados Unidos y Rusia son conscientes de las implicaciones de estas LAWs (‘Lethal Autonomous Weapons’). Sin embargo,tanto una como otra potencia, apoyados principalmente por Corea del Sur, Israel y Australia,han bloqueado la negociación para prohibirlas.

Las Naciones Unidas tienen desde finales de 2013 la intención de prohibirlas, pero no han habido grandes avances. Durante este tiempo, personalidades comoBrad Smith, presidente de Microsoft,Elon Musk, CEO de Tesla y DeepMind y hasta un total de 116 expertos de 26 países hansolicitadoque se prohíba el desarrollo y el uso de robots asesinos autónomos. Porque"una vez que se abra esta caja de Pandora, será difícil cerrarla".

En Xataka |China avisa: el peligro de una guerra accidental por culpa de “las armas inteligentes” es real y creciente