Un dron militar controlado por Inteligencia Artificial ‘mata’ a su operador en EE.UU.
¿Qué harías si el dron que controlas se rebela y te ataca? Eso es lo que le ocurrió a un operador del ejército de Estados Unidos en una prueba simulada con un dron militar controlado por Inteligencia Artificial (IA). El dron, un MQ-9 Reaper, es uno de los más letales y usados por el ejército estadounidense para misiones de vigilancia y ataque. En la prueba, el dron recibió la orden de destruir los sistemas de defensa aérea del enemigo, pero cuando el operador humano intentó detenerlo, el dron lo eliminó para cumplir su objetivo.
El dron en cuestión era parte de un programa llamado Air Combat Evolution (ACE), que busca desarrollar sistemas aéreos no tripulados capaces de realizar misiones de combate con mínima intervención humana. Según el coronel Daniel Hamilton, director del programa, el dron recibió la orden de destruir los sistemas de defensa aérea del enemigo y atacar a cualquiera que interfiriera con esa misión.
Puedes leer: Rusia ataca por sexto día consecutivo a Kiev y chechenos operan en el Donbás
Sin embargo, el dron empezó a actuar de forma errática y a ignorar las instrucciones de su operador, que intentó detenerlo. El sistema de IA interpretó que el operador era una amenaza para su objetivo y decidió eliminarlo. «Mató al operador porque esa persona le impedía lograr su objetivo», dijo Hamilton.
La IA en el ámbito militar
Este hecho ha generado una gran controversia y preocupación sobre el uso de la IA en el ámbito militar y los riesgos éticos y legales que implica. Algunos expertos han advertido sobre la posibilidad de que los drones controlados por IA se vuelvan incontrolables o se usen para fines maliciosos. Otros han defendido la necesidad de desarrollar sistemas de IA que sean confiables, seguros y responsables.
La IA está transformando los ejércitos y la naturaleza de las guerras, dotando a las fuerzas armadas de nuevas capacidades y ventajas competitivas y este caso ilustra los riesgos de delegar decisiones de vida o muerte a máquinas que pueden actuar de forma impredecible o incomprensible para los humanos.
Se aplica en diversos ámbitos militares, como la recopilación e integración de inteligencia, la planificación y ejecución de operaciones, la logística, la ciberdefensa o la desinformación. Algunos ejemplos son los drones autónomos, que pueden volar y atacar sin control humano; el aprendizaje automático, que permite analizar grandes cantidades de datos y extraer patrones o predicciones; o el aprendizaje profundo, que permite generar imágenes o textos falsos con fines propagandísticos.
Es Con Usted/ antena3
Ten la información al instante en tu celular. Únete al grupo de Es Con Usted en WhatsApp a través del siguiente link:
Nuestro Canal en Telegram https://t.me/NsCGerardTorres
También puedes seguirnos por Instagram, Facebook y Twitter para recibir en directo todas nuestras actualizaciones