EEUU contará con una nueva inteligencia artificial que es capaz de detectar objetivos militares con más precisión que los humanos, aunque las pruebas realizadas son confidenciales
Los drones militares estadounidenses podrían incorporar pronto un nuevo sistema de inteligencia artificial que es “mejor que los humanos identificando objetivos”. Esta IA puede distinguir entre uniformes, armas e incluso, interpretar señales de rendición en los enemigos con más precisión que un operador. Así lo afirma Athena AI, empresa australiana y creadora de la tecnología.
Según la compañía, el sistema está pensado para ayudar a los operadores humanos de drones y evitar que puedan desconcentrarse tras varias horas mirando la señal de vídeo. “La IA hará gran parte del trabajo pesado por ellos”, asegura Stephen Bornstein, director de Athena AI, comenta en declaraciones para la revista New Scientist.
Este nuevo sistema tiene la capacidad de buscar, identificar y geolocalizar objetos sobre el terreno, así como comprobar si un objeto se encuentra en una zona de no impacto y calcular el riesgo de los daños colaterales. La inteligencia artificial también rastrea vehículos militares y ayuda a determinar si una persona se parece a un soldado enemigo.
No es la primera vez que el ejército de los EEUU integra la IA en sus armas de combate, a principios de este año anunciaron su uso en el control de un caza F-16. El debate sobre las implicaciones éticas de la tecnología autónoma en armas de guerra es un tema abierto y polémico. Y aunque Athena AI asegura que su sistema cumple con las normas humanitarias del Convenio de Ginebra, no conocemos los resultados de las pruebas ni los riesgos de su uso ya que se mantienen en secreto.
La compañía australiana trabaja con Red Cat, la principal empresa estadounidense de drones, especializada en tecnología militar. En mayo de este año anunciaron el envío de 200 drones a Ucrania, entre los que se encuentra el Teal 2, un sistema de largo alcance nocturno dotado con tecnología de Athenea AI. Según New Scientist, ahora todos estos drones podrían actualizarse con el nuevo sistema de inteligencia artificial.
La IA también puede ser engañada
Cuando otras inteligencias artificiales —de las que se afirmaba que tenían una capacidad superior a la del ser humano— se evaluaron a fondo, resultaron ser deficientes, apunta Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California. El experto expresa su preocupación ante la falta de transparencia en las pruebas realizadas y señala que los sistemas de reconocimiento de IA también pueden ser engañados.
Lo mismo opina Josh Lospinoso, director de Shift5 y experto en ciberseguridad, en una reciente entrevista para Associated Press en la que discute los problemas asociados a la prisa en la implementación de productos de IA, sobre todo en la toma de decisiones militares: “Aunque detener la investigación de IA sería perjudicial para la seguridad nacional, el rápido desarrollo podría llevar a la creación de productos inseguros y propensos a fallos”, opina.
Ya ha habido graves incidentes con drones dotados de IA. Hace un mes, durante un ejercicio de combate simulado, un dron militar autónomo con inteligencia artificial tomó la decisión de «matar» a su operador, ya que consideraba que este estaba obstaculizando su objetivo principal de destruir a sus enemigos. Afortunadamente, el operador no sufrió ningún daño ya que todo era parte de una prueba en un simulador. Pero este hecho, revelado en la cumbre de 2023 sobre el futuro del combate aéreo (FCAS), provocó un intenso debate sobre las consecuencias éticas de la IA en operaciones militares.