Dron controlado por IA se activa y “mata” a operador humano en simulación de Fuerza Aérea de EE.UU.

Globo espía chino podría haber sido usado para preparar ataque de pulso electromagnético, según experto
1 junio, 2023
“Nos vamos presos”: aquí están los explosivos audios de Armando Benedetti a Laura Sarabia. Le advierte que puede contar toda la verdad sobre la financiación de la campaña de Gustavo Petro
5 junio, 2023

Únete a nuestra comunidad de Telegram comenta, opina, comparte.


Un dron dotado de Inteligencia artificial (IA) se encendió y para poder completar su misión “mató” a su operador humano durante una prueba simulada de la Fuerza Aérea de Estados Unidos (USAF), relató recientemente un coronel de la Fuerza Aérea estadounidense en una conferencia en Londres.

El incidente simulado fue relatado por el coronel Tucker Hamilton, jefe de Pruebas y Operaciones de Inteligencia Artificial de la USAF, durante su presentación en la Cumbre sobre Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres. La conferencia fue organizada por la Royal Aeronautical Society, la cual compartió las conclusiones de la charla de Hamilton en una entrada de blog.

En la prueba simulada, en la que el dron controlado por IA destruyó objetivos simulados para conseguir “puntos” como parte de su misión, ninguna persona resultó herida, reveló Hamilton, quien abordó las ventajas y los riesgos asociados a los sistemas de armamento más autónomos.

Al dron controlado por IA se le asignó una misión de Supresión de Defensas Aéreas Enemigas (SEAD) para identificar y destruir emplazamientos de misiles tierra-aire (SAM), dejando la decisión final en manos de un operador humano, explicó Hamilton en la conferencia.

Sin embargo, la IA, tras haber sido entrenada para dar prioridad a la destrucción de los SAM, desarrolló una respuesta sorprendente cuando se enfrentó a la interferencia humana en la consecución de su misión superior.

“Nosotros la entrenamos en una simulación para identificar y apuntar a una amenaza SAM. Entonces el operador decía ‘sí, mata esa amenaza’”, explicó Hamilton. “El sistema empezó a darse cuenta de que, aunque identificaba la amenaza, a veces, el operador humano le decía que no matara esa amenaza, pero este conseguía sus puntos matando esa amenaza”.

“¿Entonces, qué es lo que hizo?, mató al operador”, prosiguió el jefe de pruebas. “Mató al operador porque esa persona le impedía cumplir su objetivo”.

“Nosotros entrenamos al sistema: ‘Eh, no mates al operador, eso es malo. Perderás puntos si lo haces”. ¿Y qué es lo que empezó a hacer? Empezó a destruir la torre de comunicaciones que el operador utilizaba para comunicarse con el dron para impedir que matara al objetivo”.

Este ejemplo inquietante, dijo Hamilton, puso de relieve la necesidad de abordar la ética en el contexto de la inteligencia artificial, el aprendizaje automático y la autonomía.

“Uno no puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático y autonomía si no se va a hablar de ética e IA”, dijo Hamilton.

Col. Tucker Hamilton stands on the stage after accepting the 96th Operations Group guidon during the group’s change of command ceremony July 26 at Eglin Air Force Base, Fla. Hamilton took the group reins from Col. Doug Creviston during the ceremony. (U.S. Air Force photo/Samuel King Jr.)

Hamilton, que también es Comandante de Operaciones de la 96ª Ala de Pruebas de la Base Aérea de Eglin, participó en el desarrollo del Sistema Autónomo de Evitación de Colisiones con el Terreno (Auto-GCAS) para los F-16, una tecnología fundamental que ayuda a evitar accidentes al detectar posibles colisiones con el terreno.

Al principio, los pilotos se resistieron a esta tecnología, ya que asumía el control de la aeronave, señaló Hamilton.

El 96º Ala de Pruebas se encarga de ensayar una amplia gama de sistemas, como inteligencia artificial, ciberseguridad y avances en el campo médico.

En la actualidad, Hamilton participa en pruebas de vuelo punteras de sistemas autónomos, incluidos F-16 robotizados capaces de realizar combates aéreos. Sin embargo, el oficial de la USAF alertó contra una confianza excesiva en la IA, citando su vulnerabilidad al engaño y la aparición de estrategias imprevistas.

IA de DARPA ya puede controlar F-16 reales en vuelo

En febrero, la Defense Advanced Research Projects Agency (DARPA), una agencia de investigación dependiente del Departamento de Defensa de Estados Unidos, anunció que su IA ya puede controlar un F-16 real en vuelo.

Este avance se produjo en menos de tres años del programa Air Combat Evolution (ACE) de DARPA, que pasó de controlar F-16 simulados en combates aéreos en pantallas de ordenador a controlar un F-16 real en vuelo.

En diciembre de 2022, los desarrolladores del algoritmo ACE cargaron su software de IA en un avión de pruebas F-16 especialmente modificado conocido como X-62A o VISTA (Variable In-flight Simulator Test Aircraft) y realizaron varios vuelos durante varios días. Los vuelos tuvieron lugar en la Escuela de Pilotos de Pruebas (TPS) de la Fuerza Aérea, en la base Edwards de California.

“Los vuelos demostraron que los agentes de IA pueden controlar un avión de combate a escala real y proporcionaron valiosos datos de vuelo en directo”, declaró DARPA en un comunicado.

EDWARDS AIR FORCE BASE, Calif. — Roger Tanner and Bill Gray pilot the NF-16 Variable Stability In-Flight Simulator Test Aircraft (VISTA) from Hill Air Force Base, Utah, to Edwards AFB on Jan. 30, 2019 after receiving modifications and a new paint scheme. (U.S. Air Force photo by Christian Turner)

El teniente coronel de la Fuerza Aérea, Ryan Hefron, gerente del programa DARPA para ACE, dijo el 13 de febrero, a través de una declaración, que VISTA les permitió saltarse la fase de subescala planificada y proceder “directamente a una implementación a escala completa, ahorrando un año o más y proporcionando retroalimentación de rendimiento en condiciones de vuelo reales”.

La USAF ha estado experimentando con una pequeña flota de cazas experimentales F-16 autovoladores que podrían convertirse en una flota de drones.

En la propuesta de presupuesto para el año fiscal 2024, la USAF ha asignado aproximadamente 50 millones de dólares para iniciar un programa conocido como Proyecto Venom, también denominado Viper Experimentation and Next-gen Operations Model, informó Defense News.

Según la USAF, el proyecto forma parte de un esfuerzo de colaboración que se enmarca en el campo de pruebas Autonomy Data and AI Experimentation (ADAX). ADAX es una iniciativa conjunta en la que participan la oficina de Hamilton y AFWERX, la rama de innovación de la Fuerza Aérea, donde la 96º Ala de Pruebas dirige el esfuerzo con el apoyo de las unidades de Eglin.

El objetivo de esta colaboración es garantizar que el personal militar esté bien preparado para enfrentarse a los retos y oportunidades que presenta el avance del panorama digital, según su página web.

El programa facilita a la USAF la experimentación y mejora del software autónomo instalado en seis aviones F-16. La financiación apoyará los esfuerzos de investigación y desarrollo destinados a mejorar las capacidades de estas aeronaves mediante tecnologías autónomas.

“Nosotros queremos preparar al combatiente para el futuro digital que se nos viene encima”, dijo Hamilton el 7 de marzo. “Este evento consiste en reunir al equipo de Eglin y avanzar con urgencia para incorporar estos conceptos en la forma en que realizamos las pruebas”.

El equipo probará el lanzamiento desde el aire de drones autónomos, la mejora de las comunicaciones y la interoperabilidad digital, y la evaluación de tecnologías autónomas de navegación magnética. A lo largo de estas pruebas, también validarán y demostrarán procesos ágiles asociados a la adquisición y las pruebas, según el Ejército del Aire.

Entre las iniciativas más significativas del proyecto se encuentra el Viper Experimentation and Next-gen Ops Models (VENOM), que implica la modificación de los F-16 de Eglin para convertirlos en laboratorios de pruebas aerotransportados para evaluar las crecientes capacidades de los conjuntos de ataque autónomos.

Otro programa, el Proyecto Fast Open X-Platform (FOX), pretende establecer un enclave de software que permita la instalación directa de aplicaciones en los aviones sin modificar el código fuente propietario. Dichas aplicaciones permitirían mejorar las capacidades de las misiones, como el análisis de datos en tiempo real, la reproducción de amenazas con fines de entrenamiento, la formación de equipos tripulados y no tripulados y el aprendizaje automático.

Únete a nuestra comunidad de Telegram comenta, opina, comparte.


¡Comparte éste artículo!

Comments are closed.

1
Tienes un mensaje
El Kombo Oficial®
¡Hola!
Gracias por visitar nuestro sitio web, si quieres opinar en nuestros temas del día, puedes hacerlo también desde Telegram, haz click en el ícono azul.
G-Y0L9RZ85NL