La Fuerza Aérea de EE. UU. se mueve rápido en aviones de combate pilotados por IA


Durante las pruebas en diciembre, se introdujeron en el sistema un par de programas de IA: las Operaciones Autónomas de Combate Aéreo (AACO) del Laboratorio de Investigación de la Fuerza Aérea y la Evolución de Combate Aéreo (ACE) de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). Los agentes de IA de AACO se centraron en el combate con un solo adversario más allá del alcance visual (BVR), mientras que ACE se centró en maniobras estilo dogfight con un enemigo simulado «visible» más cercano.

Si bien VISTA requiere un piloto certificado en la cabina trasera como respaldo, durante los vuelos de prueba, un ingeniero capacitado en los sistemas de inteligencia artificial manejó la cabina delantera para lidiar con cualquier problema técnico que surgiera. Al final, estos problemas fueron menores. Si bien no puede dar más detalles sobre las complejidades, el gerente del programa DARPA, el teniente coronel Ryan Hefron, explica que cualquier contratiempo era «esperable al pasar de lo virtual a lo real». En general, fue un paso significativo hacia la realización del objetivo de Skyborg de hacer despegar aviones autónomos lo antes posible.

El Departamento de Defensa enfatiza que AACO y ACE están diseñados para complementar a los pilotos humanos, no para reemplazarlos. En algunos casos, los sistemas de copiloto de IA podrían actuar como un mecanismo de apoyo para los pilotos en combate activo. Con AACO y ACE capaces de analizar millones de entradas de datos por segundo y tener la capacidad de tomar el control del avión en momentos críticos, esto podría ser vital en situaciones de vida o muerte. Para misiones más rutinarias que no requieren intervención humana, los vuelos podrían ser completamente autónomos, con la sección de la nariz de los aviones intercambiada cuando no se requiere una cabina para un piloto humano.

“No estamos tratando de reemplazar a los pilotos, estamos tratando de aumentar ellos, darles una herramienta adicional”, dice Cotting. Dibuja la analogía de los soldados de campañas pasadas que van a la batalla a caballo. “El caballo y el humano tenían que trabajar juntos”, dice. “El caballo puede recorrer el sendero muy bien, por lo que el jinete no tiene que preocuparse por ir del punto A al B. Su cerebro puede liberarse para pensar en cosas más grandes”. Por ejemplo, dice Cotting, un primer teniente con 100 horas de experiencia en la cabina podría obtener artificialmente la misma ventaja que un oficial de rango mucho más alto con 1000 horas de experiencia de vuelo, gracias al aumento de la IA.

Para Bill Gray, jefe de pilotos de pruebas de la Escuela de Pilotos de Pruebas de la USAF, incorporar IA es una extensión natural del trabajo que realiza con estudiantes humanos. “Siempre que nosotros [pilots] hable con ingenieros y científicos sobre las dificultades de entrenar y calificar a los agentes de IA, por lo general lo tratan como un problema nuevo”, dice. “Esto me molesta, porque he estado entrenando y calificando a agentes de inteligencia natural (estudiantes) altamente no lineales e impredecibles durante décadas. Para mí, la pregunta no es: ‘¿Podemos capacitar y calificar a los agentes de IA?’ Es, ‘¿Por qué podemos entrenar y calificar humanos, y qué nos puede enseñar esto sobre cómo hacer lo mismo con los agentes de IA?’

Gray cree que la IA «no es una herramienta maravillosa que pueda resolver todos los problemas», sino que debe desarrollarse con un enfoque equilibrado, con medidas de seguridad integradas para evitar percances costosos. Una confianza excesiva en la IA, una «confianza en la autonomía», puede ser peligrosa, cree Gray, señalando fallas en el programa de piloto automático de Tesla a pesar de que Tesla afirma la necesidad de que el conductor esté al volante como respaldo. Cotting está de acuerdo y llama a la capacidad de probar los programas de IA en VISTA un “plan de reducción de riesgos”. Al entrenar a la IA en sistemas convencionales como el VISTA X-62, en lugar de construir una aeronave completamente nueva, los límites automáticos y, si es necesario, la intervención del piloto de seguridad pueden ayudar a evitar que la IA ponga en peligro la aeronave a medida que aprende.



Source link-46