Drone apuntando a operador humano era solo un escenario hipotético


Un coronel de la Fuerza Aérea de los Estados Unidos y la Royal Aerospace Society están retrocediendo comentarios hechos sobre un dron rebelde simulado en una conferencia sobre el futuro de la guerra aérea en Londres el mes pasado.

Los comentarios hechos por el Jefe de Pruebas y Operaciones de IA de la USAF, Coronel Tucker «Cinco» Hamilton en mayo. Fueron recogidos por puntos de venta (incluyendo Jalopnik) cuando la Royal Aerospace Society publicó un resumen de los discursos presentados en su cumbre anual RAeS Future Combat Air & Space Capabilities. Originalmente, el resumen se lee asi:

Señala que una prueba simulada vio un dron habilitado para IA encargado de una misión SEAD para identificar y destruir sitios SAM, con el ser humano dando el pase final o no. Sin embargo, después de haber sido ‘reforzado’ en el entrenamiento que la destrucción del SAM era la opción preferida, la IA decidió que las decisiones de ‘no ir’ del ser humano estaban interfiriendo con su misión superior, matar a los SAM, y luego atacó al operador en el simulación. Dijo Hamilton: “Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”.

Continuó: “Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”.

Este ejemplo, aparentemente sacado de un thriller de ciencia ficción, significa que: «No puedes tener una conversación sobre inteligencia artificial, aprendizaje automático, autonomía si no vas a hablar sobre ética e IA», dijo Hamilton.

tarjeta madre Sin embargo, se acercó a la Royal Aeronautical Society para hacer comentarios y aclararon lo que sucedió en este escenario:

“El Coronel Hamilton admite que se ‘habló mal’ en su presentación en la Cumbre FCAS y que la ‘simulación de drones de IA deshonestos’ fue un ‘experimento mental’ hipotético de fuera del ejército, basado en escenarios plausibles y resultados probables en lugar de un verdadero USAF real -simulación mundial”, dijo a Motherboard en un correo electrónico la Royal Aeronautical Society, la organización donde Hamilton habló sobre la prueba simulada.

“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”, dijo el Coronel Tucker “Cinco” Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, en una cita incluida en el Declaración de la Royal Aeronautical Society. «A pesar de que este es un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA».

¿Quién más está un poco decepcionado de que no estemos un paso más cerca de finalmente tener esa guerra de IA que todos sabemos que se avecina? Desde que sostuvimos por primera vez nuestros tamagotchis en nuestras pequeñas manos y vimos el brillo de inteligencia de 8 bits que acechaba allí, todos sabíamos lo que estaría en juego. Bueno, siempre está la próxima actualización de la versión beta completa de conducción autónoma.



Source link-50