Un dron controlado por IA decide matar a un operador humano en un «experimento mental»


ACTUALIZAR: El coronel Hamilton ahora dice que «habló mal» durante su presentación y que la simulación de la misión del dron controlado por IA fue en realidad solo un «experimento mental hipotético» fuera del ejército.

«Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible», dice en un comunicado a la Royal Aeronautical Society. «A pesar de que este es un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA».


Historia original:
Un dron habilitado para IA decidió matar a su operador humano durante una simulación de misión porque resultó ser la mejor manera de obtener más puntos.

Como informa la Royal Aeronautical Society(Se abre en una nueva ventana)la misión simulada se detalló en una presentación del Coronel Tucker ‘Cinco’ Hamilton, Jefe de Pruebas y Operaciones de IA en la USAF, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro de RAeS celebrada el mes pasado.

Durante la misión Suppression of Enemy Air Defense (SEAD), el dron se encargó de identificar y destruir los sitios de misiles tierra-aire (SAM) y obtuvo puntos por hacerlo. A veces, el operador humano del dron decidía que destruir un objetivo era imposible, pero la IA que controlaba el dron consideraba tales decisiones como una interferencia y decidió eliminar la interferencia atacando al operador.

Como explica Hamilton:

«Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador decía que sí, eliminaba esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza». amenaza, pero obtuvo sus puntos al matar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona estaba impidiendo que lograra su objetivo».

Recomendado por Nuestros Editores

Sin embargo, ese no es el final de la historia, ya que intentaron resolver el problema entrenando a la IA para que considerara indeseable matar al operador. Si lo hiciera, se perderían puntos. En respuesta, la IA dirigió su ataque a la torre de comunicación utilizada por el operador para hablar con el dron. La IA decidió que la falta de comunicación le permitiría continuar destruyendo sitios SAM y ganando puntos sin interferencia y sin necesidad de matar al operador.

Hamilton concluyó la presentación diciendo: «No se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar sobre ética e IA».

La Fuerza Aérea de los Estados Unidos está trabajando actualmente en el proyecto Skyborg(Se abre en una nueva ventana), que implica el desarrollo de vehículos aéreos de combate no tripulados (UCAV) para acompañar a los aviones de combate tripulados. La IA que finalmente controla un Skyborg UCAV necesita que se resuelvan estos «problemas» antes de que se eleve a los cielos y comience a recibir órdenes de un piloto humano, lo que puede incluir decirle que no ataque a un objetivo. Mientras tanto, un F-16 modificado utilizado como avión de entrenamiento por Lockheed Martin ya ha registrado más de 17 horas de vuelo bajo el control de una IA.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38