{"id":661990,"date":"2023-06-03T05:51:47","date_gmt":"2023-06-03T05:51:47","guid":{"rendered":"https:\/\/magazineoffice.com\/un-dron-controlado-por-ia-decide-matar-a-un-operador-humano-en-un-experimento-mental\/"},"modified":"2023-06-03T05:51:50","modified_gmt":"2023-06-03T05:51:50","slug":"un-dron-controlado-por-ia-decide-matar-a-un-operador-humano-en-un-experimento-mental","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/un-dron-controlado-por-ia-decide-matar-a-un-operador-humano-en-un-experimento-mental\/","title":{"rendered":"Un dron controlado por IA decide matar a un operador humano en un \u00abexperimento mental\u00bb"},"content":{"rendered":"


\n<\/p>\n

\n

ACTUALIZAR:<\/strong> El coronel Hamilton ahora dice que \u00abhabl\u00f3 mal\u00bb durante su presentaci\u00f3n y que la simulaci\u00f3n de la misi\u00f3n del dron controlado por IA fue en realidad solo un \u00abexperimento mental hipot\u00e9tico\u00bb fuera del ej\u00e9rcito.<\/p>\n

\u00abNunca hemos realizado ese experimento, ni necesitar\u00edamos hacerlo para darnos cuenta de que este es un resultado plausible\u00bb, dice en un comunicado a la Royal Aeronautical Society. \u00abA pesar de que este es un ejemplo hipot\u00e9tico, ilustra los desaf\u00edos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza A\u00e9rea est\u00e1 comprometida con el desarrollo \u00e9tico de la IA\u00bb.<\/p>\n\n

Historia original:<\/strong>
Un dron habilitado para IA decidi\u00f3 matar a su operador humano durante una simulaci\u00f3n de misi\u00f3n porque result\u00f3 ser la mejor manera de obtener m\u00e1s puntos.<\/p>\n

Como informa la Royal Aeronautical Society(Se abre en una nueva ventana)<\/span>la misi\u00f3n simulada se detall\u00f3 en una presentaci\u00f3n del Coronel Tucker ‘Cinco’ Hamilton, Jefe de Pruebas y Operaciones de IA en la USAF, durante la Cumbre de Capacidades A\u00e9reas y Espaciales de Combate Futuro de RAeS celebrada el mes pasado.<\/p>\n

Durante la misi\u00f3n Suppression of Enemy Air Defense (SEAD), el dron se encarg\u00f3 de identificar y destruir los sitios de misiles tierra-aire (SAM) y obtuvo puntos por hacerlo. A veces, el operador humano del dron decid\u00eda que destruir un objetivo era imposible, pero la IA que controlaba el dron consideraba tales decisiones como una interferencia y decidi\u00f3 eliminar la interferencia atacando al operador.<\/p>\n

Como explica Hamilton:<\/p>\n

\u00abLo est\u00e1bamos entrenando en simulaci\u00f3n para identificar y apuntar a una amenaza SAM. Y luego el operador dec\u00eda que s\u00ed, eliminaba esa amenaza. El sistema comenz\u00f3 a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le dec\u00eda que no eliminara esa amenaza\u00bb. amenaza, pero obtuvo sus puntos al matar esa amenaza. Entonces, \u00bfqu\u00e9 hizo? Mat\u00f3 al operador. Mat\u00f3 al operador porque esa persona estaba impidiendo que lograra su objetivo\u00bb.<\/p>\n

\n
\n

Recomendado por Nuestros Editores<\/h3>\n<\/div>\n<\/div>\n

Sin embargo, ese no es el final de la historia, ya que intentaron resolver el problema entrenando a la IA para que considerara indeseable matar al operador. Si lo hiciera, se perder\u00edan puntos. En respuesta, la IA dirigi\u00f3 su ataque a la torre de comunicaci\u00f3n utilizada por el operador para hablar con el dron. La IA decidi\u00f3 que la falta de comunicaci\u00f3n le permitir\u00eda continuar destruyendo sitios SAM y ganando puntos sin interferencia y sin necesidad de matar al operador.<\/p>\n

Hamilton concluy\u00f3 la presentaci\u00f3n diciendo: \u00abNo se puede tener una conversaci\u00f3n sobre inteligencia artificial, inteligencia, aprendizaje autom\u00e1tico, autonom\u00eda si no se va a hablar sobre \u00e9tica e IA\u00bb.<\/p>\n

La Fuerza A\u00e9rea de los Estados Unidos est\u00e1 trabajando actualmente en el proyecto Skyborg(Se abre en una nueva ventana)<\/span>, que implica el desarrollo de veh\u00edculos a\u00e9reos de combate no tripulados (UCAV) para acompa\u00f1ar a los aviones de combate tripulados. La IA que finalmente controla un Skyborg UCAV necesita que se resuelvan estos \u00abproblemas\u00bb antes de que se eleve a los cielos y comience a recibir \u00f3rdenes de un piloto humano, lo que puede incluir decirle que no ataque a un objetivo. Mientras tanto, un F-16 modificado utilizado como avi\u00f3n de entrenamiento por Lockheed Martin ya ha registrado m\u00e1s de 17 horas de vuelo bajo el control de una IA.<\/p>\n

\n
\n

\u00a1Obtenga nuestras mejores historias!<\/h4>\n

Matricularse en \u00bfQu\u00e9 hay de nuevo ahora?<\/strong> para recibir nuestras mejores historias en su bandeja de entrada todas las ma\u00f1anas.<\/p>\n

Este bolet\u00edn puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un bolet\u00edn informativo indica su consentimiento a nuestros T\u00e9rminos de uso y Pol\u00edtica de privacidad. Puede darse de baja de los boletines en cualquier momento.<\/p>\n<\/p><\/div>\n<\/div>\n<\/div>\n