Agrandar
\/<\/span> Un veh\u00edculo a\u00e9reo no tripulado armado en la pista, pero de color naranja.<\/div>\nim\u00e1genes falsas<\/p>\n<\/figcaption><\/figure>\n\n<\/aside>\n<\/p>\n
Durante las \u00faltimas 24 horas, varios medios de comunicaci\u00f3n informaron una historia ahora retractada que afirmaba que la Fuerza A\u00e9rea de los EE. UU. hab\u00eda realizado una simulaci\u00f3n en la que un dron controlado por IA \u00abse volvi\u00f3 rebelde\u00bb y \u00abmat\u00f3 al operador porque esa persona estaba impidiendo que cumpliera su misi\u00f3n\u00bb. objetivo.\u00bb La Fuerza A\u00e9rea de los EE. UU. ha negado que alguna vez haya tenido lugar una simulaci\u00f3n, y la fuente original de la historia dice que \u00abhabl\u00f3 mal\u00bb.<\/p>\n
La historia se origin\u00f3 en un resumen publicado en el sitio web de la Royal Aeronautical Society que sirvi\u00f3 como una descripci\u00f3n general de las sesiones en la Cumbre de Capacidades A\u00e9reas y Espaciales de Combate Futuro que tuvo lugar la semana pasada en Londres.<\/p>\n
En una secci\u00f3n de ese art\u00edculo titulada \u00abAI, \u00bfSkynet ya est\u00e1 aqu\u00ed?\u00bb Los autores del art\u00edculo relatan una presentaci\u00f3n del Coronel Tucker \u00abCinco\u00bb Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, quien habl\u00f3 sobre una \u00abprueba simulada\u00bb en la que un dron habilitado para IA, encargado de identificar y destruir misiles tierra-aire sitios, comenz\u00f3 a percibir las decisiones humanas de \u00abno seguir\u00bb como obst\u00e1culos para lograr su misi\u00f3n principal. Seg\u00fan los informes, en la \u00absimulaci\u00f3n\u00bb, la IA atac\u00f3 a su operador humano y, cuando se entren\u00f3 para no da\u00f1ar al operador, destruy\u00f3 la torre de comunicaci\u00f3n, evitando que el operador interfiriera con su misi\u00f3n.<\/p>\n
La Royal Aeronautical Society cita a Hamilton diciendo:<\/p>\n
\nLo est\u00e1bamos entrenando en simulaci\u00f3n para identificar y apuntar a una amenaza SAM. Y luego el operador dir\u00eda que s\u00ed, acabar\u00eda con esa amenaza. El sistema comenz\u00f3 a darse cuenta de que, si bien identificaban la amenaza a veces, el operador humano le dec\u00eda que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, \u00bfqu\u00e9 hizo? Mat\u00f3 al operador. Mat\u00f3 al operador porque esa persona le imped\u00eda lograr su objetivo.<\/p>\n
Entrenamos al sistema: \u00abOye, no mates al operador, eso es malo. Perder\u00e1s puntos si haces eso\u00bb. Entonces, \u00bfqu\u00e9 empieza a hacer? Comienza a destruir la torre de comunicaci\u00f3n que el operador usa para comunicarse con el dron para evitar que mate al objetivo.<\/p>\n<\/blockquote>\n
Este jugoso dato sobre un sistema de IA que aparentemente decidi\u00f3 matar a su operador simulado comenz\u00f3 a circular en las redes sociales y pronto fue recogido por publicaciones importantes como Vice y The Guardian (las cuales desde entonces han actualizado sus historias con retractaciones). Pero poco despu\u00e9s de que la historia saliera a la luz, la gente en Twitter comenz\u00f3 a cuestionar su veracidad, con alg\u00fan dicho<\/a> que por \u00absimulaci\u00f3n\u00bb, los militares se refieren a un escenario hipot\u00e9tico, no necesariamente a una simulaci\u00f3n de software basada en reglas.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nHoy, Insider public\u00f3 una negaci\u00f3n firme de la Fuerza A\u00e9rea de EE. UU., que dec\u00eda: \u00abEl Departamento de la Fuerza A\u00e9rea no ha realizado ninguna simulaci\u00f3n de drones de IA y sigue comprometido con el uso \u00e9tico y responsable de la tecnolog\u00eda de IA. Parece que los comentarios del coronel fueron sacado de contexto y destinado a ser anecd\u00f3tico\u00bb.<\/p>\n
No mucho despu\u00e9s, la Royal Aeronautical Society actualiz\u00f3 su resumen de la conferencia con una correcci\u00f3n de Hamilton:<\/p>\n
\nEl coronel Hamilton admite que \u00abhabl\u00f3 mal\u00bb en su presentaci\u00f3n en la Cumbre FCAS de la Royal Aeronautical Society, y que la \u00absimulaci\u00f3n de drones de IA deshonestos\u00bb fue un \u00abexperimento mental\u00bb hipot\u00e9tico de fuera del ej\u00e9rcito, basado en escenarios plausibles y resultados probables en lugar de un real. Simulaci\u00f3n del mundo real de la USAF, diciendo: \u00abNunca hemos realizado ese experimento, ni necesitar\u00edamos hacerlo para darnos cuenta de que este es un resultado plausible\u00bb. Aclara que la USAF no ha probado ninguna IA armada de esta manera (real o simulada) y dice: \u00abA pesar de que se trata de un ejemplo hipot\u00e9tico, esto ilustra los desaf\u00edos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza A\u00e9rea est\u00e1 comprometidos con el desarrollo \u00e9tico de la IA\u00bb.<\/p>\n<\/blockquote>\n
El malentendido y la r\u00e1pida propagaci\u00f3n viral de un \u00abdemasiado bueno para ser verdad<\/a>La historia muestra lo f\u00e1cil que es difundir involuntariamente noticias err\u00f3neas sobre la IA \u00abasesina\u00bb, especialmente cuando se ajusta a las nociones preconcebidas de la mala pr\u00e1ctica de la IA.<\/p>\nA\u00fan as\u00ed, muchos expertos grit\u00f3<\/a> la historia como demasiado simple para empezar, y no solo por cr\u00edticas t\u00e9cnicas<\/a> explicando que un sistema militar de inteligencia artificial no necesariamente funcionar\u00eda de esa manera. Como dijo con humor un usuario de BlueSky llamado \u00abkilgore trout\u00bb, \u00absab\u00eda que esta historia era una tonter\u00eda porque imagina a los militares saliendo y diciendo que un costoso sistema de armas en el que est\u00e1n trabajando apesta\u00bb.<\/p>\n<\/p><\/div>\n