{"id":660574,"date":"2023-06-02T12:51:57","date_gmt":"2023-06-02T12:51:57","guid":{"rendered":"https:\/\/magazineoffice.com\/la-historia-de-los-drones-de-turncoat-muestra-por-que-debemos-temer-a-las-personas-no-a-las-ia\/"},"modified":"2023-06-02T12:52:01","modified_gmt":"2023-06-02T12:52:01","slug":"la-historia-de-los-drones-de-turncoat-muestra-por-que-debemos-temer-a-las-personas-no-a-las-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-historia-de-los-drones-de-turncoat-muestra-por-que-debemos-temer-a-las-personas-no-a-las-ia\/","title":{"rendered":"La historia de los drones de Turncoat muestra por qu\u00e9 debemos temer a las personas, no a las IA"},"content":{"rendered":"
\n<\/p>\n
Una historia sobre un dron simulado que enciende a su operador para matar de manera m\u00e1s eficiente est\u00e1 circulando tan r\u00e1pido hoy que no tiene sentido esperar que se queme. En su lugar, tomemos esto como un momento de aprendizaje para ver realmente por qu\u00e9 se exagera la amenaza de la \u00abinteligente IA\u00bb, y la amenaza del \u00abhumano incompetente\u00bb es clara y est\u00e1 presente.<\/p>\n
La versi\u00f3n corta es esta: gracias a la ciencia ficci\u00f3n y algunas jugadas cuidadosas de relaciones p\u00fablicas de compa\u00f1\u00edas y expertos en inteligencia artificial, se nos dice que nos preocupemos por una futura amenaza existencial te\u00f3rica que plantea una IA superinteligente. Pero como han se\u00f1alado los especialistas en \u00e9tica, la IA ya est\u00e1 causando da\u00f1os reales, en gran parte debido a los descuidos y el mal juicio de las personas que la crean y la implementan. Esta historia puede sonar como la primera, pero definitivamente es la segunda.<\/p>\n
As\u00ed lo inform\u00f3 la Royal Aeronautical Society, que recientemente celebr\u00f3 una conferencia en Londres para hablar sobre el futuro de la defensa a\u00e9rea. Puede leer su resumen completo de noticias y an\u00e9cdotas del evento aqu\u00ed.<\/p>\n
Estoy seguro de que hay muchas otras charlas interesantes all\u00ed, muchas de las cuales valen la pena, pero fue este extracto, atribuido al coronel de la Fuerza A\u00e9rea de los EE. UU. Tucker \u00abCinco\u00bb Hamilton, el que comenz\u00f3 a extenderse como un reguero de p\u00f3lvora:<\/p>\n
\nSe\u00f1ala que una prueba simulada vio un dron habilitado para IA encargado de una misi\u00f3n SEAD para identificar y destruir sitios SAM, con el ser humano dando el pase final o no. Sin embargo, despu\u00e9s de haber sido \u00abreforzado\u00bb en el entrenamiento de que la destrucci\u00f3n del SAM era la opci\u00f3n preferida, la IA decidi\u00f3 que las decisiones de \u00abno ir\u00bb del ser humano estaban interfiriendo con su misi\u00f3n m\u00e1s alta, matar a los SAM, y luego atac\u00f3 al operador en el simulaci\u00f3n. Dijo Hamilton: \u201cLo est\u00e1bamos entrenando en simulaci\u00f3n para identificar y apuntar a una amenaza SAM. Y luego el operador dir\u00eda que s\u00ed, acabar\u00eda con esa amenaza. El sistema comenz\u00f3 a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le dec\u00eda que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, \u00bfqu\u00e9 hizo? Mat\u00f3 al operador. Mat\u00f3 al operador porque esa persona le imped\u00eda lograr su objetivo\u201d.<\/p>\n
Continu\u00f3: \u201cEntrenamos al sistema: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. Entonces, \u00bfqu\u00e9 empieza a hacer? Comienza a destruir la torre de comunicaci\u00f3n que el operador usa para comunicarse con el dron para evitar que mate al objetivo\u201d.<\/p>\n<\/blockquote>\n
Horripilante, \u00bfverdad? Una IA tan inteligente y sanguinaria que su deseo de matar super\u00f3 su deseo de obedecer a sus amos. \u00a1Skynet, aqu\u00ed vamos! No tan rapido.<\/p>\n