{"id":479045,"date":"2023-02-23T17:23:26","date_gmt":"2023-02-23T17:23:26","guid":{"rendered":"https:\/\/magazineoffice.com\/deberian-los-algoritmos-controlar-los-codigos-de-lanzamiento-de-armas-nucleares-estados-unidos-dice-que-no\/"},"modified":"2023-02-23T17:23:28","modified_gmt":"2023-02-23T17:23:28","slug":"deberian-los-algoritmos-controlar-los-codigos-de-lanzamiento-de-armas-nucleares-estados-unidos-dice-que-no","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/deberian-los-algoritmos-controlar-los-codigos-de-lanzamiento-de-armas-nucleares-estados-unidos-dice-que-no\/","title":{"rendered":"\u00bfDeber\u00edan los algoritmos controlar los c\u00f3digos de lanzamiento de armas nucleares? Estados Unidos dice que no"},"content":{"rendered":"


\n<\/p>\n

\n

El jueves pasado, el<\/span> El Departamento de Estado de EE. UU. esboz\u00f3 una nueva visi\u00f3n para desarrollar, probar y verificar sistemas militares, incluidas las armas, que utilizan IA. <\/p>\n

La Declaraci\u00f3n Pol\u00edtica sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonom\u00eda representa un intento de EE. UU. de guiar el desarrollo de la IA militar en un momento crucial para la tecnolog\u00eda. El documento no vincula legalmente al ej\u00e9rcito de los EE. UU., pero la esperanza es que las naciones aliadas acepten sus principios, creando una especie de est\u00e1ndar global para construir sistemas de IA de manera responsable. <\/p>\n

Entre otras cosas, la declaraci\u00f3n establece que la IA militar debe desarrollarse de acuerdo con las leyes internacionales, que las naciones deben ser transparentes sobre los principios que subyacen a su tecnolog\u00eda y que se implementan altos est\u00e1ndares para verificar el rendimiento de los sistemas de IA. Tambi\u00e9n dice que solo los humanos deben tomar decisiones sobre el uso de armas nucleares. <\/p>\n

Cuando se trata de sistemas de armas aut\u00f3nomos, los l\u00edderes militares de EE. UU. a menudo han asegurado que un ser humano permanecer\u00e1 \u00abal tanto\u00bb de las decisiones sobre el uso de la fuerza letal. Pero la pol\u00edtica oficial, emitida por primera vez por el DOD en 2012 y actualizada este a\u00f1o, no requiere que este sea el caso.<\/p>\n

Los intentos de forjar una prohibici\u00f3n internacional de las armas aut\u00f3nomas han fracasado hasta ahora. La Cruz Roja Internacional y grupos de campa\u00f1a como Stop Killer Robots han presionado por un acuerdo en las Naciones Unidas, pero algunas de las principales potencias (EE. UU., Rusia, Israel, Corea del Sur y Australia) han demostrado no estar dispuestas a comprometerse.<\/p>\n

Una raz\u00f3n es que muchos dentro del Pent\u00e1gono ven un mayor uso de la IA en el ej\u00e9rcito, incluso fuera de los sistemas que no son de armas, como algo vital e inevitable. Argumentan que una prohibici\u00f3n retrasar\u00eda el progreso de EE. UU. y perjudicar\u00eda su tecnolog\u00eda en relaci\u00f3n con adversarios como China y Rusia. La guerra en Ucrania ha demostrado cu\u00e1n r\u00e1pidamente la autonom\u00eda en forma de drones desechables y baratos, que se est\u00e1n volviendo m\u00e1s capaces gracias a los algoritmos de aprendizaje autom\u00e1tico que los ayudan a percibir y actuar, puede ayudar a proporcionar una ventaja en un conflicto. <\/p>\n

A principios de este mes, escrib\u00ed sobre la misi\u00f3n personal del ex CEO de Google, Eric Schmidt, de ampliar la IA del Pent\u00e1gono para garantizar que EE. UU. no se quede atr\u00e1s de China. Fue solo una historia que surgi\u00f3 de los meses dedicados a informar sobre los esfuerzos para adoptar la IA en sistemas militares cr\u00edticos, y c\u00f3mo eso se est\u00e1 convirtiendo en el centro de la estrategia militar de los EE. UU., incluso si muchas de las tecnolog\u00edas involucradas siguen siendo incipientes y no probadas en ninguna crisis.<\/p>\n

Lauren Kahn, investigadora del Consejo de Relaciones Exteriores, dio la bienvenida a la nueva declaraci\u00f3n de EE. UU. como un componente potencial para un uso m\u00e1s responsable de la IA militar en todo el mundo.<\/p>\n

\n
\n
\n

contenido de Twitter<\/h4>\n

Este contenido tambi\u00e9n se puede ver en el sitio que se origina<\/a> de.<\/p>\n<\/div>\n<\/div>\n<\/div>\n

Algunas naciones ya tienen armas que funcionan sin control humano directo en circunstancias limitadas, como defensas antimisiles que deben responder a una velocidad sobrehumana para ser efectivas. Un mayor uso de la IA podr\u00eda significar m\u00e1s escenarios en los que los sistemas act\u00faan de forma aut\u00f3noma, por ejemplo, cuando los drones est\u00e1n operando fuera del alcance de las comunicaciones o en enjambres demasiado complejos para que los maneje un ser humano. <\/p>\n

Algunas proclamaciones sobre la necesidad de la IA en las armas, especialmente de las empresas que desarrollan la tecnolog\u00eda, todav\u00eda parecen un poco descabelladas. Ha habido informes sobre el uso de armas totalmente aut\u00f3nomas en conflictos recientes y sobre la asistencia de la IA en ataques militares dirigidos, pero estos no se han verificado y, en verdad, muchos soldados pueden desconfiar de los sistemas que se basan en algoritmos que est\u00e1n lejos de ser infalibles.<\/p>\n

Y, sin embargo, si las armas aut\u00f3nomas no se pueden prohibir, su desarrollo continuar\u00e1. Eso har\u00e1 que sea vital garantizar que la IA involucrada se comporte como se espera, incluso si la ingenier\u00eda requerida para promulgar intenciones como las de la nueva declaraci\u00f3n de EE. UU. a\u00fan no se ha perfeccionado.<\/p>\n<\/div>\n