¿Deberían los algoritmos controlar los códigos de lanzamiento de armas nucleares? Estados Unidos dice que no


El jueves pasado, el El Departamento de Estado de EE. UU. esbozó una nueva visión para desarrollar, probar y verificar sistemas militares, incluidas las armas, que utilizan IA.

La Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía representa un intento de EE. UU. de guiar el desarrollo de la IA militar en un momento crucial para la tecnología. El documento no vincula legalmente al ejército de los EE. UU., pero la esperanza es que las naciones aliadas acepten sus principios, creando una especie de estándar global para construir sistemas de IA de manera responsable.

Entre otras cosas, la declaración establece que la IA militar debe desarrollarse de acuerdo con las leyes internacionales, que las naciones deben ser transparentes sobre los principios que subyacen a su tecnología y que se implementan altos estándares para verificar el rendimiento de los sistemas de IA. También dice que solo los humanos deben tomar decisiones sobre el uso de armas nucleares.

Cuando se trata de sistemas de armas autónomos, los líderes militares de EE. UU. a menudo han asegurado que un ser humano permanecerá «al tanto» de las decisiones sobre el uso de la fuerza letal. Pero la política oficial, emitida por primera vez por el DOD en 2012 y actualizada este año, no requiere que este sea el caso.

Los intentos de forjar una prohibición internacional de las armas autónomas han fracasado hasta ahora. La Cruz Roja Internacional y grupos de campaña como Stop Killer Robots han presionado por un acuerdo en las Naciones Unidas, pero algunas de las principales potencias (EE. UU., Rusia, Israel, Corea del Sur y Australia) han demostrado no estar dispuestas a comprometerse.

Una razón es que muchos dentro del Pentágono ven un mayor uso de la IA en el ejército, incluso fuera de los sistemas que no son de armas, como algo vital e inevitable. Argumentan que una prohibición retrasaría el progreso de EE. UU. y perjudicaría su tecnología en relación con adversarios como China y Rusia. La guerra en Ucrania ha demostrado cuán rápidamente la autonomía en forma de drones desechables y baratos, que se están volviendo más capaces gracias a los algoritmos de aprendizaje automático que los ayudan a percibir y actuar, puede ayudar a proporcionar una ventaja en un conflicto.

A principios de este mes, escribí sobre la misión personal del ex CEO de Google, Eric Schmidt, de ampliar la IA del Pentágono para garantizar que EE. UU. no se quede atrás de China. Fue solo una historia que surgió de los meses dedicados a informar sobre los esfuerzos para adoptar la IA en sistemas militares críticos, y cómo eso se está convirtiendo en el centro de la estrategia militar de los EE. UU., incluso si muchas de las tecnologías involucradas siguen siendo incipientes y no probadas en ninguna crisis.

Lauren Kahn, investigadora del Consejo de Relaciones Exteriores, dio la bienvenida a la nueva declaración de EE. UU. como un componente potencial para un uso más responsable de la IA militar en todo el mundo.

contenido de Twitter

Este contenido también se puede ver en el sitio que se origina de.

Algunas naciones ya tienen armas que funcionan sin control humano directo en circunstancias limitadas, como defensas antimisiles que deben responder a una velocidad sobrehumana para ser efectivas. Un mayor uso de la IA podría significar más escenarios en los que los sistemas actúan de forma autónoma, por ejemplo, cuando los drones están operando fuera del alcance de las comunicaciones o en enjambres demasiado complejos para que los maneje un ser humano.

Algunas proclamaciones sobre la necesidad de la IA en las armas, especialmente de las empresas que desarrollan la tecnología, todavía parecen un poco descabelladas. Ha habido informes sobre el uso de armas totalmente autónomas en conflictos recientes y sobre la asistencia de la IA en ataques militares dirigidos, pero estos no se han verificado y, en verdad, muchos soldados pueden desconfiar de los sistemas que se basan en algoritmos que están lejos de ser infalibles.

Y, sin embargo, si las armas autónomas no se pueden prohibir, su desarrollo continuará. Eso hará que sea vital garantizar que la IA involucrada se comporte como se espera, incluso si la ingeniería requerida para promulgar intenciones como las de la nueva declaración de EE. UU. aún no se ha perfeccionado.





Source link-46