¿Uso responsable de la IA en el ejército? Estados Unidos publica declaración que describe principios


El jueves, el Departamento de Estado de EE. UU. emitió una «Declaración política sobre el uso militar responsable de la inteligencia artificial y la autonomía», en la que pide un despliegue ético y responsable de la IA en las operaciones militares entre las naciones que las desarrollan. El documento establece 12 mejores prácticas para el desarrollo de capacidades militares de inteligencia artificial y enfatiza la responsabilidad humana.

La declaración coincide con la participación de Estados Unidos en una cumbre internacional sobre el uso responsable de la IA militar en La Haya, Países Bajos. Reuters llamó a la conferencia «la primera de su tipo». En la cumbre, la subsecretaria de Estado para el Control de Armas de EE. UU., Bonnie Jenkins, dijo: «Invitamos a todos los estados a unirse a nosotros para implementar las normas internacionales, en lo que respecta al desarrollo militar y el uso de IA» y armas autónomas.

En un preámbulo, la declaración de EE. UU. destaca que un número cada vez mayor de países está desarrollando capacidades militares de IA que pueden incluir el uso de sistemas autónomos. Esta tendencia ha suscitado preocupaciones sobre los riesgos potenciales del uso de tales tecnologías, especialmente cuando se trata de cumplir con el derecho internacional humanitario.

El uso militar de la IA puede y debe ser ético, responsable y mejorar la seguridad internacional. El uso de la IA en los conflictos armados debe estar de acuerdo con el derecho internacional humanitario aplicable, incluidos sus principios fundamentales. El uso militar de las capacidades de la IA debe ser responsable, incluso mediante dicho uso durante operaciones militares dentro de una cadena de mando y control humano responsable. Un enfoque basado en principios para el uso militar de la IA debe incluir una consideración cuidadosa de los riesgos y beneficios, y también debe minimizar los sesgos y accidentes no deseados. Los Estados deben tomar las medidas apropiadas para garantizar el desarrollo, despliegue y uso responsable de sus capacidades militares de inteligencia artificial, incluidas aquellas que permiten sistemas autónomos.

Las 12 mejores prácticas enumeradas en el documento abordan la seguridad de las armas nucleares, el diseño responsable de sistemas, la capacitación del personal y las metodologías de auditoría para las capacidades de la IA militar. El documento también destaca la necesidad de minimizar los sesgos y los accidentes no deseados y la importancia de las pruebas para garantizar la seguridad y la eficacia de las capacidades de la IA militar.

El documento contiene algunos ejemplos notables de mantener a los humanos responsables en la cadena de mando cuando se trata de sistemas autónomos, especialmente con respecto a las armas nucleares: «Los estados deben mantener el control humano y la participación en todas las acciones críticas para informar y ejecutar decisiones soberanas relacionadas con el empleo de armas nucleares». .»

También cubrió el comportamiento no intencionado de la IA en los sistemas militares, algo que se ha convertido en una preocupación recientemente con los sistemas de aprendizaje profundo del consumidor: «Los estados deben diseñar e implementar capacidades militares de IA para que posean la capacidad de detectar y evitar consecuencias no deseadas y la capacidad de desconecte o desactive los sistemas implementados que demuestren un comportamiento no deseado».

El documento no especifica exactamente qué tipo de sistemas autónomos o impulsados ​​por IA están cubiertos por la declaración, pero dado que no existe una definición universal de «inteligencia artificial», establece su comprensión del término en una nota al pie. El documento establece: «A los efectos de esta Declaración, se puede entender que la inteligencia artificial se refiere a la capacidad de las máquinas para realizar tareas que de otro modo requerirían la inteligencia humana, por ejemplo, reconocer patrones, aprender de la experiencia, sacar conclusiones, hacer predicciones, o tomando medidas, ya sea digitalmente o como el software inteligente detrás de los sistemas físicos autónomos».

También el jueves, más de 60 países firmaron un «llamado a la acción» respaldando el uso militar responsable de la IA. Reuters informa que expertos en derechos humanos y académicos señalaron que la declaración no es legalmente vinculante y «no abordó preocupaciones como drones guiados por IA, ‘slaughterbots’ que podrían matar sin intervención humana o el riesgo de que una IA pueda escalar un conflicto militar». .»

El documento de declaración completo, creado bajo la autoridad de la Oficina de Control, Verificación y Cumplimiento de Armas, está disponible a través del sitio web del Departamento de Estado de EE. UU.



Source link-49