Estados Unidos y otras 30 naciones acuerdan establecer barreras para la IA militar


La vicepresidenta Harris anunció durante su discurso en Londres que la declaración ahora ha sido firmada por naciones alineadas con Estados Unidos, entre las que se incluyen el Reino Unido, Canadá, Australia, Alemania y Francia. Entre los 31 firmantes no se incluyen China ni Rusia, que junto con Estados Unidos son vistos como líderes en el desarrollo de sistemas de armas autónomas. China se unió a Estados Unidos para firmar una declaración sobre los riesgos que plantea la IA como parte de la Cumbre de Seguridad de la IA coordinada por el gobierno británico.

Automatización mortal

Hablar de IA militar a menudo evoca la idea de armas impulsadas por IA capaces de decidir por sí mismas cuándo y cómo usar fuerza letal. Estados Unidos y varias otras naciones se han resistido a los llamados a una prohibición total de tales armas, pero la política del Pentágono es que los sistemas autónomos deberían permitir a «comandantes y operadores ejercer niveles apropiados de juicio humano sobre el uso de la fuerza». Las discusiones sobre el tema como parte de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales, establecida en 1980 para crear reglas internacionales sobre el uso de armas consideradas de naturaleza excesiva o indiscriminada, se han estancado en gran medida.

La declaración encabezada por Estados Unidos anunciada la semana pasada no llega tan lejos como para buscar una prohibición de cualquier uso específico de la IA en el campo de batalla. En cambio, se centra en garantizar que la IA se utilice de manera que garantice la transparencia y la confiabilidad. Esto es importante, dice Kahn, porque los militares buscan aprovechar la IA de muchas maneras. Incluso si se restringiera y se supervisara de cerca, la tecnología aún podría tener efectos desestabilizadores o peligrosos.

Una preocupación es que un sistema de inteligencia artificial que funciona mal pueda hacer algo que desencadene una escalada de las hostilidades. «Es importante centrarse en las armas letales autónomas», afirma Kahn. «Al mismo tiempo, el proceso se ha estancado en estos debates, que se centran exclusivamente en un tipo de sistema que aún no existe».

Algunas personas todavía están trabajando para intentar prohibir las armas letales autónomas. El mismo día que Harris anunció la nueva declaración sobre IA militar, el Primer Comité de la Asamblea General de la ONU, un grupo de naciones que trabaja en desarme y proliferación de armas, aprobó una nueva resolución sobre armas letales autónomas.

La resolución exige un informe sobre los desafíos “humanitarios, legales, de seguridad, tecnológicos y éticos” que plantean las armas letales autónomas y la aportación de organizaciones internacionales y regionales, el Comité Internacional de la Cruz Roja, la sociedad civil, la comunidad científica, e industria. Una declaración emitida por la ONU citó al representante de Egipto diciendo que «un algoritmo no debe tener el control total de las decisiones que implican matar o dañar a seres humanos», después de la votación.



Source link-46