Gigantes de IA se comprometen a permitir pruebas externas de sus algoritmos, bajo un nuevo pacto de la Casa Blanca


La casa Blanca ha llegado a un acuerdo con los principales desarrolladores de IA, incluidos Amazon, Google, Meta, Microsoft y OpenAI, que los compromete a tomar medidas para evitar que los modelos de IA dañinos se publiquen en el mundo.

Según el acuerdo, que la Casa Blanca llama un «compromiso voluntario», las empresas se comprometen a realizar pruebas internas y permitir pruebas externas de nuevos modelos de IA antes de que se publiquen. La prueba buscará problemas que incluyen resultados sesgados o discriminatorios, fallas de seguridad cibernética y riesgos de daños sociales más amplios. Las startups Anthropic e Inflection, ambas desarrolladoras de notables rivales de ChatGPT de OpenAI, también participaron en el acuerdo.

“Las empresas tienen el deber de garantizar que sus productos sean seguros antes de presentarlos al público probando la seguridad y la capacidad de sus sistemas de IA”, dijo a periodistas el asesor especial de la Casa Blanca para IA, Ben Buchanan, en una sesión informativa ayer. Los riesgos que se les pidió a las empresas que tuvieran en cuenta incluyen violaciones de la privacidad e incluso posibles contribuciones a las amenazas biológicas. Las empresas también se comprometieron a informar públicamente sobre las limitaciones de sus sistemas y los riesgos sociales y de seguridad que podrían plantear.

El acuerdo también dice que las empresas desarrollarán sistemas de marcas de agua que faciliten a las personas la identificación de audio e imágenes generadas por IA. OpenAI ya agrega marcas de agua a las imágenes producidas por su generador de imágenes Dall-E, y Google ha dicho que está desarrollando una tecnología similar para imágenes generadas por IA. Ayudar a las personas a discernir qué es real y qué es falso es un problema cada vez mayor, ya que las campañas políticas parecen estar recurriendo a la IA generativa antes de las elecciones estadounidenses de 2024.

Los avances recientes en los sistemas de IA generativa que pueden crear texto o imágenes han desencadenado una renovada carrera armamentista de IA entre las empresas que adaptan la tecnología para tareas como la búsqueda en la web y la redacción de cartas de recomendación. Pero los nuevos algoritmos también han provocado una renovada preocupación acerca de que la IA refuerce los sistemas sociales opresivos como el sexismo o el racismo, aumente la desinformación electoral o se convierta en herramientas para el ciberdelito. Como resultado, los reguladores y legisladores en muchas partes del mundo, incluido Washington, DC, han aumentado los pedidos de nuevas regulaciones, incluidos los requisitos para evaluar la IA antes del despliegue.

No está claro cuánto cambiará el acuerdo la forma en que operan las principales empresas de inteligencia artificial. La creciente conciencia de las posibles desventajas de la tecnología ha hecho que sea común que las empresas de tecnología contraten personas para trabajar en políticas y pruebas de IA. Google tiene equipos que prueban sus sistemas y publica cierta información, como los casos de uso previstos y las consideraciones éticas para ciertos modelos de IA. Meta y OpenAI a veces invitan a expertos externos para intentar romper sus modelos en un enfoque denominado red-teaming.

“Guiados por los principios perdurables de seguridad, protección y confianza, los compromisos voluntarios abordan los riesgos que presentan los modelos avanzados de IA y promueven la adopción de prácticas específicas, como las pruebas de equipo rojo y la publicación de informes de transparencia, que impulsarán todo el ecosistema”, dijo el presidente de Microsoft, Brad Smith, en una publicación de blog.

Los riesgos sociales potenciales que el acuerdo promete a las empresas a tener en cuenta no incluyen la huella de carbono del entrenamiento de modelos de IA, una preocupación que ahora se cita comúnmente en la investigación sobre el impacto de los sistemas de IA. La creación de un sistema como ChatGPT puede requerir miles de procesadores de computadora de alta potencia, funcionando durante largos períodos de tiempo.



Source link-46