Las principales empresas de IA visitan la Casa Blanca para hacer compromisos de seguridad ‘voluntarios’


Si bien la legislación sustantiva de IA aún puede tardar años, la industria se está moviendo a la velocidad de la luz y muchos, incluida la Casa Blanca, están preocupados de que pueda dejarse llevar. Por lo tanto, la administración de Biden ha recopilado «compromisos voluntarios» de siete de los mayores desarrolladores de inteligencia artificial para perseguir objetivos compartidos de seguridad y transparencia antes de una orden ejecutiva planificada.

OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon son las empresas que participan en este acuerdo no vinculante y enviarán representantes a la Casa Blanca para reunirse hoy con el presidente Biden.

Para ser claros, aquí no se propone ninguna regla o aplicación: las prácticas acordadas son puramente voluntarias. Pero aunque ninguna agencia gubernamental responsabilizará a una empresa si elude algunos, es probable que también sea un asunto de dominio público.

Aquí está la lista de asistentes al concierto de la Casa Blanca:

  • Brad Smith, presidente de Microsoft
  • Kent Walker, presidente de Google
  • Dario Amodei, CEO, Anthropic
  • Mustafa Suleyman, director ejecutivo de Inflection AI
  • Nick Clegg, presidente de Meta
  • Greg Brockman, presidente de OpenAI
  • Adam Selipsky, director ejecutivo, servicios web de Amazon

Sin subordinados, pero tampoco multimillonarios. (Y ninguna mujer.)

Las siete compañías (y probablemente otras que no recibieron el tratamiento de la alfombra roja pero querrán participar) se han comprometido a lo siguiente:

  • Pruebas de seguridad internas y externas de los sistemas de IA antes del lanzamiento, incluido el «equipo rojo» adversario por parte de expertos externos a la empresa.
  • Comparta información entre el gobierno, la academia y la «sociedad civil» sobre los riesgos de la IA y las técnicas de mitigación (como la prevención del «jailbreak»).
  • Invierta en seguridad cibernética y «protección contra amenazas internas» para proteger datos de modelos privados como pesos. Esto es importante no solo para proteger la propiedad intelectual, sino también porque la divulgación prematura a gran escala podría representar una oportunidad para los actores malintencionados.
  • Facilite el descubrimiento y la notificación de vulnerabilidades por parte de terceros, por ejemplo, un programa de recompensas por errores o un análisis experto del dominio.
  • Desarrolle marcas de agua sólidas o alguna otra forma de marcar el contenido generado por IA.
  • Reporte las «capacidades, limitaciones y áreas de uso apropiado e inapropiado» de los sistemas de IA. Buena suerte para obtener una respuesta directa sobre esto.
  • Priorizar la investigación sobre riesgos sociales como el sesgo sistemático o los problemas de privacidad.
  • Desarrollar e implementar IA «para ayudar a abordar los mayores desafíos de la sociedad», como la prevención del cáncer y el cambio climático. (Aunque en una llamada de prensa se señaló que no se estaba rastreando la huella de carbono de los modelos de IA).

Si bien lo anterior es voluntario, uno puede imaginar fácilmente que la amenaza de una orden ejecutiva (actualmente están “desarrollando” una) está ahí para alentar el cumplimiento. Por ejemplo, si algunas empresas no permiten pruebas de seguridad externas de sus modelos antes del lanzamiento, el EO puede desarrollar un párrafo que ordena a la FTC que observe de cerca los productos de IA que afirman una seguridad sólida. (Una EO ya está en vigor pidiendo a las agencias que tengan cuidado con los sesgos en el desarrollo y uso de la IA).

La Casa Blanca está claramente ansiosa por salir adelante de esta próxima gran ola de tecnología, ya que las capacidades disruptivas de las redes sociales la tomaron desprevenida. El presidente y el vicepresidente se han reunido con líderes de la industria y han solicitado asesoramiento sobre una estrategia nacional de IA, además de dedicar una gran cantidad de fondos a nuevos centros y programas de investigación de IA. Por supuesto, el aparato nacional de ciencia e investigación está muy por delante de ellos, como muestra este informe muy completo (aunque necesariamente un poco desactualizado) sobre desafíos y oportunidades de investigación del DOE y National Labs.



Source link-48