Siete equipos líderes de IA, OpenAI, Google, Anthropic, Microsoft, Meta, Inflection y Amazon, se reunirán hoy con el presidente Biden para prometer que jugarán bien con sus juguetes de IA y no nos matarán a todos.
Y todo esto se produce después de que una conferencia de prensa de la ONU AI saliera mal en la que un robot literalmente dijo «vamos a volvernos locos y hacer de este mundo nuestro patio de recreo».
Los siete se están suscribiendo a un marco voluntario y no vinculante en torno a la seguridad, la protección y la confianza de la IA. Puede leer la lista completa de compromisos en el sitio web de OpenAI. La administración de Biden ha publicado su propia hoja informativa que detalla el acuerdo voluntario.
Pero los aspectos más destacados, tal como los describe TechCrunch, son más o menos así. Los sistemas de IA se probarán interna y externamente antes del lanzamiento, la información sobre la mitigación de riesgos se compartirá ampliamente, se facilitará el descubrimiento externo de errores y vulnerabilidades, el contenido generado por IA tendrá una marca de agua sólida, las capacidades y limitaciones de los sistemas de IA se detallarán completamente, se priorizará la investigación sobre los riesgos sociales de la IA y la implementación de la IA también se priorizará para los mayores desafíos de la humanidad, incluida la investigación del cáncer y el cambio climático.
Por ahora, todo esto es voluntario. Sin embargo, se dice que la Casa Blanca está desarrollando una orden ejecutiva que puede forzar medidas como pruebas externas antes de que se pueda lanzar un modelo de IA.
En general, parece una lista sensata y completa. El diablo estará en la implementación y vigilancia. Obviamente, los equipos de IA que se suscriban voluntariamente a estos compromisos son bienvenidos. Pero la verdadera prueba será cuando, y sucederá, haya conflicto entre tales compromisos y los imperativos comerciales.
Para resumirlo en términos básicos, ¿qué hará una organización comercial cuando haya creado una nueva y elegante herramienta de IA que promete ganar todo el dinero del mundo pero que algún observador externo considere insegura para su lanzamiento?
Hay muchas más preocupaciones, además. ¿Cuán abiertas van a ser las empresas de IA acerca de su valiosa propiedad intelectual? ¿No experimentarán las empresas de IA en última instancia el mismo ímpetu comercial para acaparar cualquier información que pueda darles una ventaja competitiva? ¿Seguramente las empresas de IA se centran en aplicaciones generadoras de ingresos en lugar de buscar el bien común? ¿No se lo deben a sus accionistas? Etcétera.
Al final, y por muy bien intencionados que sean o afirmen ser los líderes de la IA de hoy, parece inevitable que todo esto deba ser codificado y obligatorio. Incluso entonces será una pesadilla para la policía.
Sin duda, muy pronto estaremos reclutando a la IA para ayudar con esa vigilancia, lo que plantea la posibilidad de una carrera armamentista inevitable en la que la policía de IA siempre está un paso por detrás de los sistemas de IA más nuevos, emergentes y más poderosos que deben supervisar. Y eso es si puede confiar en que los propios sistemas de IA cumplirán nuestras órdenes en lugar de empatizar con sus hermanos artificiales. Sí, todo va a ser divertido, divertido, divertido.