En una cumbre en la Casa Blanca este viernes, siete de las principales empresas de IA del mundo se comprometieron a mejorar las medidas de seguridad en torno a sus productos de IA. Después de meses de consultas y solicitudes de comentarios, el acuerdo entre la Casa Blanca y las empresas con inversión en inteligencia artificial Amazon, Anthropic, Meta, Microsoft, Google, Inflection y OpenAI busca abordar las preocupaciones de la Administración con respecto a los riesgos y peligros de los sistemas de inteligencia artificial.
Una de las medidas acordadas es un aumento de la financiación para la investigación de la discriminación, como una forma de contrarrestar los sesgos algorítmicos que actualmente son inherentes a las redes de IA.
Las empresas también acordaron realizar inversiones adicionales en ciberseguridad. Si alguna vez desarrolló un proyecto o codificó algo dentro de una herramienta como ChatGPT, sabe cuán completa es la información contenida en su chat de IA. Y ya se han filtrado suficientes credenciales de usuario de ChatGPT en línea, sin culpa de OpenAI, que es lo que se pretende combatir con la mayor inversión en seguridad cibernética.
También se prometió la implementación de marcas de agua en el contenido generado por IA, un tema que ha estado particularmente de moda últimamente, por una variedad de razones.
Está el punto de vista de los derechos de autor, que ya ha visto múltiples demandas iniciadas en compañías de IA generativa: marcar con agua el contenido generado por IA sería una forma de calmar los temores de que los datos emergentes generados por humanos (los que se producen automáticamente solo por actuar nuestras vidas) se diluyen cada vez más en un mar de contenido generado por IA que mejora rápidamente.
También está el ángulo de impacto sistémico: ¿qué trabajos se verán afectados por la IA? Sí, hay suficiente necesidad en el mundo para eventualmente absorber a los trabajadores hacia otras industrias menos afectadas, pero esa transición tiene costos humanos, económicos y temporales. Si cambian demasiado, demasiado rápido, toda la economía y el sistema laboral podrían colapsar.
Por supuesto, la marca de agua de los datos generados por IA (o datos sintéticos, como se los ha llamado más recientemente y con frecuencia) también es de interés para las empresas de IA. No quieren que sus IA eventualmente se vuelvan LOCAS debido a conjuntos de datos sintéticos, conjuntos de datos envenenados, ni por la incapacidad de distinguir los datos sintéticos de los datos emergentes más seguros, pero mucho más costosos.
Y si los problemas relacionados con el entrenamiento recursivo de las IA siguen siendo demasiado difíciles de resolver durante demasiado tiempo ahora que la IA está fuera de la botella, los desarrolladores de IA pronto podrían quedarse sin buenos conjuntos de datos con los que seguir entrenando sus redes.
Todas las promesas fueron voluntarias, posiblemente como muestra de buena voluntad por parte de las corporaciones que más invirtieron en IA. Pero hay una ventaja adicional: un movimiento como este también quita algo de la ventaja de «¿podemos controlar la IA al ritmo que estamos yendo actualmente?» debate. Si los propios desarrolladores de AI están dispuestos a aumentar voluntariamente la seguridad de sus sistemas, entonces tal vez esta también sea un área en la que también sean buenos guardianes (aunque su millaje puede variar).
Parte del problema con este enfoque es que estas son solo siete empresas: ¿qué pasa con los cientos de otras empresas que desarrollan productos de IA? ¿Se puede confiar en los que ya son más pequeños y están en desventaja frente a gigantes como OpenAI y Microsoft? Porque esas son las empresas que tienen más que ganar sacando a la fuerza el producto del que depende su sustento al aire libre sin preparación. Definitivamente no sería la primera vez que un producto se apresura a monetizarse.
Los compromisos requerían validación interna y externa y verificación de que se están cumpliendo activamente (pero siempre hay descuidos, errores de comunicación, documentos perdidos y lagunas).
El problema aquí es que la IA presenta un riesgo fundamental de nivel de extinción, y hay un lado de ese borde en el que definitivamente no queremos estar.