Tanto el gobierno del Reino Unido como el de los EE. UU. han comenzado a dar vueltas con cautela en torno a la reciente aparición de poderosas tecnologías de inteligencia artificial y están dando los primeros pasos para intentar controlar el sector. La Autoridad Británica de Competencia y Mercados (CMA, por sus siglas en inglés), recién sacada de la alfombra de la propuesta de adquisición de Activision Blizzard por parte de Microsoft, ha comenzado una revisión de los sistemas subyacentes detrás de varias herramientas de IA. El gobierno de EE. UU. se sumó al emitir un comunicado en el que afirma que las empresas de IA tienen la «responsabilidad fundamental de asegurarse de que sus productos sean seguros antes de que se desplieguen o se hagan públicos».
Todo esto ocurre poco después de que el Dr. Geoffrey Hinton, a veces llamado «el padrino del aprendizaje profundo», renunció a Google (se abre en una pestaña nueva) y advirtió que la industria debe dejar de escalar la tecnología de IA y preguntarse «si pueden controlarla». Google es una de las muchas empresas tecnológicas realmente grandes, incluidas Microsoft y OpenAI, que han invertido enormemente en tecnologías de inteligencia artificial, y esa inversión bien puede ser parte del problema: estas empresas finalmente quieren ver de dónde provienen los beneficios.
La renuncia del Dr. Hinton se produce en medio de temores más amplios sobre el sector. El mes pasado vimos una carta conjunta con 30,000 signatarios, incluidas figuras tecnológicas prominentes como Elon Musk, advirtiendo sobre el efecto de la IA en áreas como los trabajos, el potencial de fraude y, por supuesto, la buena información errónea. El asesor científico del gobierno del Reino Unido, Sir Patrick Vallance, ha suplicado al gobierno que «se adelante» en estos temas y comparó el surgimiento de la tecnología con la Revolución Industrial.
«La IA irrumpió en la conciencia pública en los últimos meses, pero ha estado en nuestro radar durante algún tiempo». la directora ejecutiva de la CMA, Sarah Cardell, le dijo a The Guardian (se abre en una pestaña nueva). «Es crucial que los beneficios potenciales de esta tecnología transformadora sean fácilmente accesibles para las empresas y los consumidores del Reino Unido, mientras que las personas permanecen protegidas de problemas como información falsa o engañosa».
La revisión de CMA informará en septiembre y tiene como objetivo establecer algunos «principios rectores» para el futuro del sector. Podría decirse que el Reino Unido es uno de los líderes en el campo, con DeepMind con sede en el Reino Unido (propiedad de la empresa matriz de Google, Alphabet), entre otras grandes empresas de inteligencia artificial, incluida Stability AI (Stable Diffusion).
Mientras tanto, en los EE. UU., la vicepresidenta Kamala Harris se reunió con ejecutivos de Alphabet, Microsoft y OpenAI en la Casa Blanca, y luego emitió un comunicado en el que decía que «el sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos».
Esto se siente un poco como cerrar la puerta del establo después de que el caballo se ha escapado, pero la administración de Biden también anunció que gastará $140 millones en siete nuevos institutos nacionales de investigación de IA, enfocados en crear tecnologías que sean «éticas, confiables, responsables y que sirvan». el bien público». El desarrollo de IA en este momento está casi en su totalidad dentro del sector privado.
Supongo que finalmente están prestando atención, al menos, aunque te preguntes qué capacidad tenemos para poner freno a estas cosas. Un punto notable hecho por el Dr. Hinton es que, independientemente de la dirección que tomen los avances futuros, «es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas», antes de comparar el control de sus usos con una retroexcavadora.
«Tan pronto como tenga una buena tecnología mecánica, puede hacer cosas como retroexcavadoras que pueden cavar hoyos en el camino. Pero, por supuesto, una retroexcavadora puede romperle la cabeza», dijo Hinton. «Pero uno no quiere no desarrollar una retroexcavadora porque puede romperle la cabeza, eso se consideraría una tontería».