Yann LeCun de Meta se une a otras 70 personas para pedir una mayor apertura en el desarrollo de la IA


El mismo día que el Reino Unido reunió a algunos de los líderes corporativos y políticos del mundo en la misma sala de Bletchley Park para la Cumbre de Seguridad de la IA, más de 70 firmantes pusieron su nombre en una carta pidiendo un enfoque más abierto para el desarrollo de la IA.

«Estamos en un momento crítico en la gobernanza de la IA», señala la carta, publicada por Mozilla. “Para mitigar los daños actuales y futuros de los sistemas de IA, debemos adoptar la apertura, la transparencia y el amplio acceso. Esto debe ser una prioridad global”.

Al igual que lo que ha sucedido en la esfera más amplia del software durante las últimas décadas, un telón de fondo importante para la floreciente revolución de la IA ha sido lo abierto versus lo propietario, y los pros y los contras de cada uno. Durante el fin de semana, el científico jefe de inteligencia artificial de Meta, padre de Facebook, Yann LeCun llevó a X para denunciar los esfuerzos de algunas empresas, incluidas OpenAI y DeepMind de Google, para asegurar la “captura regulatoria de la industria de la IA” mediante el cabildeo contra la I+D abierta en IA.

“Si sus campañas de alarmismo tienen éxito, *inevitablemente* resultarán en lo que usted y yo identificaríamos como una catástrofe: un pequeño número de empresas controlarán la IA”, escribió LeCun.

Y este es un tema que continúa impregnando los crecientes esfuerzos de gobernanza que surgen de la orden ejecutiva del presidente Biden y la Cumbre de Seguridad de la IA organizada por el Reino Unido esta semana. Por un lado, los jefes de las grandes empresas de IA advierten sobre las amenazas existenciales que plantea la IA, argumentando que la IA de código abierto puede ser manipulada por malos actores para crear más fácilmente armas químicas (por ejemplo), mientras que, por otro lado, los argumentos contrarios postulan que tal alarmismo es simplemente para ayudar a concentrar el control en manos de unas pocas empresas proteccionistas.

control propietario

La verdad probablemente tenga más matices que eso, pero es en ese contexto que decenas de personas firmaron hoy una carta abierta pidiendo más apertura.

«Sí, los modelos disponibles abiertamente conllevan riesgos y vulnerabilidades: actores maliciosos pueden abusar de los modelos de IA o implementarlos por desarrolladores mal equipados», dice la carta. “Sin embargo, hemos visto una y otra vez que lo mismo se aplica a las tecnologías patentadas, y que un mayor acceso y escrutinio público hace que la tecnología sea más segura, no más peligrosa. La idea de que un control estricto y exclusivo de los modelos fundamentales de IA es el único camino para protegernos del daño a escala social es, en el mejor de los casos, ingenua y, en el peor, peligrosa.

El estimado investigador de IA LeCun, que se unió a Meta hace 10 años, adjuntó su nombre a la carta, junto con muchos otros nombres notables, incluido el cofundador de Google Brain y Coursera, Andrew Ng, el cofundador y director de tecnología de Hugging Face, Julien Chaumond, y el renombrado tecnólogo Brian Behlendorf de la Fundación Linux.

Específicamente, la carta identifica tres áreas principales donde la apertura puede ayudar a un desarrollo seguro de la IA, incluso permitiendo una mayor investigación y colaboración independientes, aumentando el escrutinio público y la rendición de cuentas, y reduciendo las barreras de entrada para nuevos participantes en el espacio de la IA.

“La historia nos muestra que apresurarse hacia el tipo de regulación equivocado puede conducir a concentraciones de poder que perjudiquen la competencia y la innovación”, señala la carta. “Los modelos abiertos pueden contribuir a un debate abierto y mejorar la formulación de políticas. Si nuestros objetivos son la seguridad y la rendición de cuentas, entonces la apertura y la transparencia son ingredientes esenciales para llegar allí”.





Source link-48