{"id":868927,"date":"2023-11-03T14:10:01","date_gmt":"2023-11-03T14:10:01","guid":{"rendered":"https:\/\/magazineoffice.com\/yann-lecun-de-meta-se-une-a-otras-70-personas-para-pedir-una-mayor-apertura-en-el-desarrollo-de-la-ia\/"},"modified":"2023-11-03T14:10:05","modified_gmt":"2023-11-03T14:10:05","slug":"yann-lecun-de-meta-se-une-a-otras-70-personas-para-pedir-una-mayor-apertura-en-el-desarrollo-de-la-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/yann-lecun-de-meta-se-une-a-otras-70-personas-para-pedir-una-mayor-apertura-en-el-desarrollo-de-la-ia\/","title":{"rendered":"Yann LeCun de Meta se une a otras 70 personas para pedir una mayor apertura en el desarrollo de la IA"},"content":{"rendered":"
\n<\/p>\n
El mismo d\u00eda que el Reino Unido reuni\u00f3 a algunos de los l\u00edderes corporativos y pol\u00edticos del mundo en la misma sala de Bletchley Park para la Cumbre de Seguridad de la IA, m\u00e1s de 70 firmantes pusieron su nombre en una carta pidiendo un enfoque m\u00e1s abierto para el desarrollo de la IA.<\/p>\n
\u00abEstamos en un momento cr\u00edtico en la gobernanza de la IA\u00bb, se\u00f1ala la carta, publicada por Mozilla. \u201cPara mitigar los da\u00f1os actuales y futuros de los sistemas de IA, debemos adoptar la apertura, la transparencia y el amplio acceso. Esto debe ser una prioridad global\u201d.<\/p>\n
Al igual que lo que ha sucedido en la esfera m\u00e1s amplia del software durante las \u00faltimas d\u00e9cadas, un tel\u00f3n de fondo importante para la floreciente revoluci\u00f3n de la IA ha sido lo abierto versus lo propietario, y los pros y los contras de cada uno. Durante el fin de semana, el cient\u00edfico jefe de inteligencia artificial de Meta, padre de Facebook, Yann LeCun llev\u00f3 a X<\/a> para denunciar los esfuerzos de algunas empresas, incluidas OpenAI y DeepMind de Google, para asegurar la \u201ccaptura regulatoria de la industria de la IA\u201d mediante el cabildeo contra la I+D abierta en IA.<\/p>\n \u201cSi sus campa\u00f1as de alarmismo tienen \u00e9xito, *inevitablemente* resultar\u00e1n en lo que usted y yo identificar\u00edamos como una cat\u00e1strofe: un peque\u00f1o n\u00famero de empresas controlar\u00e1n la IA\u201d, escribi\u00f3 LeCun.<\/p>\n Y este es un tema que contin\u00faa impregnando los crecientes esfuerzos de gobernanza que surgen de la orden ejecutiva del presidente Biden y la Cumbre de Seguridad de la IA organizada por el Reino Unido esta semana. Por un lado, los jefes de las grandes empresas de IA advierten sobre las amenazas existenciales que plantea la IA, argumentando que la IA de c\u00f3digo abierto puede ser manipulada por malos actores para crear m\u00e1s f\u00e1cilmente armas qu\u00edmicas (por ejemplo), mientras que, por otro lado, los argumentos contrarios postulan que tal alarmismo es simplemente para ayudar a concentrar el control en manos de unas pocas empresas proteccionistas.<\/p>\n La verdad probablemente tenga m\u00e1s matices que eso, pero es en ese contexto que decenas de personas firmaron hoy una carta abierta pidiendo m\u00e1s apertura.<\/p>\n \u00abS\u00ed, los modelos disponibles abiertamente conllevan riesgos y vulnerabilidades: actores maliciosos pueden abusar de los modelos de IA o implementarlos por desarrolladores mal equipados\u00bb, dice la carta. \u201cSin embargo, hemos visto una y otra vez que lo mismo se aplica a las tecnolog\u00edas patentadas, y que un mayor acceso y escrutinio p\u00fablico hace que la tecnolog\u00eda sea m\u00e1s segura, no m\u00e1s peligrosa. La idea de que un control estricto y exclusivo de los modelos fundamentales de IA es el \u00fanico camino para protegernos del da\u00f1o a escala social es, en el mejor de los casos, ingenua y, en el peor, peligrosa.<\/p>\n El estimado investigador de IA LeCun, que se uni\u00f3 a Meta hace 10 a\u00f1os, adjunt\u00f3 su nombre a la carta, junto con muchos otros nombres notables, incluido el cofundador de Google Brain y Coursera, Andrew Ng, el cofundador y director de tecnolog\u00eda de Hugging Face, Julien Chaumond, y el renombrado tecn\u00f3logo Brian Behlendorf de la Fundaci\u00f3n Linux.<\/p>\n Espec\u00edficamente, la carta identifica tres \u00e1reas principales donde la apertura puede ayudar a un desarrollo seguro de la IA, incluso permitiendo una mayor investigaci\u00f3n y colaboraci\u00f3n independientes, aumentando el escrutinio p\u00fablico y la rendici\u00f3n de cuentas, y reduciendo las barreras de entrada para nuevos participantes en el espacio de la IA.<\/p>\n \u201cLa historia nos muestra que apresurarse hacia el tipo de regulaci\u00f3n equivocado puede conducir a concentraciones de poder que perjudiquen la competencia y la innovaci\u00f3n\u201d, se\u00f1ala la carta. \u201cLos modelos abiertos pueden contribuir a un debate abierto y mejorar la formulaci\u00f3n de pol\u00edticas. Si nuestros objetivos son la seguridad y la rendici\u00f3n de cuentas, entonces la apertura y la transparencia son ingredientes esenciales para llegar all\u00ed\u201d.<\/p>\n<\/p><\/div>\ncontrol propietario<\/h2>\n