{"id":969081,"date":"2024-01-17T19:00:34","date_gmt":"2024-01-17T19:00:34","guid":{"rendered":"https:\/\/magazineoffice.com\/openai-anuncia-un-equipo-para-incorporar-ideas-de-gobernanza-crowdsourced-en-sus-modelos\/"},"modified":"2024-01-17T19:00:37","modified_gmt":"2024-01-17T19:00:37","slug":"openai-anuncia-un-equipo-para-incorporar-ideas-de-gobernanza-crowdsourced-en-sus-modelos","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/openai-anuncia-un-equipo-para-incorporar-ideas-de-gobernanza-crowdsourced-en-sus-modelos\/","title":{"rendered":"OpenAI anuncia un equipo para incorporar ideas de gobernanza ‘crowdsourced’ en sus modelos"},"content":{"rendered":"
\n<\/p>\n
OpenAI dice que quiere implementar ideas del p\u00fablico sobre c\u00f3mo garantizar que sus futuros modelos de IA \u00abse alineen con los valores de la humanidad\u00bb.<\/p>\n
Con ese fin, la startup de IA est\u00e1 formando un nuevo equipo de investigadores e ingenieros de Collective Alignment para crear un sistema para recopilar y \u00abcodificar\u00bb informaci\u00f3n p\u00fablica sobre el comportamiento de sus modelos en productos y servicios OpenAI, anunci\u00f3 hoy la compa\u00f1\u00eda.<\/span><\/p>\n \u00abSeguiremos trabajando con asesores externos y equipos de subvenciones, incluida la ejecuci\u00f3n de pilotos para incorporar… prototipos en la direcci\u00f3n de nuestros modelos\u00bb, escribe OpenAI enuna publicaci\u00f3n de blog. \u00abEran <\/span>reclutar\u2026 ingenieros de investigaci\u00f3n de diversos or\u00edgenes t\u00e9cnicos para ayudar a construir este trabajo con nosotros\u201d.<\/span><\/p>\n El equipo de Alineaci\u00f3n Colectiva es una consecuencia del programa p\u00fablico de OpenAI, lanzado en mayo pasado, para otorgar subvenciones para financiar experimentos destinados a establecer un \u00abproceso democr\u00e1tico\u00bb para decidir qu\u00e9 reglas deben seguir los sistemas de IA. El objetivo del programa, dijo OpenAI en su debut, era financiar a personas, equipos y organizaciones para desarrollar pruebas de conceptos que pudieran responder preguntas sobre barreras de seguridad y gobernanza para la IA.<\/p>\n En su publicaci\u00f3n de blog de hoy, OpenAI resumi\u00f3 el trabajo de los beneficiarios de la subvenci\u00f3n, que abarc\u00f3 desde interfaces de video chat hasta plataformas para auditor\u00edas colaborativas de modelos de IA y \u201cenfoques para mapear creencias en dimensiones que pueden usarse para afinar el comportamiento del modelo. \u00bb Todo el c\u00f3digo utilizado en el trabajo de los beneficiarios se hizo p\u00fablico esta ma\u00f1ana, junto con breves res\u00famenes de cada propuesta y conclusiones de alto nivel.<\/p>\n OpenAI ha intentado presentar el programa como divorciado de sus intereses comerciales. Pero es un trago un poco dif\u00edcil de tragar, dadas las cr\u00edticas del CEO de OpenAI, Sam Altman, a la regulaci\u00f3n en la UE y en otros lugares. Altman, junto con el presidente de OpenAI, Greg Brockman, y el cient\u00edfico jefe, Ilya Sutskever, han argumentado repetidamente que el ritmo de la innovaci\u00f3n en IA es tan r\u00e1pido que no podemos esperar que las autoridades existentes controlen adecuadamente la tecnolog\u00eda; de ah\u00ed la necesidad de colaborar en el trabajo.<\/p>\n Algunos rivales de OpenAI, incluido Meta, han acusado a OpenAI (entre otros) de intentar asegurar la \u201ccaptura regulatoria de la industria de la IA\u201d presionando contra la I+D abierta en IA. Como era de esperar, OpenAI lo niega y probablemente se\u00f1alar\u00eda el programa de subvenciones (y el equipo de Alineaci\u00f3n Colectiva) como un ejemplo de su \u00abapertura\u00bb.<\/p>\n En cualquier caso, OpenAI est\u00e1 bajo un creciente escrutinio por parte de los responsables pol\u00edticos, enfrentando una investigaci\u00f3n en el Reino Unido sobre su relaci\u00f3n con su socio e inversor cercano Microsoft. La startup recientemente busc\u00f3 reducir su riesgo regulatorio en la UE en torno a la privacidad de los datos, aprovechando una subsidiaria con sede en Dubl\u00edn para reducir la capacidad de ciertos organismos de control de la privacidad en el bloque para actuar unilateralmente ante las preocupaciones.<\/p>\n Ayer, en parte para calmar a los reguladores, sin duda, OpenAI anunci\u00f3 que est\u00e1 trabajando con organizaciones para intentar limitar las formas en que su tecnolog\u00eda podr\u00eda usarse para influir o influir en las elecciones a trav\u00e9s de medios maliciosos. Los esfuerzos de la startup incluyen hacer m\u00e1s obvio cu\u00e1ndo las im\u00e1genes se generan con IA utilizando sus herramientas y desarrollar enfoques para identificar el contenido generado incluso despu\u00e9s de que las im\u00e1genes hayan sido modificadas.<\/p>\n<\/p><\/div>\n