El creador de ChatGPT es ‘optimista’, puede obtener las leyes de IA que quiere


Sam Altman, director ejecutivo del fabricante de ChatGPT, OpenAI, está finalizando una gira de reuniones con líderes mundiales en un esfuerzo por dirigir la regulación mundial de la IA. Altman y su compañía quieren que los legisladores piensen más sobre un futuro potencial en el que la IA destruye la sociedad, y menos sobre los problemas que la IA causará a corto plazo. En una charla con estudiantes en Tokio el lunes, Altman dijo que cree que la estrategia está funcionando.

“Una de las razones de este viaje fue poder hablar con líderes de todo el mundo sobre lo que creemos que debe suceder a nivel mundial”, dijo Altman en la charla. “Llegué al viaje… escéptico de que fuera posible obtener una cooperación global a corto plazo para reducir el riesgo existencial, pero ahora estoy terminando el viaje sintiéndome bastante optimista de que podemos lograrlo”.

Altman se quedó corto en detalles, pero él y sus hermanos de IA han dejado en claro lo que «creen que debe suceder» cuando se trata de gobernar su industria. en un reciente audiencia en el Congreso de EE. UU.Altman tuvo una charla amistosa sobre cómo el trabajo que está haciendo algún día podría destruirnos a todos, y sugirió que el enfoque principal debería ser una nueva agencia reguladora que supervise a cualquiera que trabaje en «superinteligencia.» Súperinteligencia es un término para una futura tecnología hipotética de inteligencia artificial que es tan inteligente como un ser humano, ¡o más inteligente! A diferencia de ChatGPT, esa tecnología no existe ahora, y puede que nunca.

Altman reconoce que la IA también podría causar problemas en este momento, pero estas preocupaciones parecen una ocurrencia tardía. En una publicación de blog reciente sobre la regulación en el sitio web de OpenAI, los líderes de la compañía dieron a los problemas no hipotéticos exactamente una frase que merece atención: «También debemos mitigar los riesgos de la tecnología de IA actual».

Esos riesgos no son imaginarios. Las herramientas de IA hacen que la creación de océanos de contenido sea un ejercicio trivial, que probablemente marcará el comienzo una nueva era de desinformación donde tendremos que cuestionar si cada cita, imagen, y el video es falso. Debido a que las herramientas de IA están entrenadas para imitar los datos existentes, también pueden exacerbar los sesgos y los problemas estructurales de la sociedad. Ya hemos visto cómo ChatGPT o el chatbot de Bing de Microsoft puede ser coaccionado a escupir odio habla en ambientes controlados. En la naturaleza, estas herramientas pueden promover sutil e inadvertidamente ideas dañinas en formas que son difíciles de detectar. Y, por supuesto, las herramientas de IA eliminarán una cantidad significativa de trabajos para personas que no son robots.

Aún así, hay algo de esperanza para cualquiera que piense que los gobiernos del mundo deberían considerar el impacto de la Tecnología de IA que tenemos ahora mismo el mundo real.

El primer ministro del Reino Unido, Rishi Sunak, anunció el lunes que liderar fabricantes de IA Google Deep Mind, OpenAI, y Anthropic acordaron dar acceso al gobierno británico a sus modelos con fines de investigación y seguridad, según politico. Sunak dijo que el acceso permitirá a su gobierno “ayudar a construir mejores evaluaciones y ayudarnos a comprender mejor las oportunidades y los riesgos de estos sistemas”. Sin embargo, Sunak parecía obsesionado con convertir al Reino Unido en una “isla de innovación”, en lugar de mitigar los problemas de la tecnología. Politico informó que el Primer Ministro se negó a presentar propuestas específicas de legislación.

Por ahora, la Unión Europea parece ser lo más cercano a regulación significativa de la IA entre las principales potencias de la IA. A ley propuesta en la UE establecería pautas generales para la IA, prohibiendo herramientas con «riesgos inaceptables» como los sistemas de puntuación social y estableciendo una regulación estricta para casos de uso como la evaluación de solicitantes de empleo. En respuesta, Altman inicialmente dijo OpenAI podría tener que dejar de operar en la UE, una amenaza de la que se retractó poco después. China ha establecido leyes estrictas que obligan a AI a cumplir con las normas del Partido Comunistauna ofensiva legal que tiene preocupados a expertos en derechos humanos.

Cualquiera que siga el fracaso de los legisladores estadounidenses durante décadas para regular los problemas tecnológicos más importantes no se sorprenderá al saber que EE. UU. se está quedando muy atrás en la carrera por la legislación de IA. Nuestro cuadro de congresistas que envejece está muy preocupado por todo este asunto de la IA, pero hasta ahora, no parecen estar lo suficientemente emocionados como para hacer mucho trabajo real. El gobierno federal casi ha renunciado a aprobar nuevas leyes en esta área, y las propuestas más prometedoras para la regulación de la IA modificarían las leyes que ya tenemos en los libros.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.



Source link-45