COMENTARIO – El jefe de Open AI advierte sobre la IA del futuro: está menos interesado en los problemas del ahora


Sam Altman, el CEO detrás de Chat-GPT, pidió al Senado de los EE. UU. que regule la inteligencia artificial, en la UE lo critica; esto es solo una contradicción a primera vista.

En serio, Altman testificó ante el Senado de los Estados Unidos sobre los peligros de la inteligencia artificial. Pero las reglas específicas le molestan.

Elizabeth Frantz / Reuters

Hace dos semanas, Sam Altman habló significativamente ante el Senado de los EE. UU.: «Las cosas podrían salir completamente mal» si los políticos no desarrollaran organismos de control para la inteligencia artificial (IA). El jefe de Open AI estaba literalmente rogando por una regulación.

A la semana siguiente descubrió en Londres que las reglas planeadas por la UE iban demasiado lejos y amenazó con retirar Chat-GPT de la UE. Eso puede haber sorprendido a algunos. Pero es sólo una contradicción a primera vista.

Cuando Sam Altman advierte sobre los riesgos de la IA, a menudo se trata de sistemas poderosos y «superinteligentes». En lugar de charlar sobre GPT, habla de lo que aún podría surgir: una herramienta de manipulación que socava la democracia; una inteligencia que puede hacer más en todas las áreas que el hombre e incluso podría someterlo.

Esos son los escenarios que preocupan a Sam Altman. Preocupaciones honestas, eso fue evidente en su comparecencia ante el Senado de los Estados Unidos. También han sido el foco de Open AI desde su fundación: desde el principio, el objetivo era construir una inteligencia artificial abrumadora y garantizar que no dañara a la humanidad, sino que la beneficiara.

La UE se enfrenta a escenarios muy concretos

Pero los sistemas de IA no solo pueden causar daños si son demasiado inteligentes, sino todo lo contrario. Imaginemos una herramienta de IA que selecciona candidatos. ¿Qué pasa si pone a un cierto grupo de personas en desventaja sin motivo? ¿Qué pasa si promete detectar emociones y rasgos de personalidad, pero se basa en pseudociencia o simplemente funciona mal?

Estos son los escenarios a los que se enfrenta la UE. Con razón, porque tales sistemas ya están en uso. ¿Deberían los fabricantes ser responsables de los errores? ¿Qué obligaciones de transparencia tienen que cumplir? ¿Qué derechos tienen los afectados?

La UE quiere establecer estándares mínimos, especialmente para los sistemas de IA en áreas de riesgo como el trabajo, la escuela, la salud y la policía. debería ser nuevo Los sistemas más generales como el chat GPT también pueden verse afectados por las reglas.

Eso tiene sentido. Porque Open AI vende su lenguaje AI a empresas que lo integran en sus productos como un motor. Las empresas más pequeñas podrían convertir la IA de voz general en un chatbot solo legal o en un transcriptor escolar.

Por el momento están haciendo esto sin saber con qué métodos y datos se entrenó Chat-GPT. Así que revendes el cerdo en un santiamén. Está claro que la UE también quiere establecer estándares aquí.

La IA generativa no tiene que venir de Open AI

Altman no está contento con esto por varias razones. En primer lugar, si Open AI tiene que revelar cómo entrenó su IA, parece menos «mágico». En segundo lugar, la competencia podría copiar ideas. En tercer lugar, no está claro si la empresa tenía los derechos necesarios sobre los datos que se incluyeron en la IA. Contra algunos fabricantes de imagen AI ya se están ejecutando quejarse por artistas Los afectados son aquellos que han revelado qué datos usaron para entrenar a la IA. La transparencia te hace más vulnerable.

Las reglas de responsabilidad o el requisito de que una IA no debe crear ningún contenido ilegal también podrían plantear problemas para Open AI. Los sistemas de IA generativa tienden a decir algo incorrecto o problemático a veces. Es muy difícil hacerlos de forma completamente segura y correcta. Altman tiene todo el derecho de cabildear en su contra. Y, por supuesto, la UE debería utilizar el sentido de la proporción para decidir qué normas son realmente necesarias.

Sin embargo, uno no debería estar demasiado impresionado por la amenaza de Altman de que chat-GPT simplemente sería retirado del mercado de la UE si las leyes fueran demasiado estrictas. Esto se muestra con el ejemplo de Napster. El servicio para compartir música y películas sentó las bases para la transmisión alrededor del cambio de milenio. Pero era ilegal. Como resultado, se cerró Napster, pero se mantuvo la transmisión como tecnología. Asimismo, ya no es imaginable un futuro sin IA generativa, sino sin IA abierta.



Source link-58