Los líderes de AI envían una advertencia de una frase sobre el «riesgo de extinción»


Más de 350 ejecutivos, investigadores y líderes de la industria de IA firmaron una advertencia de una oración publicada el martes, diciendo que debemos tratar de evitar que su tecnología destruya el mundo.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, se lee en la declaración, publicada por el Centro para la Seguridad de la IA. Los signatarios, incluido Sam Altman, director ejecutivo de IA abiertaDemis Hassabis, CEO de Google Mente profundaDarío Amodei, director general de antrópicoy Geoffrey Hinton, el llamado «Padrino de la IA» que recientemente renunció a Google por temores sobre el trabajo de su vida.

A medida que la conversación pública sobre la IA pasó de asombrado a distópico durante el último año, un número creciente de defensores, legisladores e incluso Ejecutivos de IA unidos en torno a un único mensaje: la IA podría destruir el mundo y deberíamos hacer algo sobre eso Lo que debería ser ese algo, específicamente, está completamente inestable, y hay poco consenso sobre la naturaleza o la probabilidad de estos riesgos existenciales.

No hay duda de que la IA está lista para inundar el mundo con desinformacióny un una gran cantidad de puestos de trabajo probablemente automatizarse hasta el olvido. La pregunta es hasta dónde llegarán estos problemas y cuándo o si desmantelarán el orden de nuestra sociedad.

Generalmente, Los ejecutivos de tecnología le dicen que no se preocupe por las amenazas de su trabajo, pero el negocio de la IA está tomando la táctica opuesta. OpenAI Sam Altman testificó ante el Comité Judicial del Senado este mes, llamando a CAvances para establecer una agencia reguladora de la IA. La empresa publicó un entrada en el blog argumentando que las empresas deberían necesitar una licencia si quieren trabajar en la «súper inteligencia» de IA. Altman y los jefes de antrópico y Google DeepMind se reunieron recientemente con el presidente Biden en la Casa Blanca para conversar sobre la regulación de la IA.

Sin embargo, las cosas se rompen cuando se trata de detalles, lo que explica la extensión de la declaración del martes. Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, dijo al New York Times lo mantuvieron breve porque los expertos no están de acuerdo en los detalles sobre los riesgos, o qué, exactamente, se debe hacer para abordarlos. “No queríamos presionar por un menú muy grande de 30 posibles intervenciones”, dijo Hendrycks. “Cuando eso sucede, diluye el mensaje”.

Puede parecer extraño que las empresas de IA pidan al gobierno que las regule, lo que aparentemente se interpondría en su camino. Es posible que, a diferencia de los líderes de otras empresas tecnológicas, los ejecutivos de IA realmente se preocupen por la sociedad. Sin embargo, hay muchas razones para pensar que todo esto es un poco más cínico de lo que parece. En muchos aspectos, las reglas de toque ligero serían buenas para los negocios. Esto no es nuevo: algunos de los mayores defensores de una ley nacional de privacidadpor ejemplo, incluyen Google, Meta y microsoft.

Por un lado, la regulación les da a las empresas una excusa cuando los críticos comienzan a armar un escándalo. Eso es algo que vemos en la industria del petróleo y el gas, donde las empresas básicamente se dan por vencidas y dicen: “Bueno, estamos cumpliendo con la ley. ¿Qué más quieres?» De repente, el problema son los reguladores incompetentes, no las corporaciones pobres.

La regulación también hace que sea mucho más costoso operar, lo que puede ser un beneficio para las empresas establecidas cuando obstaculiza a las nuevas empresas más pequeñas que, de otro modo, podrían ser competitivas. Eso es especialmente relevante en los negocios de IA, donde todavía es un juego de cualquiera y los desarrolladores más pequeños podrían representar una amenaza para los grandes. Con el tipo correcto de regulación, compañías como OpenAI y Google podrían esencialmente subir la escalera detrás de ellas. Además de todo eso, las leyes nacionales débiles se interponen en el camino de los molestos legisladores estatales, que a menudo presionan más en el negocio de la tecnología.

Y no olvidemos que la regulación que piden los empresarios de IA se trata de problemas hipotéticos que podrían ocurrir más adelante, no de problemas reales que están ocurriendo ahora. Herramientas como ChatGPT inventar mentirasellos tienen horneado-en el racismoy son ya ayudando a las empresas eliminar puestos de trabajo. En los llamados de OpenAI para regular la superinteligencia, una tecnología que no existen: la compañía hace una sola referencia a los problemas reales que ya enfrentamos: «También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual».

Sin embargo, hasta ahora, a OpenAI no parece gustarle que la gente intente mitigar esos riesgos. La Unión Europea tomó medidas para hacer algo acerca de estos problemas, proponiendo reglas especiales para los sistemas de IA en «alto nivel».áreas de riesgo” como elecciones y atención médica, y Altman amenazó con sacar a su empresa de la UE operaciones en total. Más tarde regresó la declaración y dijo OpenAI no tiene planes de salir de Europa, al menos no todavía.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.



Source link-45