Gary Marcus solía llamar a la IA estúpida, ahora la llama peligrosa


En ese entonces, hace solo unos meses, las sutilezas de Marcus eran técnicas. Pero ahora que los grandes modelos de lenguaje se han convertido en un fenómeno global, su enfoque ha cambiado. El quid del nuevo mensaje de Marcus es que los chatbots de OpenAI, Google y otros son entidades peligrosas cuyos poderes conducirán a un tsunami de información errónea, errores de seguridad y «alucinaciones» difamatorias que automatizarán las calumnias. Esto parece cortejar una contradicción. Durante años, Marcus había denunciado que las afirmaciones de los constructores de AI estaban exageradas. ¿Por qué la IA ahora es tan formidable que la sociedad ahora debe restringirla?

Marcus, siempre locuaz, tiene una respuesta: “Sí, he dicho durante años que [LLMs] en realidad son bastante tontos, y todavía lo creo. Pero hay una diferencia entre el poder y la inteligencia. Y de repente les estamos dando mucho poder”. En febrero se dio cuenta de que la situación era lo suficientemente alarmante como para dedicar la mayor parte de su energía a abordar el problema. Eventualmente, dice, le gustaría dirigir una organización sin fines de lucro dedicada a aprovechar al máximo y evitar lo peor de la IA.

Marcus argumenta que para contrarrestar todos los daños y la destrucción potenciales, los legisladores, los gobiernos y los reguladores deben frenar el desarrollo de la IA. Junto con Elon Musk y docenas de otros científicos, nerds de la política y simplemente observadores asustados, firmó la ahora famosa petición que exige una pausa de seis meses en la capacitación de nuevos LLM. Pero admite que realmente no cree que una pausa como esa haga una diferencia y que firmó principalmente para alinearse con la comunidad de críticos de la IA. En lugar de un tiempo muerto de entrenamiento, preferiría una pausa en despliegue nuevos modelos o iterando los actuales. Presumiblemente, esto tendría que ser forzado en las empresas, ya que existe una competencia feroz, casi existencial, entre Microsoft y Google, con Apple, Meta, Amazon e innumerables nuevas empresas que desean ingresar al juego.

Marcus tiene una idea de quién podría hacer cumplir la ley. Últimamente ha insistido en que el mundo necesita, de inmediato, “una Agencia Internacional para la IA global, neutral y sin fines de lucro”, a la que se referiría con un acrónimo que suena como un grito (¡Iaai!).

Como describió en un artículo de opinión del que fue coautor en el Economista, tal organismo podría funcionar como la Agencia Internacional de Energía Atómica, que realiza auditorías e inspecciones para identificar programas nucleares incipientes. Presumiblemente, esta agencia monitorearía los algoritmos para asegurarse de que no incluyan sesgos o promuevan información errónea o se apoderen de las redes eléctricas mientras no estamos mirando. Si bien parece una exageración imaginar a los Estados Unidos, Europa y China trabajando juntos en esto, tal vez la amenaza de una inteligencia extraterrestre, aunque local, que derroque a nuestra especie podría llevarlos a actuar en interés del Equipo Humano. ¡Oye, funcionó con esa otra amenaza global, el cambio climático! Oh …

En cualquier caso, la discusión sobre el control de la IA ganará aún más fuerza a medida que la tecnología se entreteje cada vez más en nuestras vidas. Así que espere ver mucho más de Marcus y una gran cantidad de otras cabezas parlantes. Y eso no es algo malo. La discusión sobre qué hacer con la IA es saludable y necesaria, incluso si la tecnología de rápido movimiento bien puede desarrollarse independientemente de las medidas que adoptemos concienzudamente y con retraso. La rápida ascensión de ChatGPT a una herramienta comercial de uso múltiple, dispositivo de entretenimiento y confidente indica que, aterrador o no, queremos estas cosas. Como cualquier otro gran avance tecnológico, la superinteligencia parece destinada a brindarnos beneficios irresistibles, incluso cuando cambia el lugar de trabajo, nuestro consumo cultural e, inevitablemente, a nosotros.



Source link-46