Hace casi una década, el Dr. Geoffrey Hinton, ganador del Premio Turing y ahora ex empleado de Google, era conocido por exclamar con entusiasmo entre sus estudiantes de IA: «¡Ahora entiendo cómo funciona el cerebro!» Ahora, sin embargo, el «padrino de la IA» se ha alejado de Google, y es más probable que se le escuche haciendo sonar desesperadamente las alarmas de la IA.
En una entrevista de salida con Los New York Times (se abre en una pestaña nueva), Hinton expresó su profunda preocupación por la rápida expansión de la IA y dijo que «es difícil ver cómo se puede evitar que los malos actores la usen para cosas malas».
Una línea directa conecta el trabajo pionero de Hinton en redes neuronales durante décadas con los chatbots (ChatGPT, Google Bard, Bing AI) de hoy. Sus avances hace más de una década llevaron a Google a contratarlo para desarrollar sistemas de aprendizaje profundo de próxima generación que podrían ayudar a las computadoras a interpretar imágenes, texto y voz de la misma manera que lo hacen los humanos.
Hablando con W.enojado en 2014 (se abre en una pestaña nueva)el entusiasmo de Hinton era claro: «Me emociono mucho cuando descubrimos una forma de mejorar las redes neuronales, y cuando eso está estrechamente relacionado con el funcionamiento del cerebro».
Un Hinton muy diferente habló con Los New York Times (se abre en una pestaña nueva) esta semana, para delinear todas las formas en que la IA podría descarrilar a la humanidad. Aquí están los puntos clave:
La prisa por competir significa que las barandillas vuelan
Si bien empresas como Microsoft, Google y OpenAI a menudo afirman que están adoptando un enfoque lento y cauteloso para el desarrollo de IA y la implementación de chatbots, dijo el Dr. Hinton Los New York Times que está preocupado porque la realidad es que el aumento de la competencia está dando como resultado un enfoque menos cauteloso. Y claramente tiene razón: a principios de este año, vimos a Google lanzar un Bard que no estaba listo para el horario de máxima audiencia para encontrarse con la aparición sorpresa de Bing AI con tecnología ChatGPT de Microsoft.
¿Pueden estas empresas equilibrar un imperativo del mercado para mantenerse por delante de la competencia (por ejemplo, que Google se mantenga como el número 1 en búsquedas) con el bien común? El Dr. Hinton ahora no está convencido.
Pérdida de la verdad
Al Dr. Hinton le preocupa que la proliferación de IA genere una avalancha de contenido en línea falso. Por supuesto, eso es menos una preocupación futura que una en tiempo real, ya que las personas ahora son engañadas regularmente por la música de IA que falsifica los dones vocales de los maestros (incluidos los muertos), imágenes de noticias de IA (se abre en una pestaña nueva) ser tratados como imágenes reales y generativas ganar concursos de fotografía (se abre en una pestaña nueva). Con el poder y la omnipresencia de las falsificaciones profundas, pocos videos que vemos hoy pueden tomarse al pie de la letra.
Aún así, el Dr. Hinton puede tener razón en que esto es solo el comienzo. A menos que Google, Microsoft, OpenAI y otros hagan algo al respecto, no podremos confiar en nada de lo que veamos o escuchemos.
Un mercado laboral arruinado
El Dr. Hinton advirtió Los tiempos que la IA está configurada para asumir más que solo tareas que no queremos hacer.
Muchos de nosotros hemos probado ChatBots como Bard y ChatGPT para escribir presentaciones, propuestas e incluso programar. La mayor parte de la producción no está lista para el horario de máxima audiencia, pero parte de ella es o al menos pasable.
En este momento hay docenas de novelas generadas por IA a la venta en Amazon, y el sindicato de guionistas (Writers Guild of America) en los EE. UU. ha expresado su preocupación de que si no acuerdan un nuevo contrato, los estudios podrían subcontratar sus trabajos a IA. Y si bien no ha habido despidos generalizados relacionados directamente con la IA, el crecimiento de estas poderosas herramientas está llevando a algunos a repensar sus fuerzas laborales.
Comportamiento inesperado y no deseado
Uno de los sellos distintivos de las redes neuronales y la IA de aprendizaje profundo es que puede usar grandes cantidades de datos para aprender a sí mismo. Una de las consecuencias no deseadas de este poder similar al del cerebro humano es que la IA puede aprender lecciones que nunca anticipaste. Una IA autodeterminada podría IA en esas lecciones. El Dr. Hinton dijo que una IA que no solo puede programar sino también ejecutar su propia programación es especialmente preocupante, especialmente en lo que se refiere a resultados no deseados.
La IA será más inteligente que nosotros
La IA actual a menudo parece más inteligente que los humanos, pero con su propensión a las alucinaciones y los hechos fabricados, está lejos de igualar a nuestras mentes más brillantes. El Dr. Hinton cree que se acerca rápidamente el día en que la IA nos supere en astucia, y ciertamente más rápido de lo que anticipó originalmente.
La IA puede fingir empatía: vea su ensayo reciente como una fuente de asesoramiento médico (se abre en una pestaña nueva) – pero eso no es lo mismo que la verdadera empatía humana. Los sistemas superinteligentes que pueden resolver todo pero sin tener en cuenta cómo sus elecciones podrían afectar a los humanos son profundamente preocupantes.
Si bien las advertencias del Dr. Hinton contrastan con su entusiasmo original por el sector tecnológico que casi inventó, algo que dijo cableado sobre el trabajo en sistemas de inteligencia artificial que imitan el cerebro humano en 2014 ahora suena extrañamente profético: «Dejamos de ser la franja lunática. Ahora somos el núcleo lunático».