«El padrino de la IA»: Geoffrey Hinton ha dimitido de Google y ahora advierte de los peligros de la inteligencia artificial


Ayudó a la IA a abrirse paso. Ahora, a Geoffrey Hinton le preocupa que los chatbots como GPT-4 puedan causar daños graves.

Geoffrey Hinton (izquierda) ha estado investigando la IA durante años. Ahora advierte de sus peligros.

Cole Burston/Bloomberg

Geoffrey Hinton cambió la forma en que las máquinas ven el mundo hace aproximadamente una década. En la Universidad de Toronto, donde entonces era profesor, él y dos estudiantes graduados desarrollaron una red neuronal que podía analizar miles de fotos y aprender a reconocer objetos como flores o automóviles. Y con una certeza que hasta entonces parecía inalcanzable.

La empresa que fundó Hinton con los dos estudiantes de posgrado fue comprada por Google poco después por 44 millones de dólares. Desde entonces, el psicólogo cognitivo e informático de 75 años ha trabajado para la empresa de tecnología y se ha convertido en una de las figuras más destacadas en el campo. En 2018, él y dos colegas de mucho tiempo recibieron el Premio Turing, que se considera el Premio Nobel en informática.

A principios de esta semana, Hinton, a quien a menudo se hace referencia como el «padrino» de la inteligencia artificial (IA), en el New York Times anunció su salida de Google. Su edad jugó un papel en esto. Pero también quiere poder hablar libremente sobre los peligros de la IA en el futuro.

En declaraciones a la BBC, quien luego lo entrevistó, describe a los chatbots de IA como «bastante peligrosos». Dice: «Por el momento no son más inteligentes que nosotros, que yo sepa. Pero creo que podrían serlo pronto».

Preocúpate por las fotos falsas y los robots asesinos

La preocupación inmediata de Hinton es que Internet podría verse inundado con fotos, videos y textos falsos, lo que dejaría al usuario promedio incapaz de distinguir entre lo que es verdadero y lo que es falso. Le preocupa que la IA ponga patas arriba el mercado laboral, y que personas como asistentes legales o traductores que realizan trabajos rutinarios puedan perder sus empleos.

Las futuras variantes de la tecnología podrían incluso representar una amenaza para la humanidad porque a menudo infieren un comportamiento inesperado a partir de la gran cantidad de datos que analizan, dice Hinton. Esto se convertiría en un problema si las empresas permitieran que la IA no solo generara código de computadora de manera independiente, sino que también lo usara de manera independiente. Teme el día en que los sistemas de armas verdaderamente autónomos (robots asesinos) se conviertan en realidad.

El mismo Hinton ha contribuido al hecho de que la IA se está volviendo tan poderosa que ahora advierte contra ella. Su investigación pionera en redes neuronales y aprendizaje profundo sentó las bases para chatbots generativos como GPT-4 que actualmente electrifican al mundo. Bajo Redes neuronales se refiere a sistemas formados por algoritmos que se modelan aproximadamente en la forma en que nuestro cerebro funciona y aprende. Las redes neuronales permiten que una IA aprenda de grandes conjuntos de datos lo que se conoce como aprendizaje profundo designada.

Las redes neuronales han acompañado a Hinton a lo largo de su carrera académica. En 1972, como estudiante de doctorado en la Universidad de Edimburgo, Hinton descubrió su fascinación por este campo. Ocho años más tarde se convirtió en profesor en la Universidad Carnegie Mellon en Pittsburgh, Pensilvania. Pronto decidió mudarse a Toronto. La razón que dio Hinton fue que no quería aceptar fondos del Pentágono. La mayor parte de la investigación de IA en Estados Unidos fue financiada por el Departamento de Defensa en ese momento. Hinton siempre ha sido muy escéptico sobre la idea de usar IA en el campo de batalla.

En 2012, en Toronto, hizo su gran avance en los sistemas neuronales, lo que finalmente llevó a Hinton a Google. Ilya Sutskever, uno de los estudiantes de doctorado involucrados, se convirtió más tarde en el científico jefe de la empresa Open AI, en la que Microsoft tiene una participación. Ambas empresas siguieron adelante con el desarrollo de sus redes neuronales, que podían procesar una cantidad cada vez mayor de datos. Hinton lo vio como una forma poderosa para que las máquinas entendieran y generaran lenguaje. Pero pensó que seguía siendo inferior a la forma en que los humanos manejaban el lenguaje.

el desarrollo se ha acelerado

En el último año ha cambiado de opinión. Google y Open AI les habían dado a sus chatbots Bard y Chat-GPT cantidades cada vez mayores de datos para procesar, y Hinton llegó a creer que los sistemas habían superado parcialmente la inteligencia humana. «Tal vez lo que sucede en estos sistemas es en realidad mucho mejor que lo que sucede en el cerebro», dijo Hinton al New York Times.

Durante mucho tiempo, Google tuvo mucho cuidado con las aplicaciones de IA. Eso ahora ha cambiado, dice Hinton. Después de que Microsoft enriqueciera su motor de búsqueda Bing con tecnología Open AI, estalló una competencia entre las dos empresas que difícilmente podría detenerse sin una regulación global. Sin embargo, Hinton estima que las perspectivas de esto son muy escasas. Su esperanza es que los investigadores se unan y trabajen en formas de controlar la tecnología.

Hinton no está solo en su advertencia sobre el desarrollo de IA no regulado. En marzo de este año, alrededor de mil personas del sector tecnológico llamaron en una carta abierta para interrumpir el entrenamiento de los sistemas de IA durante seis meses. Los firmantes también incluyen celebridades como Elon Musk, Yuval Noah Harari y Yoshua Bengio, quienes compartieron el Premio Turing 2018 con Hinton. El propio Hinton no firmó este y otros llamamientos similares. No quería criticar públicamente a su empleador en ese momento, dice.

¿Se arrepiente del trabajo de su vida? Una parte de él hace eso, dice hoy. Pero se tranquilizó con la excusa habitual en esos momentos: «Si no lo hubiera hecho yo, lo habría hecho otro».



Source link-58