Lo que realmente convirtió a Geoffrey Hinton en un Doomer de IA


“Muchos de los titulares han dicho que creo que debería detenerse ahora, y nunca he dicho eso”, dice. “En primer lugar, no creo que eso sea posible, y creo que deberíamos seguir desarrollándolo porque podría hacer cosas maravillosas. Pero debemos esforzarnos por igual en mitigar o prevenir las posibles malas consecuencias”.

Hinton dice que no dejó Google para protestar por su manejo de esta nueva forma de IA. De hecho, dice, la empresa se movió con relativa cautela a pesar de tener una ventaja en el área. Los investigadores de Google inventaron un tipo de red neuronal conocida como transformador, que ha sido crucial para el desarrollo de modelos como PaLM y GPT-4.

En la década de 1980, Hinton, profesor de la Universidad de Toronto, junto con un puñado de otros investigadores, buscó dotar a las computadoras de una mayor inteligencia entrenando redes neuronales artificiales con datos en lugar de programarlas de la manera convencional. Las redes podían digerir píxeles como entrada y, a medida que veían más ejemplos, ajustaban los valores conectando sus neuronas toscamente simuladas hasta que el sistema pudiera reconocer el contenido de una imagen. El enfoque se mostró prometedor a lo largo de los años, pero no fue hasta hace una década que su verdadero poder y potencial se hicieron evidentes.

En 2018, Hinton recibió el Premio Turing, el premio más prestigioso en informática, por su trabajo en redes neuronales. Recibió el premio junto con otras dos figuras pioneras, Yann LeCun, científico jefe de inteligencia artificial de Meta, y Yoshua Bengio, profesor de la Universidad de Montreal.

Fue entonces cuando una nueva generación de redes neuronales artificiales de muchas capas, alimentadas con grandes cantidades de datos de entrenamiento y ejecutadas en potentes chips de computadora, de repente fueron mucho mejores que cualquier programa existente para etiquetar el contenido de las fotografías.

La técnica, conocida como aprendizaje profundo, inició un renacimiento en la inteligencia artificial, con las grandes empresas tecnológicas apresurándose a reclutar expertos en IA, construir algoritmos de aprendizaje profundo cada vez más potentes y aplicarlos a productos como el reconocimiento facial, la traducción y el reconocimiento de voz.

Google contrató a Hinton en 2013 después de adquirir su empresa, DNNResearch, fundada para comercializar las ideas de aprendizaje profundo de su laboratorio universitario. Dos años más tarde, uno de los estudiantes de posgrado de Hinton que también se había unido a Google, Ilya Sutskever, dejó la empresa de búsqueda para cofundar OpenAI como contrapeso sin fines de lucro al poder que estaban acumulando las grandes empresas tecnológicas en IA.

Desde sus inicios, OpenAI se ha centrado en aumentar el tamaño de las redes neuronales, el volumen de datos que consumen y la potencia informática que consumen. En 2019, la compañía se reorganizó como una corporación con fines de lucro con inversionistas externos y luego tomó $ 10 mil millones de Microsoft. Ha desarrollado una serie de sistemas de generación de texto sorprendentemente fluidos, el más reciente GPT-4, que impulsa la versión premium de ChatGPT y ha asombrado a los investigadores con su capacidad para realizar tareas que parecen requerir razonamiento y sentido común.

Hinton cree que ya tenemos una tecnología que será disruptiva y desestabilizadora. Señala el riesgo, como lo han hecho otros, de que los algoritmos de lenguaje más avanzados puedan emprender campañas de desinformación más sofisticadas e interferir en las elecciones.



Source link-46