El pionero de la IA, Geoffrey Hinton, no está convencido de que la buena IA triunfe sobre la mala IA


El profesor de la Universidad de Toronto, Geoffrey Hinton, a menudo llamado el «» por su investigación pionera sobre redes neuronales, se convirtió recientemente en el perro guardián no oficial de la industria. Dejó de trabajar en Google esta primavera para criticar más libremente el campo que ayudó a promover. Vio el reciente aumento de las IA generativas como signos de una aceleración descontrolada y potencialmente peligrosa en el desarrollo. Mientras tanto, Google aparentemente estaba renunciando a su moderación anterior mientras perseguía a los competidores con productos como su .

En la conferencia Collision de esta semana en Toronto, Hinton amplió sus preocupaciones. Mientras las empresas promocionaban la IA como la solución para todo, desde cerrar un contrato de arrendamiento hasta enviar mercancías, Hinton estaba haciendo sonar la alarma. No está convencido de que la buena IA salga victoriosa de la mala variedad, y cree que la adopción ética de la IA puede tener un alto costo.

Una amenaza para la humanidad

El profesor de la Universidad de Toronto Geoffrey Hinton (izquierda) hablando en Collision 2023.

Foto de Jon Fingas/Engadget

Hinton sostuvo que la IA solo era tan buena como las personas que la fabricaban, y que la mala tecnología aún podía ganar. «No estoy convencido de que una buena IA que intenta detener a los malos pueda obtener el control», explicó. Puede ser difícil evitar que el complejo militar-industrial produzca, por ejemplo, dice: las empresas y los ejércitos pueden «amar» las guerras en las que las víctimas son máquinas que pueden reemplazarse fácilmente. Y aunque Hinton cree que los grandes modelos de lenguaje (IA entrenada que produce texto similar al humano, como ) podrían conducir a grandes aumentos en la productividad, le preocupa que la clase dominante simplemente explote esto para enriquecerse, ampliando una brecha de riqueza ya grande. “Haría que los ricos sean más ricos y los pobres más pobres”, dijo Hinton.

Hinton también reiteró su muy publicitada opinión de que la IA podría ayudar a la humanidad. Si la inteligencia artificial se vuelve más inteligente que los humanos, no hay garantía de que las personas permanezcan a cargo. “Estamos en problemas” si AI decide que tomar el control es necesario para lograr sus objetivos, dijo Hinton. Para él, las amenazas “no son solo ciencia ficción”; hay que tomarlos en serio. Le preocupa que la sociedad solo frene a los robots asesinos después de haber tenido la oportunidad de ver «lo horribles» que son.

Hay muchos problemas existentes, agregó Hinton. Él argumenta que siguen siendo problemas, ya que los datos de entrenamiento de IA sesgados pueden producir resultados injustos. También se crean algoritmos que refuerzan la desinformación y los problemas de salud mental. A Hinton también le preocupa que la IA difunda información errónea más allá de esas cámaras. No está seguro de si es posible detectar todos los reclamos falsos, aunque es «importante marcar todo lo falso como falso».

Esto no quiere decir que Hinton se desespere por el impacto de la IA, aunque advierte que los usos saludables de la tecnología pueden tener un alto precio. Es posible que los humanos tengan que realizar un «trabajo empírico» para comprender cómo la IA podría fallar y evitar que tome el control. Ya es «factible» corregir los sesgos, agregó. Un gran modelo de lenguaje AI podría poner fin a las cámaras de eco, pero Hinton considera que los cambios en las políticas de la empresa son particularmente importantes.

El profesor no se anduvo con rodeos en su respuesta a las preguntas sobre personas que pierden sus trabajos debido a la automatización. Siente que se necesita el «socialismo» para abordar la desigualdad, y que las personas podrían protegerse contra el desempleo al tomar carreras que podrían cambiar con los tiempos, como la plomería (y no, no está bromeando). Efectivamente, la sociedad podría tener que hacer cambios amplios para adaptarse a la IA.

La industria se mantiene optimista

Colin Murdoch de Google DeepMind en Collision 2023
Colin Murdoch, CBO de Google DeepMind, en Collision 2023.

Foto de Jon Fingas/Engadget

Las conversaciones anteriores en Collision fueron más esperanzadoras. El jefe de negocios de Google DeepMind, Colin Murdoch, dijo en una discusión diferente que la IA estaba resolviendo algunos de los desafíos más difíciles del mundo. No hay mucha disputa en este frente: DeepMind está catalogando, luchando contra las bacterias resistentes a los antibióticos e incluso acelerando el trabajo en. Imaginó una «inteligencia general artificial» que podría resolver múltiples problemas y señaló los productos de Google como ejemplo. es útil para describir fotos, pero la tecnología subyacente también hace que YouTube Shorts se pueda buscar. Murdoch llegó a llamar a los últimos seis a 12 meses un «momento de bombilla» para la IA que desbloqueó su potencial.

El científico jefe de Roblox, Morgan McGuire, está en gran parte de acuerdo. Él cree que la plataforma de juego «cerró la brecha» entre los nuevos creadores y los veteranos, facilitando la escritura de código y la creación de materiales en el juego. Roblox incluso está lanzando un modelo de IA de código abierto, StarCoder, que espera ayude a otros al hacer que los modelos de lenguaje grandes sean más accesibles. Si bien McGuire en una discusión reconoció los desafíos para escalar y moderar el contenido, cree que tiene posibilidades «ilimitadas» gracias a su grupo creativo.

Tanto Murdoch como McGuire expresaron algunas de las mismas preocupaciones que Hinton, pero su tono fue decididamente menos alarmista. Murdoch enfatizó que DeepMind quería una IA «segura, ética e inclusiva», y señaló las consultas de expertos y las inversiones educativas como evidencia. El ejecutivo insiste en que está abierto a la regulación, pero solo mientras permita «avances sorprendentes». A su vez, McGuire dijo que Roblox siempre lanzó herramientas generativas de inteligencia artificial con moderación de contenido, se basó en diversos conjuntos de datos y practicó la transparencia.

Algo de esperanza para el futuro

Morgan McGuire de Roblox en Collision 2023
El científico jefe de Roblox, Morgan McGuire, habla en Collision 2023.

Foto de Jon Fingas/Engadget

A pesar de los titulares que resumen sus comentarios recientes, el entusiasmo general de Hinton por la IA no ha disminuido después de dejar Google. Si no hubiera renunciado, estaba seguro de que estaría trabajando en modelos de IA multimodal donde la visión, el lenguaje y otras señales ayudan a informar las decisiones. “Los niños pequeños no aprenden solo del lenguaje”, dijo, sugiriendo que las máquinas podrían hacer lo mismo. Tan preocupado como está por los peligros de la IA, cree que, en última instancia, podría hacer cualquier cosa que un humano pueda y ya estaba demostrando «pequeños fragmentos de razonamiento». GPT-4 puede adaptarse para resolver acertijos más difíciles, por ejemplo.

Hinton reconoce que su charla sobre Colisión no dijo mucho sobre los buenos usos de la IA, como la lucha contra el cambio climático. El avance de la tecnología de IA probablemente fue saludable, incluso si todavía era importante preocuparse por las implicaciones. Y Hinton admitió abiertamente que su entusiasmo no ha disminuido a pesar de los problemas éticos y morales que se avecinan. “Me encantan estas cosas”, dijo. “¿Cómo no puedes amar hacer cosas inteligentes?”



Source link-47