«Es absurdo hablar de inteligencia artificial en Chat-GPT»


La lingüista computacional Emily Bender advirtió hace años contra el uso de programas de chat para buscar en la web. En una entrevista, explica qué tiene que ver la moda actual de la IA con las fantasías de ciencia ficción.

¿Por qué deberíamos tratar de construir computadoras que piensen y sientan como nosotros?

Edwin Koo/Bloomberg

Usted ha estado involucrado con la tecnología del lenguaje durante años. Desde que se lanzó Chat-GPT, ha habido un gran revuelo al respecto. ¿Viste venir esto?

He visto este bombo durante años. Ahora también ha llegado a personas que de otro modo no están tan preocupadas por la tecnología. Puedes intentar chatear con GPT tú mismo. O puedes leer en las redes sociales lo que puede hacer el chatbot. Sin embargo, estos ejemplos no son representativos: se comparten esos momentos en los que la IA es particularmente impresionante, o falla de manera particularmente miserable.

Es conocido por su visión crítica de los avances en la IA del habla. ¿Qué le molesta del discurso al respecto?

¡Hay mucho! La atención se centra a menudo en lo grande que es la máquina. Eso distrae a las personas que están detrás. Los programas de idiomas no aprenden mágicamente por sí mismos, hay mucho trabajo detrás de esto por parte de los desarrolladores y de las personas que etiquetan y clasifican los datos. Por lo general, trabajan en países con salarios bajos, y parte de su trabajo es buscar representaciones de violencia, pornografía, insultos, etc. para que el chatbot no escupa ese tipo de cosas más adelante. Las condiciones de trabajo suelen ser malas, como investigó «Time Magazine» en el caso de Chat-GPT.

Si las condiciones de trabajo fueran aceptables, se podría decir: este es el precio de un producto interesante.

No veo mucho valor en una máquina que genera texto sintético. Y desafortunadamente, muchas ideas realmente malas sobre para qué usar el chat GPT están surgiendo en este momento.

a persona

Emily Bender - Profesora de la Universidad de Washington

PD

Emily Bender – Profesora de la Universidad de Washington

Emily Bender recibió su doctorado en Lingüística de la Universidad de Stanford en 2000. Tras estancias de investigación y experiencia en el sector privado, se trasladó a la Universidad de Washington en 2004. Bender dirige allí el laboratorio de investigación de lingüística computacional. También es vicepresidenta de la Society for Computational Linguistics.

¿Por ejemplo?

Una idea es usar los sistemas de IA con personas con problemas de salud mental en lugar de un terapeuta humano. La empresa Do Not Pay aconseja a las personas que usen su algoritmo para defenderse en los tribunales: deben leer las respuestas de la máquina. Los encuentro a ambos muy irresponsables. Cualquiera que venda algo así tendría que cumplir unas normas, unas normas mínimas. Pero no lo hay. Ni siquiera se sabe cómo se programó exactamente Chat-GPT: ¿qué datos se utilizaron? ¿Cuáles fueron los pasos de trabajo en detalle? Todo esto debe ser conocido por cualquiera que use este modelo para cualquier cosa relevante. Porque lo que dice el modelo depende de estas cosas.

¿Necesitamos nuevas leyes para la IA?

No está claro si se necesitan nuevas reglas o si las reglas existentes serán suficientes si se aplican. El problema es que cuanto más hablamos de inteligencia artificial en lugar de tecnologías específicas como la síntesis de voz o los motores de búsqueda, más diferente, nuevo y difícil de regular parece el campo. Entonces parece que no estamos tratando con máquinas, sino con actores. Es absurdo hablar de inteligencia artificial en productos de hoy en día como Chat-GPT.

Muchos profesionales me dicen que no escriba sobre inteligencia artificial. Pero el término técnico «aprendizaje automático» tampoco es más claro. ¿Que sugieres?

A mi colega Alex Hanna se le ocurrió la idea de usar la palabra «mathy-math» en su lugar. en uno Video Para nuestra serie conjunta, leímos una publicación de blog de un gerente de Google y reemplazamos el término AI con «Mathy-Math». En realidad, solo hay matemáticas detrás de esto. Pero preguntar: «¿Debería ‘Mathy-Math’ asumir la responsabilidad moral?» de repente suena estúpido. Eso prácticamente desacredita el bombo.

Sin embargo, las matemáticas conducen a resultados sorprendentes. Chat-GPT puede incluso contar chistes que no se han visto antes en Internet. ¿Es una exageración decir que tal modelo tiene una determinada visión del mundo?

Eso depende de lo que entiendas por imagen del mundo. Lo que GPT y modelos similares poseen es información muy detallada sobre la distribución de palabras. Esta distribución no es aleatoria. Depende de lo que ciertas personas hayan escrito en la web. Refleja una imagen del mundo. Pero eso no significa que el programa pueda abstraer, que pueda pensar lógicamente. Las cantidades de datos son tan grandes, la información sobre la distribución de palabras es tan precisa que ni siquiera podemos imaginarlo. Es contrario a la intuición pensar que un chiste puede surgir de este proceso computacional. La conclusión intuitiva es: wow, este chatbot es divertido. Tiene humor. Él sabe algo sobre el mundo. Más aún porque estos bots imitan la forma en que las personas escriben y hablan. Pero un chatbot solo conoce distribuciones de palabras, que a su vez reflejan los pensamientos de las personas sobre el mundo.

Aquellas personas cuyos textos están en línea. . .

Sí, y eso es algo completamente diferente a tener acceso a la realidad. Estas cosmovisiones también incluyen, por ejemplo, los prejuicios y la discriminación que son parte de nuestra sociedad. Ideas implícitas sobre cuál es la persona normal y cuáles son las desviaciones. Son parte de nuestro lenguaje. Y cualquier sistema construido sobre el lenguaje reproducirá mecánicamente estos juicios implícitos.

Algún objeto: la gente también tiene prejuicios. ¿Por qué los estándares para la IA deberían ser mucho más altos?

Siempre me frustra cuando surge este argumento. ¡El hecho de que la gente haga cosas estúpidas no es excusa para automatizar estas cosas estúpidas y repetirlas a gran escala! Esta comparación también oscurece el hecho de que los humanos y las máquinas cometen sus errores de maneras muy diferentes. Y cuando una persona hace algo mal, es responsable. Las personas también son responsables del software. La máquina no tiene la culpa, sino quienes la fabrican y utilizan.

Su educación básica es la lingüística: abordó la lingüística computacional desde este punto de vista y luego aprendió informática. Para la mayoría de los lingüistas computacionales, es al revés. ¿Sientes diferencias en el enfoque?

Definitivo. He visto que el campo se vuelve cada vez más unilateral. Ha crecido con más y más personas del campo de la informática. Tiene que ver con la financiación. Los patrocinadores públicos y privados se mostraron entusiastas y pusieron mucho dinero en informática. Mucho menos fue a la lingüística. Hoy los ingenieros son la mayoría. Cuando empecé a trabajar con informáticos, era muy confuso.

¿Por qué?

Hablamos uno al lado del otro. Solo después de un tiempo entendí: simplemente estábamos interesados ​​​​en cosas completamente diferentes. Para mí el lenguaje era interesante en sí mismo, para ella el lenguaje era interesante por la información sobre el mundo que contiene. Imagina una ventana lluviosa mirando hacia afuera. El disco y las gotas sobre él son lenguaje. Me interesa su naturaleza y cómo reflejan el mundo, reflejado y distorsionado. Mis colegas de TI, por otro lado, están interesados ​​en lo que hay detrás del panel. Entonces la ventana mojada, el lenguaje, es un factor disruptivo para ellos, no lo interesante.

¿Un lado es correcto?

Se necesitan ambos. Si está desarrollando un producto que utiliza procesamiento de lenguaje natural en el cuidado de la salud, entonces necesita a alguien en lingüística que comprenda los entresijos del lenguaje, un experto en aprendizaje automático y luego alguien en el campo de interés, el cuidado de la salud. Necesita los tres dominios para poder desarrollar un buen producto.

Por el momento se habla de que los chatbots podrían ser el futuro de la investigación en Internet. Ya tienes 2022 en un papel profesional advertido contra ¿Por qué?

entiendo la idea La búsqueda web habitual con su lista de enlaces, eso es trabajo. Con un chatbot, parece que puedes escribir una pregunta y obtener una respuesta de inmediato. Si prueba Chat-GPT, es posible que pregunte algo en su propia área de especialización y se sorprenda de la respuesta bien formulada. Pero generalmente buscamos en la web cosas que aún no conocemos. Entonces no necesitamos un párrafo que suene plausible, sino una fuente confiable.

Los chatbots de búsqueda de Microsoft y Google, Bing y Bart, a veces dan fuentes. ¿Esto alivia el problema?

No tan bien. Lo que hace un modelo de lenguaje es predecir qué palabra es más probable que siga. Y luego el siguiente, luego el siguiente. No cita con precisión textos individuales. Las fuentes se pierden en el proceso de formación. Entonces puedes crear un texto y luego comparar dónde hay cosas similares en la red, pero eso es un gran desvío. O puede ejecutar una búsqueda en segundo plano y resumir los resultados, pero aquí también, la llamada «IA» no es confiable.

¿Tienes un ejemplo?

Durante un tiempo, Google escupió una lista de consejos incorrectos cuando buscaba «Qué hacer con la epilepsia». Eran todas las cosas que tu no debería hacer. Google había sacado esto de un sitio web, pero desafortunadamente el «no» se perdió en el proceso. Entonces, para cosas realmente importantes, recomendaría ir directamente a un sitio web. Esto tiene otras ventajas.

¿Cual?

Investigar en Internet te hace más competente. Aprende qué fuentes proporcionan buena información. Sobre qué cuestiones hay opiniones diferentes. Tal vez reenvíes una página que te gusta a tus amigos. Esto, a su vez, beneficia a los operadores. Cuando un chatbot transmite el contenido, quienes brindan la información ya no son recompensados.

Tienes una visión muy crítica del bombo de la IA. ¿Pero no crees que hay avances interesantes?

Definitivo. La transcripción automática, por ejemplo, tiene beneficios tangibles para muchas personas. ¿Cómo hacer esto accesible para más idiomas y más acentos? Esas preguntas me interesan. Cuando se trata de problemas específicos que los algoritmos pueden resolver, o cómo hacer que los afectados piensen junto con ellos para que los algoritmos no aumenten la discriminación. Veo valor en eso, esta investigación me da esperanza. La idea errónea es que estamos en el camino hacia la inteligencia artificial general que resolverá todos nuestros problemas con solo presionar un botón.

¿Qué te irrita de eso?

Simplemente no es cierto que estamos en un camino inevitable hacia un futuro de máquinas autónomas con inteligencia similar a la humana. Personajes como Data de «Star Trek» o Hal de la película «2001: Una odisea del espacio», amistosos o no, provienen del ámbito de la ciencia ficción. Mirando hacia atrás, parece que hubo un camino que nos llevó a donde estamos hoy. Pero en realidad, se exploraron muchas ideas diferentes. No hay un camino hacia el futuro, sino una variedad de cosas para explorar. Pero a menudo se finge que hay un camino y que debemos seguirlo lo más rápido posible, porque todos los demás también lo están haciendo.

¿No crees que este tipo de IA existirá algún día?

No estoy interesado en construir algo como esto, así que no puedo hacer ninguna predicción. Pero creo que deberíamos pensar detenidamente por qué deberíamos tratar de desarrollar una computadora con inteligencia o incluso conciencia. Cuál es el punto de Yo también soy aficionado a la literatura especulativa. Pero, ¿por qué recrear estos mundos imaginarios? Ahora mismo se está gastando mucho dinero en esto. En cambio, ¿por qué no cuidar el mundo que ya es? Si queremos invertir mucho dinero en algo para resolver un problema, ¿por qué no en el cambio climático?



Source link-58