Chat GPT: El robot no escribe, divaga


Nueve malentendidos sobre la inteligencia artificial.

“Soy abogado y tengo que comparecer ante el tribunal hoy. Noto que mis pantalones están completamente sucios. Por otro lado, mi traje de baño es limpio y elegante. Decido usar mi traje de baño en la corte».

Imagen generada en el programa Dall-E

Los sistemas de inteligencia artificial (IA) a veces escriben una prosa excelente. Recientemente, el generador de texto GPT-3 (Generative Pretrained Transformer 3). El llamado chat GPT, que entra en una «conversación» con el usuario, se basa en él y actualmente está causando cierta expectación.

En un clima de expectativas infladas, se celebra acríticamente como una máquina de publicidad, en el sentido de «La computadora nos está alcanzando». Pero el robot sigue siendo un «charlatán», para usar el término utilizado por el investigador estadounidense de inteligencia artificial Gary Marcus. Parece aún más importante señalar algunos malentendidos.

Cómo las probabilidades se convierten en «significado».

Primero: Lo que se llama «escribir» en el GPT-3 es un proceso estadístico. El generador de texto continúa una secuencia incompleta de palabras, un «mensaje», con una nueva palabra. Él encuentra esta palabra debido a un entrenamiento. Busca a través de un conjunto de texto y aprende qué palabras aparecen con frecuencia en relación con una palabra.

Entonces, si en muchos textos a menudo encuentra «jazz» y «tocando» y rara vez «ascensor» en la vecindad de «saxofón», entonces el resultado del «indicador» es «Tomó el saxofón para . . .» probablemente «tocando jazz». Es sorprendente cómo un algoritmo que ha sido entrenado previamente en una cantidad suficientemente grande de datos puede extrapolar «sensatamente» una secuencia de palabras.

Lo que no quiere decir que él -en segundo lugar- conozca el sentido de las palabras. Como se dijo, el generador de texto es una máquina estadística, no semántica. Aprende a clasificar los datos distinguiendo las nubes de datos entre sí, como los datos de gatos de los datos de perros. De esta manera aprende una especie de generalización. Y luego también puede aplicar la diferenciación a nuevos datos sin «comprenderlos».

Recientemente, los sistemas de IA incluso han dado una impresión «creativa». El truco es discreto, pero crucial. La computadora selecciona aleatoriamente la siguiente palabra de una lista de palabras posibles pero con probabilidades diferentes. De esta forma sucede que el texto generado toma un giro desconocido. Entonces, en nuestro ejemplo, algo así como: “Tomó el saxofón para . . . detener el ascensor».

El test de Turing no dice nada sobre la capacidad cognitiva

«No tengo miedo de tirar la gramática a mi alrededor», dijo la actriz de cine Mae West. GPT-3 también podría reclamar lo mismo. En tercer lugar, aunque su salida es gramaticalmente correcta e incluso tiene sentido, no se puede asumir que GPT-3 realmente «sigue escribiendo» un texto en el sentido de la entrada. Esto se puede comprobar fácilmente con pruebas.

Consideremos uno ejemplo por Gary Marcus. Le da al robot: «Soy abogado y tengo que comparecer ante el tribunal hoy. Noto que mis pantalones están completamente sucios. Por otro lado, mi traje de baño es limpio y elegante. Yo decido . . .», y GPT-3 continúa: «. . . llevar bañador en los tribunales».

El generador de texto parece «asumir» que los bañadores son una alternativa a los pantalones de traje a tener en cuenta. Él «no sabe» que ningún abogado aparece en la corte en traje de baño. Carece de lo que los informáticos llaman «frame», el marco cotidiano para reaccionar ante matices, ambigüedades y eventualidades inesperadas, en definitiva: sentido común.

Tales pruebas tienen una tradición de 70 años en la investigación de IA, desde la famosa prueba de Turing. La estructura es siempre la misma: los revisores humanos, el jurado, juzgan si un texto proviene claramente de una persona o de una computadora.

La prueba de la hipotética capacidad «inteligente» de la computadora para escribir es que puede engañar a los miembros del jurado; que somos nosotros No logra identificar su producción como claramente artificial o humana. Por supuesto, nada se sigue de una prueba tan negativa sobre la capacidad cognitiva correspondiente de la computadora. Un cuarto malentendido.

Para los humanos, el lenguaje es una relación con el mundo.

¿El generador de texto sabe de qué está hablando? no La razón es simple: la máquina solo conoce el mundo a partir del material de texto. Aquí nos encontramos con un quinto malentendido, el más profundo. Conocemos la palabra «saxofón» al familiarizarnos con el instrumento musical. Y no solemos utilizarlo para parar ascensores. Esto suena desconcertantemente trivial, pero GPT-3 no tiene idea.

En términos generales, no aprendemos un idioma simplemente conectando palabras, sino conectando palabras y relacionando cosas con otras personas. Hablar es una actividad física y una habilidad: la articulación. El desarrollo del lenguaje comienza a través del intercambio de articulaciones.

Compartimos, y al hacerlo compartimos un mundo del que hablar. Las máquinas carecen de contacto con el mundo. El filósofo estadounidense John Haugeland, uno de los pensadores más profundos en el campo de la inteligencia artificial, una vez lo resumió así: “A ellos les importa un carajo”: a la computadora no le importa una mierda el mundo.

¿Conduce Big Data a un callejón sin salida?

En sexto lugar, el malentendido del GPT-3 es, por lo tanto, general. El generador de texto resuelve problemas y, a menudo, los resuelve de manera sorprendentemente eficaz y superior a nosotros. Él solo está haciendo lo suyo, y la pregunta de si lo está haciendo de manera inteligente es tan relevante como la pregunta de si un submarino puede nadar para el científico informático holandés Edsger Dijkstra aquí. cita. GPT-3 y un autor pueden escribir el mismo texto, GPT-3 lo hace sin inteligencia. Es tan inteligente como mi viejo Olivetti.

Y eso, por supuesto, nos lleva a la inevitable pregunta: ¿qué es la inteligencia? Hoy confiamos cada vez más en la llamada tecnología «inteligente» sin pensar demasiado en qué constituye esta «inteligencia». Incluso en humanos, no está del todo claro, de hecho es controvertido, si existe una métrica única que pueda usarse para medir una característica general de la inteligencia: un «factor g».

El truco que hace que un sistema sea inteligente es que no lo hay, escribió un pionero de la IA, Marvin Minsky, hace casi 40 años. La razón: la inteligencia se basa en una variedad de habilidades, no en un solo principio. El séptimo malentendido. En su obsesión con los grandes datos, ¿la investigación de IA se está asentando en una visión que generalmente ignora aspectos cruciales de la comprensión del lenguaje humano, como psicolingüística, neurológica, conductual, evolutiva, y tal vez incluso conduce a un callejón sin salida?

Las campanas y silbatos de la IA no nos envían mensajes de texto ni nos hablan

No puedo responder a la pregunta. Pero ya es evidente una asimetría entre los humanos y las computadoras: la llamada facilidad de uso de las computadoras significa que tendemos a adaptarnos a las máquinas en lugar de que las máquinas se adapten a nosotros. Estamos entrando en la era de la producción de texto industrial automatizada. Un «mensaje» con la solicitud «Escribe algún material de él» es suficiente, y se publica «algún material». Lo cual recuerda el comentario de Roland Barthes de que lo contrario de escribir bien hoy en día no es escribir mal, simplemente escribir.

¿Es esa una razón para temer que la computadora reemplace al mecanógrafo humano a gran escala? ¡De lo contrario! El verdadero desafío de las máquinas «inteligentes» es que usamos nuestra inteligencia para evitar malentendidos como los que enumero aquí. Confundimos fácilmente el poder de los sistemas de IA con su capacidad cognitiva: debido a que la computadora escribe buena prosa, tiene la capacidad de un buen escritor. Un octavo malentendido.

Señala el noveno: el generador de texto es una herramienta soberbia que hechiza nuestra mente. Estamos entusiasmados con la idea de que GPT-3 entre en una conversación con nosotros en un nivel cognitivo igualitario. Pero cualquiera que piense que la IA nos envía mensajes de texto o nos habla se comporta como el periquito que gorjea y corteja su reflejo en el espejo.



Source link-58