La IA de ChatGPT es una gran herramienta, simplemente la estás usando mal


Imagen para el artículo titulado ChatGPT es una gran herramienta: simplemente la estás usando mal

Ilustración: maxusuario (Shutterstock)

No se necesita mucho para conseguir ChatGPT cometer un error de hecho. Mi hijo está haciendo un informe sobre los presidentes de los Estados Unidos, así que pensé en ayudarlo buscando algunas biografías. Intenté pedir una lista de libros sobre Abraham Lincoln y funcionó bastante bien:

Captura de pantalla de Jonathan May., CC BY-ND

El número 4 no está bien. Garry Wills escribió el famoso «Lincoln en Gettysburg», y el mismo Lincoln escribió thLa Proclamación de Emancipación, por supuesto, pero no es un mal comienzo. Luego intenté algo más difícil, preguntando en cambio por el mucho más oscuro William Henry Harrison, y me proporcionó una lista, casi toda incorrecta.

Captura de pantalla de Jonathan May., CC BY-ND

Los números 4 y 5 son correctos; el resto no existen o no son de autoría de esas personas. Repetí exactamente el mismo ejercicio y obtuve resultados ligeramente diferentes:

Captura de pantalla de Jonathan May., CC BY-ND

Esta vez los números 2 y 3 son correctos y los otros tres no son libros reales. o no escrita por esos autores. El número 4, “William Henry Harrison: His Life and Times” es un libro de verdadpero es de James A. Green, no de Robert Remini, un conocido historiador de la era jacksoniana.

Mencioné el error y ChatGPT se corrigió con entusiasmo y luego me dijo con confianza que el libro fue escrito por Gail Collins (quien escribió una biografía diferente de Harrison), y luego continuó diciendo más sobre el libro y sobre ella. Finalmente revelé la verdad y la máquina estuvo feliz de funcionar con mi corrección. Luego mentí absurdamente, diciendo que durante sus primeros cien días los presidentes tienen que escribir una biografía de algún expresidente, y ChatGPT me llamó la atención. Luego mentí sutilmente, atribuyendo incorrectamente la autoría de la biografía de Harrison al historiador y escritor Paul C. Nagel, y compré mi mentira.

Cuando le pregunté a ChatGPT si estaba seguro de que no estaba mintiendo, afirmó que es solo un «modelo de lenguaje de IA» y no tiene la capacidad de verificar la precisión. Sin embargo, modificó esa afirmación diciendo: «Solo puedo proporcionar información basada en los datos de capacitación que me han proporcionado, y parece que el libro ‘William Henry Harrison: His Life and Times’ fue escrito por Paul C. Nagel y publicado en 1977 .”

Esto no es verdad.

ChatGPT genera wpalabras, no hechos

A partir de esta interacción, puede parecer que ChatGPT recibió una biblioteca de datos, incluidas afirmaciones incorrectas sobre autores y libros. Después de todo, el creador de ChatGPT, OpenAI, afirma que entrenó al chatbot en «grandes cantidades de datos de Internet escritos por humanos.”

Sin embargo, es casi seguro que no se le dieron los nombres de un montón de libros inventados sobre uno de los más nosotros mediocres presidentes. Sin embargo, en cierto modo, esta información falsa se basa en sus datos de entrenamiento.

Como un científico de la computación, a menudo recibo quejas que revelan un concepto erróneo común sobre modelos de lenguajes grandes como ChatGPT y sus hermanos mayores GPT3 y GPT2: que son una especie de «súper Google» o versiones digitales de un bibliotecario de referencia, buscando respuestas a preguntas de algunos biblioteca infinitamente grande de hechos, o mezclando pastiches de historias y personajes. No hacen nada de eso, al menos, no fueron diseñados explícitamente para ello.

La IA seguro que sísonido buena, aunque

Un modelo de lenguaje como ChatGPT, que se conoce más formalmente como un «transformador preentrenado generativo» (eso es lo que significan G, P y T), toma la conversación actual, forma una probabilidad para todas las palabras en su vocabulario dado que conversación, y luego elige una de ellas como la próxima palabra probable. Luego lo hace una y otra vez, y otra vez, hasta que se detiene.

Así que no tiene hechos, per se. Simplemente sabe qué palabra debe venir a continuación. Dicho de otra manera, ChatGPT no intenta escribir oraciones que sean verdaderas. Pero sí trata de escribir oraciones que sean plausibles.

Cuando hablan en privado con colegas sobre ChatGPT, a menudo señalan cuántas declaraciones falsas produce y lo descartan. Para mí, la idea de que ChatGPT es un sistema defectuoso de recuperación de datos no viene al caso. Después de todo, la gente ha estado usando Google durante las últimas dos décadas y media. Ya existe un servicio de investigación bastante bueno.

De hecho, la única forma en que pude verificar si todos esos títulos de libros presidenciales eran correctos fue buscar en Google y luego verificar los resultados. Mi vida no sería mucho mejor si tuviera esos hechos en una conversación, en lugar de la forma en que los he estado obteniendo durante casi la mitad de mi vida, recuperando documentos y luego haciendo un análisis crítico para ver si puedo confiar en los contenidos.

ChatGPT como yosocio de improvisación

Por otro lado, si puedo hablar con un bot que me dé respuestas plausibles a las cosas que digo, sería útil en situaciones donde la precisión de los hechos no es tan importante. Hace unos años, un estudiante y yo intentamos crear un «bot de improvisación», uno que respondiera a cualquier cosa que dijeras con un «sí y» para mantener la conversación. Mostramos, en un papelesa hora bot era mejor en «sí, y-ing» que otros bots en ese momento, pero en AI, dos años es historia antigua.

Probé un diálogo con ChatGPT, un escenario de exploración espacial de ciencia ficción, que no es muy diferente de lo que encontrarías en una típica clase de improvisación. ChatGPT es mucho mejor en «sí, y-ing» que lo que hicimos, pero en realidad no aumentó el drama en absoluto. Me sentí como si yo estuviera haciendo todo el trabajo pesado.

Después de algunos ajustes conseguí que fuera un poco más complicado, y al final del día sentí que era un buen ejercicio para mí, que no había hecho mucha improvisación desde que me gradué de la universidad hace más de 20 años.

Captura de pantalla de Jonathan May., CC BY-ND

Claro, no me gustaría que ChatGPT apareciera en «¿De cualquier manera De quien es esta linea?” y esta no es una gran trama de “Star Trek” (aunque sigue siendo menos problemática que “Código de honor”), pero ¿cuántas veces te has sentado a escribir algo desde cero y te has encontrado aterrorizado por la página vacía que tenías delante? Comenzar con un mal primer borrador puede romper el bloqueo del escritor y hacer que fluya la creatividad, y ChatGPT y los grandes modelos de lenguaje parecen ser las herramientas adecuadas para ayudar en estos ejercicios.

Y para una máquina que está diseñada para producir cadenas de palabras que suenan lo mejor posible en respuesta a las palabras que le das, y no para brindarte información, ese parece ser el uso correcto para la herramienta.


jonathan mayoProfesor Asociado de Investigación de Ciencias de la Computación, Universidad del Sur de California

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.



Source link-45