ChatGPT es una IA impresionante, pero los trabajos humanos son seguros (por ahora)


Si ha pasado algún tiempo navegando por las redes sociales durante la última semana (quién no), probablemente haya oído hablar de ChatGPT. El fascinante y alucinante chatbotdesarrollado por OpenAI y lanzado la semana pasada, es una pequeña e ingeniosa IA que puede escupir texto muy convincente y con un sonido humano en respuesta a las indicaciones generadas por el usuario.

Podrías, por ejemplo, pedirle que escriba un resumen de la trama de Knives Out, excepto que Benoit Blanc es en realidad Foghorn Leghorn (¿solo yo?), y escupirá algo relativamente coherente. También puede ayudar a corregir el código roto y escribir ensayos para convencer a algunos académicos de que obtendrían una A en los exámenes universitarios.

Sus respuestas han asombrado a la gente hasta tal punto que algunos incluso han proclamado: «Google está muerto». Luego están aquellos que piensan que esto va más allá de Google: los trabajos humanos también están en problemas.

The Guardian, por ejemplo, proclamó que «profesores, programadores y periodistas podrían quedarse sin trabajo en unos pocos años». Otra toma, de la publicación insignia Era de la información de la Australian Computer Society, sugirió lo mismo. The Telegraph anunció que el bot podría «hacer su trabajo mejor que usted».

Yo diría que mantenga sus caballos digitales. ChatGPT no lo va a dejar sin trabajo todavía.

Un gran ejemplo de por qué lo proporciona la historia publicada en Information Age. La publicación utilizó ChatGPT para escribir una historia completa sobre ChatGPT y publicó el producto terminado con una breve introducción. El artículo es tan simple como se puede pedir: ChatGPT proporciona un recuento básico de los hechos de su existencia, pero al «escribir» el artículo, ChatGPT también generó citas falsas y las atribuyó a un investigador de OpenAI, John Smith ( quien es real, aparentemente).

Esto subraya la falla clave de un modelo de lenguaje grande como ChatGPT: no sabe cómo separar los hechos de la ficción. No puede ser entrenado para hacerlo. es una palabra organizador, una IA programada de tal manera que puede escribir oraciones coherentes.

Esa es una distinción importante, y esencialmente evita que ChatGPT (o el modelo de lenguaje grande subyacente en el que se basa, GPT 3.5 de OpenAI) escriba noticias o hable sobre temas de actualidad. (Tampoco está entrenado con datos actualizados al minuto, pero eso es otra cosa). Definitivamente no puede hacer el trabajo de un periodista. Decir eso menosprecia el acto mismo del periodismo.

ChatGPT no saldrá al mundo para hablar con los ucranianos sobre la invasión rusa. No podrá leer la emoción en el rostro de Kylian Mbappe cuando gane la Copa del Mundo. Eso ciertamente no es subirse a un barco a la Antártida para escribir sobre sus experiencias. No puede sorprenderse con una cita, completamente fuera de lugar, que sin darse cuenta revela un secreto sobre el negocio de un CEO. Infierno, no tendría ninguna esperanza de cubrir la adquisición de Twitter por parte de Musk — no es un árbitro de la verdad, y simplemente no puede leer la habitación.

Es interesante ver cuán positiva ha sido la respuesta a ChatGPT. Es absolutamente digno de elogio, y las mejoras documentadas que OpenAI ha realizado sobre su último producto, GPT-3, son interesantes por derecho propio. Pero la razón principal por la que realmente captó la atención es porque es muy accesible.

GPT-3 no tenía un marco en línea elegante y fácil de usar y, aunque publicaciones como The Guardian lo usaron para generar artículos, solo tuvo un breve impacto en línea. Desarrollar un chatbot con el que pueda interactuar y compartir capturas de pantalla cambia por completo la forma en que se usa y se habla del producto. Eso también contribuyó a que el bot esté un poco sobrevalorado.

Por extraño que parezca, esta es la segunda IA ​​que causa revuelo en las últimas semanas.

El 15 de noviembre, Meta AI lanzó su propia inteligencia artificial, apodada Galactica. Al igual que ChatGPT, es un modelo de lenguaje grande y fue promocionado como una forma de «organizar la ciencia». Esencialmente, podría generar respuestas a preguntas como «¿Qué es la gravedad cuántica?» o explicar ecuaciones matemáticas. Al igual que ChatGPT, ingresa una pregunta y proporciona una respuesta.

Galactica se formó en más de 48 millones de artículos y resúmenes científicos, y proporcionó respuestas convincentes. El equipo de desarrollo promocionó el bot como una forma de organizar el conocimiento, y señaló que podría generar artículos de Wikipedia y artículos científicos.

El problema era que, en su mayor parte, estaba sacando basura: texto sin sentido que sonaba oficial e incluso incluía referencias a literatura científica, aunque estaban inventadas. El gran volumen de información errónea que producía en respuesta a indicaciones simples, y cuán insidiosa era esa información errónea, molestó a académicos e investigadores de IA, quienes dejaron volar sus pensamientos en Twitter. La reacción violenta hizo que el equipo de Meta AI cerrara el proyecto después de dos días.

ChatGPT no parece ir en la misma dirección. Se siente como una versión «más inteligente» de Galactica, con un filtro mucho más fuerte. Donde Galactica estaba ofreciendo formas de construir una bomba, por ejemplo, ChatGPT elimina las solicitudes que son discriminatorias, ofensivas o inapropiadas. ChatGPT también ha sido entrenado para ser conversacional y admitir sus errores.

Y, sin embargo, ChatGPT todavía está limitado de la misma manera que todos los modelos de idiomas grandes. Su propósito es construir oraciones, canciones, párrafos o ensayos mediante el estudio de miles de millones (¿trillones?) de palabras que existen en la web. Luego junta esas palabras, prediciendo la mejor manera de configurarlas.

Al hacerlo, escribe algunas respuestas de ensayo bastante convincentes, claro. También escribe basura, como Galactica. ¿Cómo puedes aprender de una IA que podría no estar proporcionando una respuesta veraz? ¿Qué tipo de trabajos podría reemplazar? ¿Sabrá la audiencia quién o qué escribió una pieza? ¿Y cómo puede saber que la IA no está diciendo la verdad, especialmente si suena convincente? El equipo de OpenAI reconoce las deficiencias del bot, pero estas son preguntas sin resolver que limitan las capacidades de una IA como esta en la actualidad.

Entonces, aunque el pequeño chatbot es entretenido, como lo demuestra este maravilloso intercambio sobre un chico que se jacta de las calabazases difícil ver cómo este La IA dejaría sin trabajo a profesores, programadores o periodistas. En cambio, a corto plazo, ChatGPT y su modelo subyacente probablemente complementarán lo que hacen los periodistas, profesores y programadores. Es una herramienta, no un reemplazo. Al igual que los periodistas usan la IA para transcribir largas entrevistas, podrían usar una IA al estilo de ChatGPT para, digamos, generar una idea para un titular.

Porque eso es exactamente lo que hicimos con esta pieza. El titular que ve en este artículo fue, en parte, sugerido por ChatGPT. Pero sus sugerencias no fueron Perfecto. Sugirió usar términos como «Empleo Humano» y «Trabajadores Humanos». Esos se sentían demasiado oficiales, también… robóticos. Sin emociones. Entonces, modificamos sus sugerencias hasta que obtuvimos lo que ves arriba.

¿Significa eso que una iteración futura de ChatGPT o su modelo de IA subyacente (que puede lanzarse tan pronto como el próximo año) no aparecerá y nos hará irrelevantes?

¡Quizás! Por ahora, siento que mi trabajo como periodista es bastante seguro.





Source link-43