ChatGPT hace acusaciones falsas contra locutor de radio, lo que resulta en una demanda por difamación contra OpenAI


Independientemente de cuán simple ChatGPT haya hecho la vida de millones de personas cuando desean respuestas rápidas a consultas en segundos, no se puede ignorar que el modelo de lenguaje grande (LLM) cometería errores flagrantes que eran falsos y engañosos. Desafortunadamente para OpenAI, la entidad detrás de la creación de ChatGPT, esos errores han llevado a la empresa a problemas gracias a una demanda presentada por un locutor de radio.

El locutor de radio presentó una demanda por difamación contra OpenAI porque ChatGPT generó respuestas relacionadas con el historial de delitos del locutor, que terminaron siendo falsas.

Mark Walters, un presentador de radio en Georgia, está demandando a OpenAI porque ChatGPT respondió que el presentador había sido acusado de defraudar y malversar fondos de una organización sin fines de lucro. Según The Verge, LLM generó la información después de recibir una consulta de un periodista llamado Fred Riehl. La demanda se presentó el 5 de junio en el Tribunal Superior del condado de Gwinnett de Georgia, y Walters busca una compensación monetaria de OpenAI por un monto no revelado.

El periodista recibió las respuestas de ChatGPT después de que le pidiera al programa que resumiera un caso judicial federal real mediante un enlace a un PDF en línea. El Modelo de Lenguaje Grande generó entonces un resumen falso del caso, que tiene muchos detalles pero que también era falso. Mencionó información incorrecta de que se creía que Mark Walters persiguió la apropiación indebida de fondos de una organización sin fines de lucro de derechos de armas llamada Fundación Segunda Enmienda, donde Walters se embolsó $ 5 millones. En ninguna parte se ha dicho que Walters fue acusado de este crimen.

Fred Riehl, el periodista, tomó la decisión responsable de no publicar esta información objetivamente incorrecta. En cambio, decidió duplicar la información a través de otra fuente, que era la decisión correcta. Sin embargo, los informes no confirman cómo Mark Walters descubrió que ChatGPT estaba generando respuestas falsas sobre él. Dado que millones de usuarios son conscientes de que dichos programas a menudo darían respuestas engañosas, que a menudo se denominan «alucinaciones», las descartarían por completo sin pensarlo dos veces.

Sin embargo, cuando ChatGPT comienza a generar respuestas que pueden causar daños reales, se convierte en un problema. Dos casos en los que las respuestas del LLM tuvieron consecuencias graves fue cuando un profesor amenazó con reprobar a toda su clase después de que ChatGPT declarara que los estudiantes estaban usando IA para completar sus ensayos. El segundo incidente giró en torno a un abogado que enfrentaba una posible inhabilitación después de usar el programa para investigar casos legales falsos. Debido a estos problemas y más, OpenAI ha emitido un pequeño descargo de responsabilidad en la página de inicio de ChatGPT, advirtiendo a los usuarios que la IA ocasionalmente puede generar información falsa.

No está claro cómo se desarrollará esta demanda, pero ya es hora de que los ingenieros de OpenAI intenten aliviar las respuestas falsas generadas por ChatGPT porque pueden surgir más problemas para varios profesionales, incluida la empresa.

Fuente de noticias: Courthouse News

Comparte esta historia

Facebook

Gorjeo



Source link-29