OpenAI demandado por difamación después de que ChatGPT fabricara acusaciones legales contra locutor de radio


OpenAI se ha visto afectado por lo que parece ser la primera demanda por difamación en respuesta a información falsa generada por ChatGPT.

Un locutor de radio en Georgia, Mark Walters, está demandando a la compañía después de que ChatGPT declarara que Walters había sido acusado de defraudar y malversar fondos de una organización sin fines de lucro. El sistema generó la información en respuesta a una solicitud de un tercero, un periodista llamado Fred Riehl. Walters’ caso fue presentado el 5 de junio en el Tribunal Superior de Georgia del condado de Gwinnett y está buscando daños monetarios no especificados de OpenAI.

El caso es notable dadas las quejas generalizadas sobre información falsa generada por ChatGPT y otros chatbots. Estos sistemas no tienen una forma confiable de distinguir los hechos de la ficción, y cuando se les pide información, particularmente si se les pide que confirmen algo que el interrogador sugiere que es cierto, con frecuencia inventan fechas, hechos y cifras.

“Escuché sobre este nuevo sitio, que asumí falsamente que era como un súper motor de búsqueda”.

Por lo general, estas fabricaciones no hacen más que engañar a los usuarios o hacerles perder el tiempo. Pero están comenzando a surgir casos de tales errores que causan daño. Estos incluyen un profesor amenazando con reprobar su clase después de que ChatGPT afirmó que sus estudiantes usaban IA para escribir sus ensayos, y un abogado frente a posibles sanciones después de usar ChatGPT para investigar casos legales falsos. El abogado en cuestión recientemente le dijo a un juez: “Escuché sobre este nuevo sitio, que asumí falsamente que era como un súper motor de búsqueda”.

OpenAI incluye un pequeño descargo de responsabilidad en la página de inicio de ChatGPT que advierte que el sistema «ocasionalmente puede generar información incorrecta», pero la compañía también presenta a ChatGPT como una fuente de datos confiables, describiendo el sistema en el texto del anuncio como una forma de «obtener respuestas» y «aprender». algo nuevo.» El propio CEO de OpenAI, Sam Altman, ha dicho en numerosas ocasiones que prefiere aprender nueva información de ChatGPT que de los libros.

Sin embargo, no está claro si existe o no un precedente legal para responsabilizar a una empresa por los sistemas de inteligencia artificial. generar información falsa o difamatoriao si este caso en particular tiene un mérito sustancial.

Tradicionalmente en los Estados Unidos, Sección 230 protege a las empresas de Internet de la responsabilidad legal por la información producida por un tercero y alojada en sus plataformas. Se desconoce si estas protecciones se aplican a los sistemas de IA, que no solo se vinculan a las fuentes de datos, sino que generan información de nuevo (un proceso que también conduce a la creación de datos falsos).

La demanda por difamación presentada por Walters en Georgia podría poner a prueba este marco. El caso dice que un periodista, Fred Riehl, le pidió a ChatGPT que resumiera un caso real de la corte federal mediante un enlace a un PDF en línea. ChatGPT respondió creando un resumen falso del caso que fue detallado y convincente pero erróneo en varios aspectos. El resumen de ChatGPT contenía información objetivamente correcta, pero también acusaciones falsas contra Walters. Dijo que se creía que Walters había malversado fondos de una organización sin fines de lucro de derechos de armas llamada Fundación de la Segunda Enmienda “más de $ 5,000,000”. Walters nunca ha sido acusado de esto.

Riehl nunca publicó la información falsa generada por ChatGPT pero verificó los detalles con otra parte. No está claro en los archivos del caso cómo Walters se enteró de esta información errónea.

En particular, a pesar de cumplir con la solicitud de Riehl de resumir un PDF, ChatGPT no puede acceder a dichos datos externos sin el uso de complementos adicionales. La incapacidad del sistema para alertar a Riehl de este hecho es un ejemplo de su capacidad para engañar a los usuarios. (Aunque, cuando el borde probó el sistema hoy en la misma tarea, respondió clara e informativamente, diciendo: «Lo siento, pero como modelo basado en texto de IA, no tengo la capacidad de acceder o abrir archivos PDF específicos u otros documentos externos .”)

Eugene Volokh, profesor de derecho que ha escrito sobre la responsabilidad legal de los sistemas de IAanotado en un entrada en el blog que si bien el piensa” tal calumnia reclama [against AI companies] son en principio legalmente viables”, esta demanda en particular “debería ser difícil de mantener”. Volokh señala que Walters no notificó a OpenAI sobre estas declaraciones falsas, dándoles la oportunidad de eliminarlas, y que no ha habido daños reales como resultado de la salida de ChatGPT. “Sin embargo, en cualquier caso, será interesante ver qué sucede finalmente aquí”, dice Volokh.

Nos comunicamos con OpenAI para obtener comentarios y actualizaremos esta historia si recibimos una respuesta.



Source link-37