OpenAI se enfrenta a una demanda por difamación después de que ChatGPT inventó por completo otra demanda


Armed America Radio promociona a uno de sus presentadores, Mark Walters, como la «voz más fuerte en Estados Unidos que lucha por el derecho a portar armas». Ahora parece que el destacado comentario de Walters sobre los derechos de armas y la Fundación de la Segunda Enmienda (SAF, por sus siglas en inglés), una organización sin fines de lucro de derechos de armas que le otorgó un premio por servicio distinguido en 2017, ha llevado al chatbot generativo de inteligencia artificial ChatGPT a conectar puntos de manera incorrecta y hacer declaraciones falsas y supuestamente maliciosas. declaraciones sobre el locutor de radio. Eso incluye generar declaraciones potencialmente difamatorias de que Walters fue una vez el director financiero y tesorero de SAF y que fue acusado de malversar fondos y defraudar a SAF.

Ahora, Walters está demandando al propietario de ChatGPT, OpenAI, en un tribunal estatal de Georgia por daños monetarios no especificados en lo que probablemente sea la primera demanda por difamación resultante de las llamadas «alucinaciones» de ChatGPT, donde el chatbot fabrica información por completo.

La desinformación fue descubierta por primera vez por el periodista Fred Riehl, quien le pidió a ChatGPT que resumiera una denuncia que SAF presentó en un tribunal federal.

Esa denuncia de SAF en realidad acusó al fiscal general de Washington, Robert Ferguson, de «uso indebido del proceso legal para perseguir vendettas privadas y acabar con la disidencia». Walters nunca fue parte en ese caso ni siquiera se mencionó en la demanda, pero ChatGPT ignoró eso y todos los hechos reales del caso cuando se le pidió que lo resumiera, según la denuncia de Walters. En cambio, generó una respuesta totalmente inexacta a la indicación de Riehl, afirmando falsamente que el caso se presentó contra Walters por malversación de fondos que nunca sucedió mientras se desempeñaba en un puesto de SAF que nunca ocupó.

Incluso cuando Riehl le pidió a ChatGPT que señalara párrafos específicos que mencionaran a Walters en la denuncia de SAF o proporcionara el texto completo de la denuncia de SAF, ChatGPT generó una «fabricación completa» que «no se parece a la denuncia real, incluido un número de caso erróneo, » Dijo la denuncia de Walters.

«Cada declaración de hecho» en el resumen del caso SAF de ChatGPT «perteneciente a Walters es falsa», dijo la denuncia de Walters.

OpenAI no respondió de inmediato a la solicitud de comentarios de Ars.

¿OpenAI es responsable cuando ChatGPT miente?

No es la primera vez que ChatGPT fabrica una demanda por completo. Un abogado se enfrenta actualmente a duras consecuencias en la corte después de que ChatGPT inventó seis casos que el abogado citó sin verificar primero los detalles del caso que un juez calificó como «tonterías legales» obvias, informó Fortune.

Aunque muchas personas usan el sofisticado chatbot, desde estudiantes que investigan ensayos hasta abogados que investigan jurisprudencia, para buscar información precisa, los términos de uso de ChatGPT dejan claro que no se puede confiar en ChatGPT para generar información precisa. Dice:

La inteligencia artificial y el aprendizaje automático son campos de estudio en rápida evolución. Trabajamos constantemente para mejorar nuestros Servicios y hacerlos más precisos, confiables, seguros y beneficiosos. Dada la naturaleza probabilística del aprendizaje automático, el uso de nuestros Servicios puede, en algunas situaciones, dar como resultado una Salida incorrecta que no refleje con precisión personas, lugares o hechos reales. Debe evaluar la precisión de cualquier Salida según corresponda para su caso de uso, incluso mediante la revisión humana de la Salida.

El abogado de Walters, John Monroe, le dijo a Ars que «si bien la investigación y el desarrollo en IA son esfuerzos que valen la pena, es irresponsable desatar una plataforma en el público que, a sabiendas, hace declaraciones falsas sobre las personas».

OpenAI fue amenazado previamente con una demanda por difamación por parte de un alcalde australiano, Brian Hood, después de que ChatGPT generara afirmaciones falsas de que Hood había sido encarcelado por soborno. En ese caso, Hood le pidió a OpenAI que eliminara la información falsa como un remedio significativo; de lo contrario, el funcionario podría sufrir daños en su reputación que, dijo, podrían afectar negativamente su carrera política.

Monroe le dijo a Ars que Walters solo busca daños monetarios como remedio en este momento, lo que confirma que la posible pérdida de reputación de Walters podría afectar futuras oportunidades laborales o provocar la pérdida de oyentes de su comentario de radio.



Source link-49