OpenAI amenazó con una histórica demanda por difamación por reclamos falsos de ChatGPT [Updated]


(Actualización, 8:30 p. m.: Un portavoz de Gordon Legal proporcionó una declaración a Ars confirmando que las respuestas a los avisos de texto generados por ChatGPT 3.5 y 4 varían, con comentarios difamatorios que todavía se generan actualmente en ChatGPT 3.5. Entre las «varias declaraciones falsas» generadas por ChatGPT se encuentran falsedades que afirman que Brian Hood «fue acusado de sobornar a funcionarios en Malasia, Indonesia y Vietnam entre 1999 y 2005, que fue sentenciado a 30 meses de prisión después de declararse culpable de dos cargos de falso contabilidad bajo la Ley de Sociedades en 2012, y que autorizó pagos a un traficante de armas de Malasia que actuaba como intermediario para asegurar un contrato con el Gobierno de Malasia». Debido a que «todas estas declaraciones son falsas», Gordon Legal «presentó un Aviso de inquietudes a OpenAI» que detallaba la inexactitud y exigía una rectificación. «A medida que la inteligencia artificial se integre cada vez más en nuestra sociedad, la precisión de la información proporcionada por estos servicios será objeto de un minucioso escrutinio legal», dijo James Naughton, abogado de Hood, y señaló que si se presenta una demanda por difamación, «tendrá como objetivo reparar el daño causado» a Hood y «garantizar la precisión de este software en su caso»).

Era solo cuestión de tiempo antes de que ChatGPT, una herramienta de inteligencia artificial que genera respuestas basadas en mensajes de texto del usuario, fuera amenazada con su primera demanda por difamación. Eso sucedió el mes pasado, informó Reuters hoy, cuando un alcalde regional australiano, Brian Hood, envió una carta el 21 de marzo al desarrollador de la herramienta, OpenAI, anunciando su plan para demandar a la compañía por el supuesto papel de ChatGPT en la difusión de afirmaciones falsas de que se había ido. a prisión por cohecho.

Para evitar la histórica demanda, Hood le dio a OpenAI 28 días para modificar las respuestas de ChatGPT y evitar que la herramienta emitiera desinformación.

Según el equipo legal de Hood, ChatGPT podría dañar seriamente la reputación del alcalde al afirmar falsamente que Hood había sido condenado por participar en un escándalo de soborno en el extranjero a principios de la década de 2000 mientras trabajaba para una subsidiaria del Banco de la Reserva de Australia. Hood había trabajado para una subsidiaria, Note Printing Australia, pero en lugar de ser declarado culpable de soborno, Hood fue quien notificó a las autoridades sobre los sobornos. Reuters informó que Hood nunca fue acusado de ningún delito, pero ChatGPT parece haber confundido los hechos al generar algunas respuestas a mensajes de texto que preguntan sobre la historia de Hood.

OpenAI no respondió de inmediato a la solicitud de comentarios de Ars.

Sin embargo, Ars intentó replicar el error usando ChatGPT, y parece posible que OpenAI haya corregido los errores como lo indicó el equipo legal de Hood. Cuando Ars le preguntó a ChatGPT si Hood cumplió condena en prisión por soborno, ChatGPT respondió que Hood “no ha cumplido ninguna condena en prisión” y aclaró que “no hay información disponible en línea que sugiera que haya sido condenado por algún delito penal”. Luego, Ars preguntó si Hood alguna vez había sido acusado de soborno, y ChatGPT respondió: «No tengo ninguna información que indique que Brian Hood, el actual alcalde de Hepburn Shire en Victoria, Australia, haya sido acusado de soborno».

Ars no pudo comunicarse de inmediato con el equipo legal de Hood para averiguar qué mensajes de texto generaron los supuestos reclamos difamatorios o para confirmar si OpenAI había respondido para confirmar que el error se había solucionado. El equipo legal todavía estaba esperando esa respuesta en el momento en que se publicó el informe de Reuters esta mañana.

El abogado de Hood, James Naughton, socio de Gordon Legal, dijo a Reuters que la reputación de Hood es «central para su papel» como funcionario electo conocido por «arrojar luz sobre la mala conducta corporativa». Si las herramientas de inteligencia artificial como ChatGPT amenazan con dañar esa reputación, dijo Naughton a Reuters, «hace una diferencia para él». Es por eso que la histórica demanda por difamación podría ser su único curso de acción si no se corrigen los supuestos errores generados por ChatGPT, dijo. .

No está claro para Hood cuántas personas que usan ChatGPT estuvieron expuestas a la desinformación. Naughton dijo a Reuters que las declaraciones difamatorias eran tan graves que Hood podría reclamar más de 130.000 dólares en daños por difamación según la ley australiana.

Todavía es discutible si empresas como OpenAI podrían ser consideradas responsables de difamación. Es posible que las empresas puedan agregar suficientes descargos de responsabilidad a los productos para evitar tal responsabilidad, y luego podrían pasar la responsabilidad a los usuarios, quienes podrían estar diseminando afirmaciones falsas de manera negligente o intencional sabiendo que no siempre se puede confiar en ChatGPT.

Australia ha recibido críticas recientemente por la forma en que ha revisado las denuncias de difamación en la era digital. En 2020, Australia se movió para volver a redactar sus leyes de difamación después de que un fallo de un tribunal superior determinara que los editores que usan plataformas de redes sociales como Facebook deberían ser considerados responsables de los comentarios difamatorios de terceros en sus páginas, informó CNBC en 2021. Eso es contrario a las leyes que brindan inmunidad. escudos para plataformas, como la Sección 230 en los EE. UU.

En ese momento, Australia consideró que la cuestión de si los editores en línea deberían ser responsables de las declaraciones difamatorias hechas por comentaristas en foros en línea era “una de las más complejas de abordar”, con “complicaciones que van más allá de la ley de difamación”. A fines del año pasado, los fiscales generales australianos estaban impulsando nuevas reformas para garantizar que los editores pudieran evitar cualquier responsabilidad, informó The Guardian.

Ahora parece que las nuevas herramientas generativas de IA como ChatGPT que publican contenido potencialmente difamatorio probablemente plantearán la siguiente pregunta compleja, una que los reguladores, que ahora están pensando en la responsabilidad de los editores en las redes sociales, quizás aún no estén preparados para abordar.

Naughton dijo a Reuters que si procede la demanda de Hood, acusaría a OpenAI de «dar a los usuarios una falsa sensación de precisión al no incluir notas al pie» y no informar a los usuarios cómo funciona el algoritmo de ChatGPT para generar respuestas que pueden no ser completamente precisas. Los expertos en ética de IA han instado a los reguladores a garantizar que empresas como OpenAI sean más transparentes sobre cómo funcionan las herramientas de IA.

Si OpenAI no responde adecuadamente a las preocupaciones de Hood, su demanda podría proceder antes de que las leyes aclaren quién es responsable de la supuesta difamación generada por IA.

«Sería potencialmente un momento histórico en el sentido de que está aplicando esta ley de difamación a una nueva área de inteligencia artificial y publicación en el espacio de TI», dijo Naughton a Reuters.



Source link-49