OpenAI debe defender las fabricaciones de ChatGPT después de no poder derrotar la demanda por difamación


Es posible que OpenAI finalmente tenga que responder por las «alucinaciones» de ChatGPT en los tribunales después de que un juez de Georgia falló recientemente en contra de la moción de la compañía de tecnología para desestimar la demanda por difamación de un locutor de radio.

OpenAI había argumentado que la producción de ChatGPT no puede considerarse difamación, en parte porque la producción del chatbot no puede considerarse una «publicación», que es un elemento clave de un reclamo por difamación. En su moción de desestimación, OpenAI también argumentó que el locutor de radio de Georgia, Mark Walters, no podía probar que la compañía actuó con malicia real o que alguien creyera que las declaraciones supuestamente difamatorias eran ciertas o que la supuesta publicación lo había perjudicado.

Es demasiado pronto para decir si la jueza Tracie Cason encontró convincentes los argumentos de OpenAI. En su orden denegando la moción de desestimación de OpenAI, que MediaPost compartió aquí, Cason no especificó cómo llegó a su decisión, y solo dijo que había considerado «cuidadosamente» los argumentos y las leyes aplicables.

Puede haber algunas pistas sobre cómo Cason llegó a su decisión en un expediente judicial presentado por John Monroe, abogado de Walters, cuando se opuso a la moción de desestimación el año pasado.

Monroe había argumentado que OpenAI actuó indebidamente para desestimar la demanda argumentando hechos que aún no se han probado en los tribunales. Si OpenAI pretendía que el tribunal se pronunciara sobre esos argumentos, Monroe sugirió que una moción de juicio sumario habría sido el paso adecuado en esta etapa del procedimiento, no una moción de desestimación.

Sin embargo, si OpenAI hubiera seguido ese camino, Walters habría tenido la oportunidad de presentar pruebas adicionales. Para sobrevivir a una moción de desestimación, todo lo que Walters tenía que hacer era demostrar que su denuncia estaba razonablemente respaldada por hechos, argumentó Monroe.

Al no poder convencer al tribunal de que Walters no tenía ningún caso, las teorías legales de OpenAI sobre su responsabilidad por las «alucinaciones» de ChatGPT probablemente enfrentarán ahora su primera prueba en los tribunales.

«Nos complace que el tribunal haya rechazado la moción de desestimación para que las partes tengan la oportunidad de explorar y obtener una decisión sobre los méritos del caso», dijo Monroe a Ars.

¿Cuál es el caso por difamación contra OpenAI?

Walters demandó a OpenAI después de que un periodista, Fred Riehl, le advirtiera que, en respuesta a una consulta, ChatGPT había inventado una demanda completa. Al generar una denuncia completa con un número de caso erróneo, ChatGPT afirmó falsamente que Walters había sido acusado de defraudar y malversar fondos de la Fundación de la Segunda Enmienda.

Walters es el presentador de Armed America Radio y tiene reputación de ser la «voz más fuerte de Estados Unidos que lucha por los derechos de las armas». Afirmó que OpenAI ignoró «imprudentemente» si los resultados de ChatGPT eran falsos, alegando que OpenAI sabía que «las alucinaciones de ChatGPT eran generalizadas y graves» y no trabajó para evitar resultados supuestamente difamatorios. Según lo vio Walters, las declaraciones falsas eran lo suficientemente graves como para ser potencialmente perjudicial para su carrera, «tendiendo a dañar la reputación de Walter y exponiéndolo al odio, el desprecio o el ridículo públicos».

Monroe argumentó que Walters había «presentado adecuadamente una reclamación» de difamación, per se, como ciudadano privado, «para la cual se puede conceder reparación conforme a la ley de Georgia» donde «se infiere malicia» en «todas las acciones por difamación» pero «puede ser refutado» por OpenAI.

OpenAI respondió que Walters era una figura pública que debía demostrar que OpenAI actuó con «malicia real» al permitir que ChatGPT produjera resultados supuestamente dañinos. Pero Monroe dijo al tribunal que OpenAI «no ha demostrado hechos suficientes para establecer que Walters sea una figura pública en general».

Si Walters es o no una figura pública podría ser otra cuestión clave que lleve a Cason a fallar en contra de la moción de desestimación de OpenAI.

Quizás también frustró al tribunal el hecho de que OpenAI introdujo «una gran cantidad de material» en su moción de desestimación que quedaba fuera del alcance de la demanda, argumentó Monroe. Eso incluyó señalar un descargo de responsabilidad en los términos de uso de ChatGPT que advierte a los usuarios que las respuestas de ChatGPT pueden no ser precisas y deben verificarse antes de publicarlas. Según OpenAI, este descargo de responsabilidad convierte a Riehl en el «propietario» de cualquier respuesta difamatoria de ChatGPT a sus consultas.

«Una exención de responsabilidad no convierte en no difamatoria una declaración que de otro modo sería difamatoria», argumentó Monroe. E incluso si el descargo de responsabilidad responsabiliza a Riehl por publicar el resultado de ChatGPT (un argumento que puede hacer que algunos usuarios de ChatGPT se detengan antes de realizar consultas) «esa responsabilidad no tiene el efecto de negar la responsabilidad del editor original del material», argumentó Monroe.

Además, OpenAI hizo referencia a una conversación entre Walters y OpenAI, aunque Monroe dijo que la denuncia «no alega que Walters alguna vez haya tenido una conversación» con OpenAI. Y OpenAI también argumentó de manera un tanto extraña que los resultados de ChatGPT podrían considerarse «comunicaciones intracorporativas» en lugar de publicaciones, sugiriendo que los usuarios de ChatGPT podrían considerarse contratistas privados al consultar el chatbot.

A medida que avanza la demanda, los usuarios curiosos de chatbots de todo el mundo pueden finalmente obtener la respuesta a una pregunta que no ha estado clara desde que ChatGPT se convirtió rápidamente en la aplicación para consumidores de más rápido crecimiento de todos los tiempos después de su lanzamiento en noviembre de 2022: ¿Se permitirá que las alucinaciones de ChatGPT arruinen vidas? ?

Mientras tanto, la FTC aparentemente todavía está investigando los daños potenciales causados ​​por las generaciones «falsas, engañosas o despectivas» de ChatGPT.

Un portavoz de la FTC le dijo anteriormente a Ars que la FTC generalmente no comenta sobre investigaciones no públicas.

OpenAI no respondió de inmediato a la solicitud de Ars para hacer comentarios.



Source link-49