Los abogados tienen un mal día en la corte después de citar casos falsos inventados por ChatGPT


Imágenes Getty | fotografía de estilo

Un juez federal desestimó una demanda y emitió una multa de $ 5,000 a los abogados del demandante después de que usaron ChatGPT para investigar documentos judiciales que citaban seis casos falsos inventados por la herramienta de inteligencia artificial creada por OpenAI.

Los abogados Steven Schwartz y Peter LoDuca de la firma Levidow, Levidow & Oberman «abandonaron sus responsabilidades cuando presentaron dictámenes judiciales inexistentes con citas falsas y citas creadas por la herramienta de inteligencia artificial ChatGPT, y luego continuaron defendiendo las opiniones falsas después de juicios judiciales». órdenes pusieron en duda su existencia», escribió ayer el juez federal de distrito Kevin Castel en una orden. Los abogados, escribió Castel, «abogaron por los casos falsos y los argumentos legales» incluso «después de haber sido informados por la presentación de su adversario de que sus citaciones no existían y no se podían encontrar».

El juez emitió una multa de $5,000 a ser pagada por los dos abogados y su firma bajo responsabilidad conjunta y solidaria. Lo que es más vergonzoso para los abogados es que deben enviar cartas a seis jueces reales que fueron «falsamente identificados como los autores de las opiniones falsas» citadas en sus documentos legales. Castel describió el análisis legal en uno de los casos falsos como «galimatías».

«La corte requerirá que los demandados informen a su cliente y a los jueces cuyos nombres fueron invocados indebidamente sobre las sanciones impuestas», escribió Castel. «El Tribunal no requerirá una disculpa de los demandados porque una disculpa forzada no es una disculpa sincera. Cualquier decisión de disculparse se deja a los demandados».

Presentar opiniones falsas a un tribunal perjudica al cliente de los abogados, desperdicia el tiempo del tribunal, obliga a la parte contraria a desperdiciar «tiempo y dinero en exponer el engaño» y causa «daño potencial a la reputación de los jueces y tribunales cuyos nombres se invocan falsamente». como autores de opiniones falsas y a la reputación de un partido atribuido con conducta ficticia», escribió Castel. «Promueve el cinismo sobre la profesión legal y el sistema judicial estadounidense. Y un futuro litigante puede verse tentado a desafiar un fallo judicial alegando falsamente dudas sobre su autenticidad».

Caso ignorado

Como escribimos el mes pasado, Schwartz admitió haber usado ChatGPT para investigar y no verificó si las «opiniones legales» proporcionadas por el chatbot de IA eran precisas. Schwartz escribió en una declaración jurada que «nunca había utilizado ChatGPT como fuente para realizar una investigación legal antes de este hecho y, por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso».

el caso real, Roberto Mata contra Avianca, se presentó originalmente en un tribunal del estado de Nueva York, pero se trasladó al Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York. Schwartz representaba a Mata en la corte estatal pero no fue admitido para ejercer en la corte federal. Schwartz continuó redactando los escritos legales y LoDuca los presentó bajo su propio nombre.

Mata buscó una indemnización por las lesiones sufridas durante un vuelo de Avianca de El Salvador a Nueva York en agosto de 2019 cuando un carrito de bebidas y refrigerios de metal golpeó su rodilla. Los abogados de Mata usaron las citas falsas de ChatGPT para argumentar que el caso debería volver a la corte del estado de Nueva York, donde se aplicaría un estatuto de limitaciones de tres años.

Como era de esperar, su argumento citando casos falsos no fue convincente para el juez. Además de sancionar a los abogados, Castel accedió ayer a la moción de Avianca de sobreseer el caso. El juez estuvo de acuerdo con el demandado en que se aplica un plazo de prescripción de dos años en virtud del Convenio de Montreal y que la demanda del demandante se presentó demasiado tarde.

“Nunca pensé que podría inventarse”

La disputa sobre los precedentes falsos se prolongó durante unos meses. El 1 de marzo, los abogados de Mata citaron los casos falsos en un escrito que se opuso a la moción de Avianca de sobreseer el caso.

«Pero si el asunto hubiera terminado con los demandados aclarando sus acciones poco después de recibir el escrito del demandado del 15 de marzo cuestionando la existencia de los casos, o después de revisar las órdenes de la corte del 11 y 12 de abril que requerían la producción de los casos, el expediente ahora se vería bastante diferente», escribió Castel. «En cambio, los demandados individuales se duplicaron y no comenzaron a contar la verdad hasta el 25 de mayo, después de que el tribunal emitió una orden para mostrar motivos por los que uno de los demandados individuales no debería ser sancionado».

Castel encontró que los abogados eran culpables de «mala fe» y «actos de evasión consciente y declaraciones falsas y engañosas ante el Tribunal». Si bien Schwartz escribió las presentaciones legales falsas, LoDuca no verificó su exactitud.

«El Sr. LoDuca simplemente se basó en la creencia de que el trabajo producido por el Sr. Schwartz, un colega de más de veinticinco años, sería confiable», escribió Castel. Pero la práctica de Schwartz fue exclusivamente en la corte estatal. Los abogados admitieron en un memorándum de ley que Schwartz intentó «investigar un tema de bancarrota federal con el que no estaba familiarizado».

En una audiencia del 8 de junio sobre posibles sanciones, Schwartz testificó que estaba «operando bajo la falsa percepción de que este sitio web [ChatGPT] posiblemente no podría estar fabricando casos por sí solo». Schwartz declaró: «Simplemente no estaba pensando que el caso podría fabricarse, así que no lo estaba mirando desde ese punto de vista… Mi reacción fue, ChatGPT está descubriendo que caso en alguna parte. Quizá no esté publicado. Tal vez fue apelado. Tal vez el acceso es difícil de conseguir. Nunca pensé que podría inventarse».

La firma Levidow no tenía cuentas Westlaw o LexisNexis, sino que usaba una cuenta Fastcase que tenía acceso limitado a casos federales. Schwartz testificó que «escuchó sobre este nuevo sitio que asumí, asumí falsamente que era como un súper motor de búsqueda llamado ChatGPT, y eso es lo que usé».



Source link-49