Un caso judicial en Nueva York muestra por qué no debe confiar ciegamente en los chatbots de IA para obtener respuestas


Para respaldar su argumento, un abogado le pide ayuda a Chat-GPT. La IA proporciona respuestas convincentes. En la corte, sin embargo, el contenido bien empaquetado colapsa.

Una demanda relacionada con una lesión sufrida en un avión aparece en los titulares, gracias al chat GPT.

Getty

«El tribunal se enfrenta a circunstancias sin precedentes». Así resume un juez de un tribunal federal de Nueva York los hechos que tiene que valorar. Durante una demanda que involucró a la aerolínea colombiana Avianca, los abogados de los demandantes presentaron una serie de precedentes fabricados por Chat-GPT, el chatbot basado en inteligencia artificial (IA) de Open AI.

El episodio sirve como un recordatorio de que, si bien las respuestas que brindan los asistentes de voz de IA siempre suenan convincentes, su veracidad debe examinarse críticamente.

El proceso gira en torno a una lesión en la rodilla supuestamente sufrida por un pasajero en un vuelo de El Salvador a Nueva York operado por Avianca en agosto de 2019. La aerolínea se declaró en bancarrota en 2020, lo que provocó que los abogados de las partes discutieran en el tribunal sobre si los reclamos del pasajero eran nulos.

Precedentes indetectables

En marzo de 2023, los abogados de Levidow Law Firm, Levidow and Oberman, en representación del pasajero, presentaron el caso ante el tribunal. sus argumentos Para ello, presentaron una serie de precedentes para sustentar su interpretación. Por ejemplo, el caso de «Varghese v. China Southern Airlines» o «Zicherman v. Líneas aéreas coreanas».

Único: Ni los abogados de Avianca ni el juez pudieron ubicar estos casos ni los pasajes citados de ellos en las bases de datos. Por lo tanto, el juez ordenó que se presentaran copias de los casos correspondientes. Los abogados del demandante luego poner supuestas copias de los documentos deseados. Sin embargo, persistía el problema de que los casos no eran rastreables.

A principios de mayo, el juez perdió la cabeza. «Seis de los casos presentados parecen ser decisiones judiciales falsificadas con citas falsificadas y referencias internas falsificadas», el escribio. El juez amenazó al abogado de la firma que lleva el caso con consecuencias si no daba una explicación satisfactoria.

en la respuesta esta decisión reveló que Steven A. Schwartz, quien había investigado el caso para su colega de la firma, había utilizado Chat-GPT para hacerlo. Schwartz también se basó en el chatbot para verificar la autenticidad de los precedentes.

Una captura de pantalla de la conversación con el chat GPT presentada ante el tribunal.

Una captura de pantalla de la conversación con el chat GPT presentada ante el tribunal.

DCSD Nueva York

Cuando se le preguntó si Varghese era un caso real, Chat-GPT respondió: «Sí, Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019) es un caso real.» Cuando se le preguntó si los otros casos encontrados por Chat-GPT eran falsos, el chatbot lo negó. Incluso cuando el juez ordenó que se presentaran copias de los precedentes, Schwartz se acercó a Chat-GPT y envió copias de la conversación al tribunal.

En la declaración ante el tribunal, Schwartz dijo que nunca antes había usado Chat-GPT como recurso de investigación legal y, por lo tanto, no sabía que el contenido podría ser falso. De ninguna manera tuvo la intención de engañar a la corte. En una audiencia a principios de junio, se tomará una decisión sobre si Schwartz enfrentará alguna consecuencia.

Contenido incorrecto bien empaquetado

No es ningún secreto que los chatbots como Chat-GPT dan información falsa. Los asistentes de idiomas se basan en IA generativa y compilan oraciones en función de las probabilidades. Los chatbots están programados para responder de manera humana y persuasiva. Sin embargo, las máquinas no saben si la información es real o falsa.

En el caso descrito anteriormente, las respuestas parecían correctas en su forma. Pero el contenido, empaquetado en lenguaje legal, estaba equivocado.

El hecho de que el abogado usara las respuestas sin verificación para su argumento fue ciertamente ingenuo. También pasó por alto la letra pequeña debajo del campo de entrada del chatbot, que establece que Chat-GPT puede proporcionar información inexacta sobre personas, lugares o hechos.

Al mismo tiempo, los chatbots son anunciados por proveedores como Open AI, Google y Microsoft como pequeños ayudantes útiles en la vida cotidiana y rodeados de un aura casi mágica. Muchas personas utilizan los sistemas de IA generativa como reemplazo de los motores de búsqueda. Si bien algunas de las respuestas son sorprendentes, la tecnología no es lo suficientemente avanzada como para confiar ciegamente. Es poco probable que los abogados se queden sin trabajo debido a la IA, al menos en un futuro previsible.



Source link-58