Abogados estadounidenses multados con $ 5,000 después de incluir citas de casos falsos generadas por ChatGPT


Es algo que te inculcaron desde el primer ensayo que escribiste en la escuela: siempre revisa tus fuentes. Sin embargo, el abogado de Nueva York, Steven Schwartz, confió en ChatGPT para encontrarlos y revisarlos por él, una decisión que llevó a un juez a imponer una multa de $ 5,000 a él, a su socio Peter LoDuca y a su firma de abogados Levidow, Levidow and Oberman. El guardián informes. Schwartz lo usó para un caso en el que un hombre estaba demandando a la aerolínea colombiana Avianca alegando que resultó herido en un vuelo a la ciudad de Nueva York. En este caso, ChatGPT produjo seis casos como precedente, como «Martínez v. Delta Airlines» y «Miller v. United Airlines», que eran inexactos o simplemente no existían.

En la decisión de multar a Schwartz y compañía, el juez P. Kevin Castel explicó: «Los avances tecnológicos son comunes y no hay nada intrínsecamente inapropiado en el uso de una herramienta confiable de inteligencia artificial para obtener asistencia. Pero las reglas existentes imponen un papel de vigilancia a los abogados para garantizar la precisión». de sus presentaciones». Básicamente, puede usar ChatGPT para su trabajo, pero al menos verifique sus afirmaciones. Al no hacerlo, los abogados habían «abandonado sus responsabilidades», incluso cuando defendieron las declaraciones falsas después de que el tribunal cuestionara su legitimidad.

Los ejemplos de ChatGPT y otras inexactitudes de chatbots de IA están muy extendidos. Tomemos como ejemplo el chatbot de la Asociación Nacional de Trastornos de la Alimentación que proporcionó consejos dietéticos a las personas que se recuperaban de trastornos de la alimentación o ChatGPT acusando erróneamente a un profesor de derecho de agresión sexual usando un artículo inexistente de el poste de washington como prueba.



Source link-47