El abogado de Michael Cohen citó tres casos falsos en un posible error impulsado por la IA


Agrandar / Imagen del abogado David Schwartz de su sitio web.

Un abogado que representa al ex abogado de Donald Trump, Michael Cohen, presentó un escrito judicial que cita tres casos que no existen, según un juez federal. El incidente es similar a uno reciente en el que los abogados presentaron citaciones falsas proporcionadas originalmente por ChatGPT, pero aún no se ha confirmado si el abogado de Cohen también utilizó una herramienta de inteligencia artificial.

«El 29 de noviembre de 2023, David M. Schwartz, abogado oficial del acusado Michael Cohen, presentó una moción para la terminación anticipada de la libertad supervisada», escribió ayer el juez de distrito estadounidense Jesse Furman en una orden para demostrar la causa. «En la carta, el Sr. Cohen afirma que: ‘[a]Hasta 2022, ha habido decisiones del Tribunal de Distrito, confirmadas por el Tribunal del Segundo Circuito, que otorgan la terminación anticipada de la libertad supervisada.'»

La carta de Schwartz mencionaba «tres ejemplos de este tipo», citando Estados Unidos contra Figueroa-Florez, Estados Unidos contra Ortizy Estados Unidos contra Amato. El escrito proporcionó números de casos, resúmenes y fechas de fallo, pero Furman concluyó que los casos son falsos.

«Hasta donde el Tribunal sabe, ninguno de estos casos existe», escribió Furman. Furman, juez del Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York, ordenó a Schwartz que proporcionara copias de las tres decisiones citadas antes del 19 de diciembre.

«Si no puede hacerlo, el Sr. Schwartz deberá, antes de la misma fecha, demostrar por escrito los motivos por los que no debe ser sancionado de conformidad con (1) la Regla 11(b)(2) y (c) de las Reglas Federales. de Procedimiento Civil, (2) 28 USC § 1927, y (3) el poder inherente de la Corte para citar casos inexistentes ante la Corte», escribió Furman.

Suponiendo que no pueda encontrar esos casos, Schwartz también debe proporcionar «una explicación detallada de cómo la moción llegó a citar casos que no existen y qué papel, si alguno, jugó el Sr. Cohen en la redacción o revisión de la moción antes de que fuera presentada». archivado.»

El nuevo abogado de Cohen no pudo verificar las citaciones

Schwartz anuncia sus servicios de defensa penal en un sitio web personal con un eslogan que dice: «El poder del abogado está en la incertidumbre de la ley».

Nos comunicamos con Schwartz hoy y actualizaremos este artículo si recibimos una respuesta. Un periodista de Politico llamó a Cohen ayer pero informó que «Cohen colgó el teléfono» cuando se le pidió un comentario.

En una nota a pie de página sobre su orden, Furman señala que el tribunal «aparentemente no es el único que no puede encontrar estos casos». El 6 de diciembre, la abogada E. Danya Perry notificó al tribunal que representaría a Cohen. El 9 de diciembre, Perry escribió para apoyar la moción para poner fin a la libertad supervisada, pero reconoció que no podía verificar los casos citados por Schwartz.

«Si bien varios casos fueron citados en la moción inicial presentada por diferentes abogados, el abogado abajo firmante no estaba contratado en ese momento y debe informar al Tribunal que no ha podido verificar esas citaciones», escribió Perry.

Este puede ser otro ejemplo de un abogado que cita casos falsos alucinados por una herramienta de inteligencia artificial. En mayo, un juez federal del mismo tribunal de distrito impuso una multa de 5.000 dólares a dos abogados y su bufete de abogados después de que admitieran haber utilizado ChatGPT para ayudar a redactar documentos judiciales que citaban seis casos inexistentes inventados por el chatbot de IA. Los abogados también tuvieron que escribir cartas a los seis jueces reales que fueron «falsamente identificados como los autores de las opiniones falsas» citadas en sus documentos legales.

En Texas, un juez federal impuso una norma que prohíbe los envíos escritos por inteligencia artificial a menos que un humano controle la producción de la IA. En otro tribunal federal del Distrito de Columbia, el rapero condenado Prakazrel «Pras» Michel argumentó que debería tener un nuevo juicio porque su abogado «utilizó un programa experimental de inteligencia artificial para escribir» un «argumento final frívolo e ineficaz».



Source link-49