Juez federal: no hay IA en mi sala del tribunal a menos que un humano verifique su precisión


Imágenes Getty | el escritor de luz

Un juez federal en Texas tiene una nueva regla para los abogados en su sala de audiencias: no se permiten presentaciones escritas por inteligencia artificial a menos que un ser humano verifique la salida de la IA. El juez de distrito de EE. UU. Brantley Starr también ordenó a los abogados que presenten certificados que acrediten que sus presentaciones fueron escritas o revisadas por humanos.

«Todos los abogados que comparecen ante el Tribunal deben presentar en el expediente un certificado que acredite que ninguna parte de la presentación fue redactada por inteligencia artificial generativa (como ChatGPT, Harvey.AI o Google Bard) o que cualquier lenguaje redactado por inteligencia artificial generativa fue verificada por un ser humano para verificar su precisión, utilizando reporteros impresos o bases de datos legales tradicionales», según un nuevo «requisito específico del juez» en la sala del tribunal de Starr.

Se debe presentar una certificación para cada caso y cubriría todas las presentaciones en el caso. Una certificación de muestra dice que los requisitos se aplican a cualquier idioma en una presentación, «incluidas citas, citas, afirmaciones parafraseadas y análisis legal».

Starr, un candidato de Trump en el Tribunal de Distrito de EE. UU. para el Distrito Norte de Texas, dijo que las «plataformas de IA son increíblemente poderosas y tienen muchos usos en la ley: formularios de divorcio, solicitudes de descubrimiento, errores sugeridos en documentos, preguntas anticipadas en argumentos orales. Pero la información legal no es una de ellas». Las «plataformas de IA en sus estados actuales son propensas a las alucinaciones y los sesgos. En las alucinaciones, inventan cosas, incluso citas y citas».

La nueva orden permanente de Starr sobre IA se publicó ayer, según un artículo del experto legal Eugene Volokh. «Tenga en cuenta que los jueces federales rutinariamente tienen sus propias órdenes permanentes para los abogados que ejercen en sus salas de audiencias. Estas se suman a las reglas del distrito local y a las Reglas Federales de Procedimiento Civil y Penal normales», escribió Volokh.

Abogado citó casos falsos inventados por ChatGPT

La orden de Starr se produjo después de que el abogado Steven Schwartz, con sede en Nueva York, admitiera que usó ChatGPT para ayudar a escribir documentos judiciales que citaban seis casos inexistentes inventados por la herramienta de inteligencia artificial. Schwartz y sus asociados esperan posibles castigos del juez Kevin Castel del Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York.

En lo que Castel llamó «una circunstancia sin precedentes», el juez dijo que las presentaciones de los abogados del demandante incluían seis «decisiones judiciales falsas con citas falsas y citaciones internas falsas». Las presentaciones incluían nombres de casos inventados y una serie de «extractos» de fallos falsos que citaban precedentes falsos adicionales inventados por AI.

Una declaración jurada presentada por Schwartz dijo que «lamenta mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada aquí y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad». También dijo que «nunca había utilizado ChatGPT como fuente para realizar una investigación legal antes de este incidente y, por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso».

Juez: AI no hace juramento, no tiene lealtad

El nuevo orden permanente de Starr discutió los posibles sesgos en las herramientas de IA. «Mientras que los abogados hacen un juramento para dejar de lado sus prejuicios, prejuicios y creencias personales para defender fielmente la ley y representar a sus clientes, la inteligencia artificial generativa es el producto de la programación ideada por humanos que no tienen que hacer tal juramento», dijo. escribió.

Los «sistemas de IA no tienen lealtad con ningún cliente, el estado de derecho o las leyes y la Constitución de los Estados Unidos (o, como se mencionó anteriormente, la verdad)», continuó Starr. «Sin estar sujetos a ningún sentido del deber, el honor o la justicia, dichos programas actúan de acuerdo con el código de la computadora en lugar de la convicción, basados ​​en la programación en lugar de en los principios. Cualquier parte que crea que una plataforma tiene la precisión y confiabilidad requeridas para la información legal puede pedir licencia y explicar por qué.»

En el futuro, la orden de Starr decía que el tribunal «rechazará cualquier presentación de un abogado que no presente un certificado en el expediente que acredite que el abogado ha leído los requisitos específicos del juez del tribunal y entiende que él o ella será responsable según la Regla 11 por el contenido de cualquier presentación que él o ella firme y envíe al Tribunal, independientemente de si la inteligencia artificial generativa redactó alguna parte de esa presentación».



Source link-49