Deepfakes en la sala del tribunal: panel judicial de EE. UU. debate nuevas reglas sobre evidencia de IA


El viernes, un panel judicial federal se reunió en Washington, DC, para discutir los desafíos de vigilar las pruebas generadas por IA en los juicios, según un informe de Reuters. El Comité Asesor sobre Reglas de Evidencia de la Conferencia Judicial de EE. UU., un panel de ocho miembros responsable de redactar enmiendas a las Reglas Federales de Evidencia relacionadas con la evidencia, escuchó a científicos informáticos y académicos sobre los riesgos potenciales de que la IA se utilice para manipular imágenes y videos o crear deepfakes que podrían perturbar un juicio.

La reunión se llevó a cabo en medio de esfuerzos más amplios por parte de los tribunales federales y estatales de todo el país para abordar el aumento de los modelos de IA generativa (como los que impulsan ChatGPT de OpenAI o Stable Diffusion de Stability AI), que pueden entrenarse en grandes conjuntos de datos con el objetivo de producir texto realista. , imágenes, audio o vídeos.

En la agenda de 358 páginas publicada para la reunión, el comité ofrece esta definición de deepfake y los problemas que los medios generados por IA pueden plantear en los juicios legales:

Un deepfake es una presentación audiovisual no auténtica preparada por programas de software que utilizan inteligencia artificial. Por supuesto, las fotos y los vídeos siempre han estado sujetos a falsificación, pero los avances en la IA hacen que los deepfakes sean mucho más difíciles de detectar. El software para crear deepfakes ya está disponible gratuitamente en línea y es bastante fácil de usar para cualquiera. A medida que la usabilidad del software y la aparente autenticidad de los videos sigan mejorando con el tiempo, será más difícil para los sistemas informáticos, y mucho menos para los jurados legos, distinguir lo real de lo falso.

Durante la audiencia de tres horas del viernes, el panel debatió la cuestión de si las reglas existentes, anteriores al surgimiento de la IA generativa, son suficientes para garantizar la confiabilidad y autenticidad de las pruebas presentadas ante el tribunal.

Algunos jueces del panel, como el juez de circuito estadounidense Richard Sullivan y la jueza de distrito estadounidense Valerie Caproni, habrían expresado escepticismo sobre la urgencia de la cuestión, señalando que hasta ahora ha habido pocos casos en los que se haya pedido a los jueces que excluyan pruebas generadas por IA.

«No estoy seguro de que esta sea la crisis que se ha descrito, y no estoy seguro de que los jueces no tengan ya las herramientas para abordarla», dijo el juez Sullivan, citado por Reuters.

El año pasado, el presidente de la Corte Suprema de Estados Unidos, John Roberts, reconoció los beneficios potenciales de la IA para litigantes y jueces, al tiempo que enfatizó la necesidad de que el poder judicial considere sus usos adecuados en los litigios. El juez de distrito estadounidense Patrick Schiltz, presidente del comité de pruebas, dijo que determinar cómo el poder judicial puede reaccionar mejor ante la IA es una de las prioridades de Roberts.

En la reunión del viernes, el comité consideró varios cambios de reglas relacionadas con los deepfakes. En la agenda de la reunión, el juez federal de distrito Paul Grimm y la abogada Maura Grossman propusieron modificar la Regla Federal 901(b)(9) (ver página 5), ​​que implica autenticar o identificar evidencia. También recomendaron la adición de una nueva regla, 901(c), que podría decir:

901(c): Evidencia electrónica potencialmente fabricada o alterada. Si una parte que cuestiona la autenticidad de una prueba generada por computadora u otra prueba electrónica demuestra al tribunal que es más probable que sea fabricada o alterada total o parcialmente, la prueba es admisible sólo si el proponente demuestra que su valor probatorio supera su efecto perjudicial para la parte que impugna la prueba.

El panel acordó durante la reunión que esta propuesta para abordar las preocupaciones sobre los litigantes que cuestionan las pruebas como deepfakes no funcionó como está escrita y que será reelaborada antes de ser reconsiderada más adelante.

Otra propuesta de Andrea Roth, profesora de derecho de la Universidad de California, Berkeley, sugirió someter las pruebas generadas por máquinas a los mismos requisitos de confiabilidad que los testigos expertos. Sin embargo, el juez Schiltz advirtió que tal regla podría obstaculizar los procesamientos al permitir que los abogados defensores cuestionen cualquier evidencia digital sin establecer una razón para cuestionarla.

Por ahora, no se han realizado cambios definitivos en las reglas y el proceso continúa. Pero estamos siendo testigos de los primeros pasos de cómo el sistema de justicia estadounidense se adaptará a una clase completamente nueva de tecnología de generación de medios.

Dejando de lado los riesgos de las pruebas generadas por IA, la IA generativa ha provocado momentos embarazosos para los abogados en los tribunales durante los últimos dos años. En mayo de 2023, el abogado estadounidense Steven Schwartz de la firma Levidow, Levidow & Oberman se disculpó ante un juez por utilizar ChatGPT para ayudar a redactar documentos judiciales que citaban de manera inexacta seis casos inexistentes, lo que generó serias dudas sobre la confiabilidad de la IA en la investigación legal. Además, en noviembre, un abogado de Michael Cohen citó tres casos falsos que fueron potencialmente influenciados por un asistente de IA fabulador.



Source link-49