El viernes, un panel judicial federal se reuni\u00f3 en Washington, DC, para discutir los desaf\u00edos de vigilar las pruebas generadas por IA en los juicios, seg\u00fan un informe de Reuters. El Comit\u00e9 Asesor sobre Reglas de Evidencia de la Conferencia Judicial de EE. UU., un panel de ocho miembros responsable de redactar enmiendas a las Reglas Federales de Evidencia relacionadas con la evidencia, escuch\u00f3 a cient\u00edficos inform\u00e1ticos y acad\u00e9micos sobre los riesgos potenciales de que la IA se utilice para manipular im\u00e1genes y videos o crear deepfakes que podr\u00edan perturbar un juicio.<\/p>\n
La reuni\u00f3n se llev\u00f3 a cabo en medio de esfuerzos m\u00e1s amplios por parte de los tribunales federales y estatales de todo el pa\u00eds para abordar el aumento de los modelos de IA generativa (como los que impulsan ChatGPT de OpenAI o Stable Diffusion de Stability AI), que pueden entrenarse en grandes conjuntos de datos con el objetivo de producir texto realista. , im\u00e1genes, audio o v\u00eddeos.<\/p>\n
En la agenda de 358 p\u00e1ginas publicada para la reuni\u00f3n, el comit\u00e9 ofrece esta definici\u00f3n de deepfake y los problemas que los medios generados por IA pueden plantear en los juicios legales:<\/p>\n
\nUn deepfake es una presentaci\u00f3n audiovisual no aut\u00e9ntica preparada por programas de software que utilizan inteligencia artificial. Por supuesto, las fotos y los v\u00eddeos siempre han estado sujetos a falsificaci\u00f3n, pero los avances en la IA hacen que los deepfakes sean mucho m\u00e1s dif\u00edciles de detectar. El software para crear deepfakes ya est\u00e1 disponible gratuitamente en l\u00ednea y es bastante f\u00e1cil de usar para cualquiera. A medida que la usabilidad del software y la aparente autenticidad de los videos sigan mejorando con el tiempo, ser\u00e1 m\u00e1s dif\u00edcil para los sistemas inform\u00e1ticos, y mucho menos para los jurados legos, distinguir lo real de lo falso.<\/p>\n<\/blockquote>\n
Durante la audiencia de tres horas del viernes, el panel debati\u00f3 la cuesti\u00f3n de si las reglas existentes, anteriores al surgimiento de la IA generativa, son suficientes para garantizar la confiabilidad y autenticidad de las pruebas presentadas ante el tribunal.<\/p>\n
Algunos jueces del panel, como el juez de circuito estadounidense Richard Sullivan y la jueza de distrito estadounidense Valerie Caproni, habr\u00edan expresado escepticismo sobre la urgencia de la cuesti\u00f3n, se\u00f1alando que hasta ahora ha habido pocos casos en los que se haya pedido a los jueces que excluyan pruebas generadas por IA.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\n\u00abNo estoy seguro de que esta sea la crisis que se ha descrito, y no estoy seguro de que los jueces no tengan ya las herramientas para abordarla\u00bb, dijo el juez Sullivan, citado por Reuters.<\/p>\n
El a\u00f1o pasado, el presidente de la Corte Suprema de Estados Unidos, John Roberts, reconoci\u00f3 los beneficios potenciales de la IA para litigantes y jueces, al tiempo que enfatiz\u00f3 la necesidad de que el poder judicial considere sus usos adecuados en los litigios. El juez de distrito estadounidense Patrick Schiltz, presidente del comit\u00e9 de pruebas, dijo que determinar c\u00f3mo el poder judicial puede reaccionar mejor ante la IA es una de las prioridades de Roberts.<\/p>\n
En la reuni\u00f3n del viernes, el comit\u00e9 consider\u00f3 varios cambios de reglas relacionadas con los deepfakes. En la agenda de la reuni\u00f3n, el juez federal de distrito Paul Grimm y la abogada Maura Grossman propusieron modificar la Regla Federal 901(b)(9) (ver p\u00e1gina 5), \u200b\u200bque implica autenticar o identificar evidencia. Tambi\u00e9n recomendaron la adici\u00f3n de una nueva regla, 901(c), que podr\u00eda decir:<\/p>\n
\n901(c): Evidencia electr\u00f3nica potencialmente fabricada o alterada. Si una parte que cuestiona la autenticidad de una prueba generada por computadora u otra prueba electr\u00f3nica demuestra al tribunal que es m\u00e1s probable que sea fabricada o alterada total o parcialmente, la prueba es admisible s\u00f3lo si el proponente demuestra que su valor probatorio supera su efecto perjudicial para la parte que impugna la prueba.<\/p>\n<\/blockquote>\n
El panel acord\u00f3 durante la reuni\u00f3n que esta propuesta para abordar las preocupaciones sobre los litigantes que cuestionan las pruebas como deepfakes no funcion\u00f3 como est\u00e1 escrita y que ser\u00e1 reelaborada antes de ser reconsiderada m\u00e1s adelante.<\/p>\n
Otra propuesta de Andrea Roth, profesora de derecho de la Universidad de California, Berkeley, sugiri\u00f3 someter las pruebas generadas por m\u00e1quinas a los mismos requisitos de confiabilidad que los testigos expertos. Sin embargo, el juez Schiltz advirti\u00f3 que tal regla podr\u00eda obstaculizar los procesamientos al permitir que los abogados defensores cuestionen cualquier evidencia digital sin establecer una raz\u00f3n para cuestionarla.<\/p>\n
Por ahora, no se han realizado cambios definitivos en las reglas y el proceso contin\u00faa. Pero estamos siendo testigos de los primeros pasos de c\u00f3mo el sistema de justicia estadounidense se adaptar\u00e1 a una clase completamente nueva de tecnolog\u00eda de generaci\u00f3n de medios.<\/p>\n
Dejando de lado los riesgos de las pruebas generadas por IA, la IA generativa ha provocado momentos embarazosos para los abogados en los tribunales durante los \u00faltimos dos a\u00f1os. En mayo de 2023, el abogado estadounidense Steven Schwartz de la firma Levidow, Levidow & Oberman se disculp\u00f3 ante un juez por utilizar ChatGPT para ayudar a redactar documentos judiciales que citaban de manera inexacta seis casos inexistentes, lo que gener\u00f3 serias dudas sobre la confiabilidad de la IA en la investigaci\u00f3n legal. Adem\u00e1s, en noviembre, un abogado de Michael Cohen cit\u00f3 tres casos falsos que fueron potencialmente influenciados por un asistente de IA fabulador.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"El viernes, un panel judicial federal se reuni\u00f3 en Washington, DC, para discutir los desaf\u00edos de vigilar las pruebas generadas por IA en los juicios, seg\u00fan un informe de Reuters.…<\/p>\n","protected":false},"author":1,"featured_media":1105354,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[5223,38525,194,8153,7454,863,11757,3088,8761,15,697],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1105353"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1105353"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1105353\/revisions"}],"predecessor-version":[{"id":1105355,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1105353\/revisions\/1105355"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/1105354"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1105353"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1105353"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1105353"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}