El territorio inexplorado de las reclamaciones judiciales de IA de Pras Michél


Pras Michél con su ex abogado David Kenner.
Foto: Tasos Katopodis/Getty Images

Listo o no, fugitivos El miembro Pras Michél se enfrenta a AI de frente. Michél exige un nuevo juicio tras su reciente condena por cargos de conspiración en abril. Su argumento legal es novedoso, ya que afirma que su abogado defensor utilizó inteligencia artificial en el tribunal, descarrilando una posible absolución. Michél, nombre legal Prakazrel Michél, presentó documentación el 16 de octubre de 2023, alegando que el abogado defensor David Kenner falló en su argumento final al confiar en un programa de inteligencia artificial “experimental” que descuidó argumentos importantes, lo que podría conducir a la condena del rapero. “El cierre fue perjudicial a la defensa”, escribieron los nuevos abogados de Michél, Peter Zeidenberg, Michael F. Dearington, David M. Tafuri y Sarah “Cissy” Jackson en documentos judiciales.

Gracias al uso de IA, afirman los nuevos abogados, Kenner efectivamente admitió que Michél cometió un delito durante su cierre. Según la fiscalía, Michél supuestamente habría transferido dinero de un empresario fugitivo, Jho Low, a la campaña de Barack Obama en 2012 utilizando donantes falsos. Durante su declaración final, Kenner dijo que Low quería una fotografía con Obama y que estaba dispuesto a pagar cualquier cosa para conseguirla, y no negó que Michél aceptara dinero de Low. “Michél estaba tratando de conseguir una fotografía para alguien llamado Jho Low e hizo todo lo posible para conseguirle esa foto a Jho Low”, dijo Kenner.

La acusación de Michél sobre la IA es parte de una afirmación más amplia de que Kenner «fue ineficaz y perjudicó gravemente a la defensa». “El programa de IA le falló a Kenner, y Kenner le falló a Michél”, dijeron sus nuevos abogados en documentos judiciales. “El argumento final fue deficiente, inútil y una oportunidad perdida que perjudicó a la defensa”. Vulture habló con varios abogados veteranos sobre un supuesto uso del impacto potencial de la IA en la iniciativa para un nuevo juicio.

¿Qué argumentos judiciales acusa Michél de haber sido generados por inteligencia artificial?

Al contar la historia de Obama, su lenguaje ante los jurados “parecía ser una admisión de culpabilidad” por el mal uso de fondos de campaña de Michél para el tráfico de influencias, afirman sus nuevos abogados. También notan el uso destrozado que hace Kenner de las letras de las canciones. Atribuyó erróneamente la canción de Puff Daddy a Fugees, una canción de Puff Daddy muy conocida, con la letra «Todos los días, cada vez que rezo, te extrañaré», y «atribuyó erróneamente el éxito mundial de Michél ‘Ghetto Supastar ( Eso es lo que eres)’ al refugiados, cuando en realidad era un single de Michél”, escribieron.

Los nuevos abogados de Michél no solo afirman que Kenner utilizó texto leído y generado por un chatbot para obtener orientación legal. Sus documentos judiciales también sugieren que usó un bot por razones monetarias. «Kenner generó su argumento final, quizás la parte más importante de cualquier juicio con jurado, utilizando un prototipo de programa de inteligencia artificial patentado en el que él y Alon Israely parecen haber tenido una participación financiera no revelada». Afirman que el supuesto uso por parte de Kenner de EyeLevel.AI, la tecnología utilizada en la defensa, estropeó su cierre, diciendo que «presentó argumentos frívolos, malinterpretó los elementos requeridos, combinó los esquemas e ignoró debilidades críticas en el caso del gobierno».

¿Ha respondido EyeLevel.AI a las acusaciones?

Antes de que Michél se quejara del uso de IA, EyeLevel.AI dijo en un comunicado en su sitio web que la “tecnología de asistencia en litigios” de la compañía hizo historia la semana pasada, convirtiéndose en el primer uso de IA generativa en un juicio federal. El caso involucraba a Pras Michél, ex miembro de la banda de hip-hop The Fugees, que estaba siendo juzgado por cargos de fraude internacional”. La compañía afirma que su tecnología “Lit Assist” puede proporcionar “ofrece información crítica más rápido que los esfuerzos humanos y las tecnologías convencionales por sí solas” para cosas que van desde la redacción de documentos hasta el trabajo de apelaciones.

«Esto supone un cambio absoluto en los litigios complejos», se cita a Kenner en un comunicado de prensa después del juicio. “El sistema convertía horas o días de trabajo legal en segundos. Esta es una mirada al futuro sobre cómo se llevarán a cabo los casos”. Los ex abogados de Michél no respondieron a una solicitud de comentarios.

Sin embargo, EyeLevel.AI insiste en que no ocurrió nada indebido. El director de operaciones de la empresa, Neil Katz, dijo al periódico New York Veces que los ex abogados de Michél no se basaron en ello. “La idea aquí no es tomar lo que genera una computadora y llevarlo a una sala del tribunal y leerlo en el expediente”, dijo Katz al periódico. «Eso no es lo que pasó aquí». Insistió en que “los abogados humanos toman esto como un aporte importante que les ayuda a llegar a las ideas más rápido… En última instancia, escriben los argumentos legales que presentan en un tribunal”. También negó que los abogados tuvieran algún tipo de interés financiero en su empresa.

«La IA jurídica de EyeLevel es una herramienta poderosa para que los abogados humanos tomen decisiones humanas, pero lo hacen más rápido y con mucha más información al alcance de la mano», dijo Katz en una declaración a Vulture. “EyeLevel es capaz de asimilar y comprender transcripciones legales complejas basándose únicamente en los hechos del caso presentados ante el tribunal. Los abogados pueden utilizar esto para preparar argumentos legales, interrogar a testigos, predecir los argumentos del abogado contrario y más”. Específicamente, en el caso de Michél, “la IA fue entrenada específicamente en las transcripciones del juicio y produjo investigaciones y análisis para el equipo legal de una manera revolucionaria, basándose únicamente en los hechos del caso tal como se presentaron en el juicio. Estamos en desacuerdo con esta idea de que de alguna manera nuestra tecnología produjo información inexacta, incorrecta o inútil para el equipo legal”.

¿La IA ha dado lugar anteriormente a reclamaciones de asistencia ineficaz a los abogados?

Carl Tobias, profesor de derecho en la Universidad de Richmond, dijo que se trata de un área novedosa y que es muy posible que este tipo de reclamo no haya ocurrido todavía. «Todo el ámbito de la asistencia ineficaz de los abogados tiene muchos antecedentes y mucha jurisprudencia: la protección de los derechos de las personas en ciertas situaciones», dijo Tobias, «pero no está claro si se extendería a depender de nuevas tecnologías y, por lo tanto, parece Para mí eso está a la vanguardia”. Debido a que este es un “territorio inexplorado”, Tobias dijo que es difícil decir qué pensaría un juez al respecto.

¿Podría Michél conseguir un nuevo juicio gracias a que su abogado utilizó IA?

Conseguir un nuevo juicio no es una tarea fácil, incluso por motivos de asistencia letrada ineficaz. Un aspecto a considerar es si la IA realmente está haciendo el trabajo que se supone que debe hacer un abogado. Murray Richman, un abogado defensor desde hace mucho tiempo cuya lista de clientes famosos incluye al fallecido rapero DMX, dijo que el alcance es increíblemente importante: «Depende de cuánto de ese argumento se basó o no en la IA». Algunas de las frases genéricas que se invocan en las declaraciones iniciales: Damas y caballeros, por ejemplo, son una cosa, pero si la IA hace un trabajo pesado, entonces es otra cosa completamente distinta. Richman explica que eso podría ser motivo para una asistencia ineficaz de un abogado, porque el abogado no está haciendo el trabajo; es análogo a pedirle a un estudiante de derecho que escriba un resumen. “¿Es esa asistencia ineficaz de un abogado? Por supuesto que lo es”, dijo Richman. «Se trata de conseguir que otra persona haga lo que esa persona debe haber hecho o debería haber hecho».

¿Alguna vez un abogado se ha metido en problemas por utilizar IA en los tribunales?

En junio de 2023, dos abogados de la ciudad de Nueva York recibieron una multa de 5.000 dólares por presentar un escrito legal repleto de casos ficticios creados todos por ChatGPT, según el Veces. El caso, un litigio sin complicaciones contra una aerolínea, Avanca, atrajo la atención internacional. Los abogados de la aerolínea dijeron que no pudieron encontrar casos presentados por sus oponentes. El juez de este caso pidió a los abogados que le enviaran copias de los casos. No pudieron porque dichos casos no existían. «Me enteré de este nuevo sitio, que supuse erróneamente que era como un súper motor de búsqueda», le dijo al juez el abogado que utiliza ChatGPT, Steven A. Schwartz. También dijo: «No entendía que ChatGPT pudiera inventar casos».



Source link-22