Legisladores estadounidenses piden al Departamento de Justicia que deje de financiar a ciegas herramientas policiales ‘predictivas’


El Departamento de Justicia de los Estados Unidos no ha logrado convencer a un grupo de legisladores estadounidenses de que las agencias policiales estatales y locales no reciben subvenciones federales para comprar herramientas «policiales» basadas en inteligencia artificial que se sabe que son inexactas, si no propensas a exacerbar los sesgos observados desde hace mucho tiempo en Fuerzas policiales estadounidenses.

Siete miembros del Congreso escribieron en una carta al Departamento de Justicia, obtenida por primera vez por WIRED, que la información que obtuvieron de la agencia sólo había servido para inflamar sus preocupaciones sobre el programa de subvenciones policiales del Departamento de Justicia. Nada en sus respuestas hasta el momento, dijeron los legisladores, indica que el gobierno se haya molestado en investigar si los departamentos que recibieron subvenciones compraron software policial discriminatorio.

«Le instamos a suspender todas las subvenciones del Departamento de Justicia para sistemas policiales predictivos hasta que el Departamento de Justicia pueda garantizar que los beneficiarios de las subvenciones no utilizarán dichos sistemas de manera que tengan un impacto discriminatorio», se lee en la carta. El Departamento de Justicia reconoció anteriormente que no había realizado un seguimiento de si los departamentos de policía estaban utilizando los fondos, otorgados en el marco del Programa de Subvenciones de Asistencia Judicial en Memoria de Edward Byrne, para comprar las llamadas herramientas policiales predictivas.

Dirigidos por el senador Ron Wyden, demócrata de Oregón, los legisladores dicen que la ley exige que el Departamento de Justicia «revise periódicamente» si los beneficiarios de las subvenciones cumplen con el Título VI de la Ley de Derechos Civiles de la nación. Explican que el Departamento de Justicia tiene claramente prohibido financiar programas que demuestren discriminar por motivos de raza, etnia u origen nacional, ya sea que ese resultado sea intencional o no.

Investigaciones independientes en la prensa han descubierto que las populares herramientas policiales “predictivas” basadas en datos históricos sobre delitos a menudo replican sesgos arraigados desde hace mucho tiempo, ofreciendo a las fuerzas del orden, en el mejor de los casos, un barniz de legitimidad científica al tiempo que perpetúan el exceso de vigilancia en vecindarios predominantemente negros y latinos. . Un titular de octubre de The Markup dice sin rodeos: “El software de vigilancia predictiva es terrible para predecir delitos”. La historia relata cómo los investigadores de la publicación examinaron recientemente 23.631 predicciones policiales sobre delitos y encontraron que eran precisas aproximadamente el 1 por ciento de las veces.

“Los sistemas policiales predictivos se basan en datos históricos distorsionados por informes de delitos falsificados y arrestos desproporcionados de personas de color”, escribieron Wyden y los demás legisladores, prediciendo (como lo han hecho muchos investigadores) que la tecnología sólo sirve para crear ciclos de retroalimentación “peligrosos”. La declaración señala que “se utilizan predicciones sesgadas para justificar detenciones y detenciones desproporcionadas en barrios minoritarios”, lo que sesga aún más las estadísticas sobre dónde ocurren los delitos.

Los senadores Jeffrey Merkley, Ed Markey, Alex Padilla, Peter Welch y John Fetterman también firmaron la carta, al igual que la representante Yvette Clarke.

Los legisladores han solicitado que un próximo informe presidencial sobre vigilancia e inteligencia artificial investigue el uso de herramientas policiales predictivas en Estados Unidos. “El informe debe evaluar la exactitud y precisión de los modelos policiales predictivos en todas las clases protegidas, su interpretabilidad y su validez”, para incluir, agregaron, “cualquier límite en la evaluación de sus riesgos planteado por la falta de transparencia por parte de las empresas que los desarrollan. «

Si el Departamento de Justicia desea seguir financiando la tecnología después de esta evaluación, dicen los legisladores, debería al menos establecer “estándares de evidencia” para determinar qué modelos predictivos son discriminatorios y luego rechazar el financiamiento para todos aquellos que no los cumplan.



Source link-46