En Ucrania, identificar a los muertos tiene un costo en derechos humanos


cinco días después Rusia lanzó su invasión a gran escala de Ucrania, hace un año esta semana, la empresa de reconocimiento facial con sede en EE. UU. Clearview AI ofreció al gobierno ucraniano acceso gratuito a su tecnología, sugiriendo que podría usarse para reunir familias, identificar operativos rusos y luchar desinformación. Poco después, el gobierno de Ucrania reveló que estaba usando la tecnología para escanear los rostros de los soldados rusos muertos para identificar sus cuerpos y notificar a sus familias. Para diciembre de 2022, Mykhailo Fedorov, viceprimer ministro y ministro de transformación digital de Ucrania, fue tuiteando una foto de sí mismo con el CEO de Clearview AI, Hoan Ton-That, agradeciendo a la compañía por su apoyo.

Dar cuenta de los muertos y hacer saber a las familias el destino de sus parientes es un imperativo de derechos humanos consagrado en tratados, protocolos y leyes internacionales como los Convenios de Ginebra y los Principios rectores para la gestión digna de las personas del Comité Internacional de la Cruz Roja (CICR). Muerto. También está vinculado a obligaciones mucho más profundas. El cuidado de los muertos es una de las prácticas humanas más antiguas, que nos humaniza, tanto como el lenguaje y la capacidad de autorreflexión. El historiador Thomas Laqueur, en su meditación épica, El trabajo de los muertos, escribe que “desde que la gente ha discutido el tema, el cuidado de los muertos se ha considerado fundamental: de la religión, de la política, del clan, de la tribu, de la capacidad de llorar, de una comprensión de la finitud de la vida, de la civilización misma.” Pero identificar a los muertos mediante la tecnología de reconocimiento facial utiliza el peso moral de este tipo de atención para autorizar una tecnología que plantea graves preocupaciones en materia de derechos humanos.

En Ucrania, el guerra más sangrienta en Europa desde la Segunda Guerra Mundial, el reconocimiento facial puede parecer una herramienta más para la sombría tarea de identificar a los caídos, junto con la digitalización de los registros de la morgue, los laboratorios móviles de ADN y la exhumación de fosas comunes.

¿Pero funciona? Ton-That dice que la tecnología de su compañía “funciona de manera efectiva independientemente del daño facial que pueda haberle ocurrido a una persona fallecida”. Hay poca investigación para respaldar esta afirmación, pero los autores de un pequeño estudio encontraron resultados «prometedores» incluso para rostros en estado de descomposición. Sin embargo, el antropólogo forense Luis Fondebrider, exjefe de los servicios forenses del CICR, que ha trabajado en zonas de conflicto en todo el mundo, pone en duda estas afirmaciones. “Esta tecnología carece de credibilidad científica”, dice. “No es absolutamente aceptado por la comunidad forense”. (La identificación de ADN sigue siendo el estándar de oro). El campo de la ciencia forense “comprende la tecnología y la importancia de los nuevos desarrollos”, pero la prisa por usar el reconocimiento facial es “una combinación de política y negocios con muy poca ciencia”, en opinión de Fondebrider. “No hay soluciones mágicas para la identificación”, dice.

El uso de una tecnología no probada para identificar a los soldados caídos podría conducir a errores y traumatizar a las familias. Pero incluso si el uso forense de la tecnología de reconocimiento facial estuviera respaldado por evidencia científica, no debería usarse para nombrar a los muertos. Es demasiado peligroso para los vivos.

Organizaciones como Amnistía Internacional, Electronic Frontier Foundation, Surveillance Technology Oversight Project y Immigrant Defense Project han declarado que la tecnología de reconocimiento facial es una forma de vigilancia masiva que amenaza la privacidad, amplifica la vigilancia racista, amenaza el derecho a protestar y puede conducir a actos ilícitos. arrestar. Damini Satija, director del Laboratorio de Responsabilidad Algorítmica de Amnistía Internacional y subdirector de Amnistía Tecnológica, dice que la tecnología de reconocimiento facial socava los derechos humanos al “reproducir la discriminación estructural a gran escala y automatizar y afianzar las desigualdades sociales existentes”. En Rusia, la tecnología de reconocimiento facial se está utilizando para sofocar la disidencia política. No cumple con los estándares legales y éticos cuando se usa en la aplicación de la ley en el Reino Unido y los EE. UU., y se utiliza como arma contra las comunidades marginadas de todo el mundo.

Clearview AI, que vende principalmente sus productos a la policía, tiene una de las bases de datos más grandes conocidas de fotos faciales, con 20 mil millones de imágenes, con planes para recopilar 100 mil millones de imágenes adicionales, lo que equivale a 14 fotos por cada persona en el planeta. La compañía ha prometido a los inversionistas que pronto “casi todos en el mundo serán identificables”. Los reguladores de Italia, Australia, el Reino Unido y Francia han declarado ilegal la base de datos de Clearview y han ordenado a la empresa que elimine las fotos de sus ciudadanos. En la UE, Reclaim Your Face, una coalición de más de 40 organizaciones de la sociedad civil, ha pedido una prohibición total de la tecnología de reconocimiento facial.

Investigador de ética de IA Stephanie Hare dice que Ucrania está “usando una herramienta y promoviendo a una empresa y un director general, que no solo se han comportado de manera poco ética sino también ilegal”. Ella conjetura que es un caso de “el fin justifica los medios”, pero pregunta: “¿Por qué es tan importante que Ucrania pueda identificar a los soldados rusos muertos usando Clearview AI? ¿Cómo es esto esencial para defender Ucrania o ganar la guerra?”.





Source link-46