{"id":519559,"date":"2023-03-16T18:43:46","date_gmt":"2023-03-16T18:43:46","guid":{"rendered":"https:\/\/magazineoffice.com\/dentro-de-una-maquina-de-datos-del-gobierno-que-falla\/"},"modified":"2023-03-16T18:43:48","modified_gmt":"2023-03-16T18:43:48","slug":"dentro-de-una-maquina-de-datos-del-gobierno-que-falla","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/dentro-de-una-maquina-de-datos-del-gobierno-que-falla\/","title":{"rendered":"Dentro de una m\u00e1quina de datos del gobierno que falla"},"content":{"rendered":"


\n<\/p>\n

\n

La semana pasada, CABLEADO<\/span> public\u00f3 una serie de historias detalladas basadas en datos sobre un algoritmo problem\u00e1tico que la ciudad holandesa de R\u00f3terdam implement\u00f3 con el objetivo de erradicar el fraude de beneficios.<\/p>\n

En asociaci\u00f3n con Lighthouse Reports, una organizaci\u00f3n europea que se especializa en periodismo de investigaci\u00f3n, WIRED obtuvo acceso al funcionamiento interno del algoritmo bajo las leyes de libertad de informaci\u00f3n y explor\u00f3 c\u00f3mo eval\u00faa qui\u00e9n tiene m\u00e1s probabilidades de cometer fraude. <\/p>\n

Descubrimos que el algoritmo discrimina en funci\u00f3n de la etnia y el g\u00e9nero, otorgando injustamente a las mujeres y las minor\u00edas puntajes de riesgo m\u00e1s altos, lo que puede conducir a investigaciones que causan un da\u00f1o significativo a la vida personal de los reclamantes. Un art\u00edculo interactivo profundiza en las entra\u00f1as del algoritmo y lo lleva a trav\u00e9s de dos ejemplos hipot\u00e9ticos para mostrar que, si bien la raza y el g\u00e9nero no se encuentran entre los factores que se introducen en el algoritmo, otros datos, como el dominio del idioma holand\u00e9s de una persona, pueden actuar como un proxy. que permite la discriminaci\u00f3n.<\/p>\n

El proyecto muestra c\u00f3mo los algoritmos dise\u00f1ados para hacer que los gobiernos sean m\u00e1s eficientes, y que a menudo se anuncian como m\u00e1s justos y m\u00e1s basados \u200b\u200ben datos, pueden amplificar de forma encubierta los sesgos sociales. La investigaci\u00f3n de WIRED y Lighthouse tambi\u00e9n encontr\u00f3 que otros pa\u00edses est\u00e1n probando enfoques igualmente defectuosos para encontrar a los estafadores.<\/p>\n

\u201cLos gobiernos han estado incorporando algoritmos en sus sistemas durante a\u00f1os, ya sea una hoja de c\u00e1lculo o alg\u00fan sofisticado aprendizaje autom\u00e1tico\u201d, dice Dhruv Mehrotra, reportero de datos de investigaci\u00f3n de WIRED que trabaj\u00f3 en el proyecto. \u201cPero cuando un algoritmo como este se aplica a cualquier tipo de aplicaci\u00f3n de la ley punitiva y predictiva, se vuelve de alto impacto y bastante aterrador\u201d.<\/p>\n

El impacto de una investigaci\u00f3n impulsada por el algoritmo de Rotterdam podr\u00eda ser desgarrador, como se vio en el caso de una madre de tres hijos que se enfrent\u00f3 a un interrogatorio. <\/p>\n

Pero Mehrotra dice que el proyecto solo pudo resaltar tales injusticias porque WIRED y Lighthouse tuvieron la oportunidad de inspeccionar c\u00f3mo funciona el algoritmo: muchos otros sistemas operan con impunidad al amparo de la oscuridad burocr\u00e1tica. \u00c9l dice que tambi\u00e9n es importante reconocer que los algoritmos como el que se us\u00f3 en Rotterdam a menudo se construyen sobre sistemas intr\u00ednsecamente injustos.<\/p>\n

\u201cA menudo, los algoritmos solo est\u00e1n optimizando una tecnolog\u00eda que ya es punitiva para el bienestar, el fraude o la vigilancia\u201d, dice. \u201cNo quieres decir que si el algoritmo fuera justo estar\u00eda bien\u201d.<\/p>\n

Tambi\u00e9n es fundamental reconocer que los algoritmos se est\u00e1n generalizando cada vez m\u00e1s en todos los niveles de gobierno y, sin embargo, su funcionamiento a menudo est\u00e1 completamente oculto para los m\u00e1s afectados.<\/p>\n

Otra investigaci\u00f3n que llev\u00f3 a cabo Mehrota en 2021, antes de unirse a WIRED, muestra c\u00f3mo el software de predicci\u00f3n de delitos utilizado por algunos departamentos de polic\u00eda apunt\u00f3 injustamente a las comunidades negras y latinas. En 2016, ProPublica revel\u00f3 sorprendentes sesgos en los algoritmos utilizados por algunos tribunales de EE. UU. para predecir qu\u00e9 acusados \u200b\u200bpenales corren mayor riesgo de reincidir. Otros algoritmos problem\u00e1ticos determinan a qu\u00e9 escuelas asisten los ni\u00f1os, recomiendan a qui\u00e9n deben contratar las empresas y deciden qu\u00e9 solicitudes de hipoteca de las familias se aprueban.<\/p>\n

Muchas empresas tambi\u00e9n usan algoritmos para tomar decisiones importantes, por supuesto, y estas a menudo son incluso menos transparentes que las del gobierno. Hay un movimiento creciente para responsabilizar a las empresas por la toma de decisiones algor\u00edtmicas y un impulso por una legislaci\u00f3n que requiere una mayor visibilidad. Pero el problema es complejo, y hacer que los algoritmos sean m\u00e1s justos a veces puede empeorar las cosas.<\/p>\n<\/div>\n


\n
Source link-46<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

La semana pasada, CABLEADO public\u00f3 una serie de historias detalladas basadas en datos sobre un algoritmo problem\u00e1tico que la ciudad holandesa de R\u00f3terdam implement\u00f3 con el objetivo de erradicar el…<\/p>\n","protected":false},"author":1,"featured_media":519560,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[121,194,4752,10261,5471,3063,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/519559"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=519559"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/519559\/revisions"}],"predecessor-version":[{"id":519561,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/519559\/revisions\/519561"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/519560"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=519559"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=519559"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=519559"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}