{"id":719699,"date":"2023-07-07T05:07:32","date_gmt":"2023-07-07T05:07:32","guid":{"rendered":"https:\/\/magazineoffice.com\/entra-en-vigor-la-ley-antisesgo-de-la-ciudad-de-nueva-york-para-contratar-algoritmos\/"},"modified":"2023-07-07T05:07:35","modified_gmt":"2023-07-07T05:07:35","slug":"entra-en-vigor-la-ley-antisesgo-de-la-ciudad-de-nueva-york-para-contratar-algoritmos","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/entra-en-vigor-la-ley-antisesgo-de-la-ciudad-de-nueva-york-para-contratar-algoritmos\/","title":{"rendered":"Entra en vigor la ley antisesgo de la ciudad de Nueva York para contratar algoritmos"},"content":{"rendered":"


\n<\/p>\n

\n

Despu\u00e9s de meses de demoras, la ciudad de Nueva York comenz\u00f3 hoy a hacer cumplir una ley que requiere que los empleadores que usan algoritmos para reclutar, contratar o ascender empleados presenten esos algoritmos para una auditor\u00eda independiente y hagan p\u00fablicos los resultados. La primera de su tipo en el pa\u00eds, la legislaci\u00f3n, la Ley Local 144 de la Ciudad de Nueva York, tambi\u00e9n exige que las empresas que utilizan este tipo de algoritmos informen a los empleados o candidatos laborales.<\/p>\n

Como m\u00ednimo, los informes que las empresas deben hacer p\u00fablicos deben enumerar los algoritmos que est\u00e1n utilizando, as\u00ed como un \u00abpuntaje promedio\u00bb que es probable que los candidatos de diferentes razas, etnias y g\u00e9neros reciban de dichos algoritmos, en forma de puntaje. , clasificaci\u00f3n o recomendaci\u00f3n. Tambi\u00e9n debe enumerar las \u00abrelaciones de impacto\u00bb de los algoritmos, que la ley define como el puntaje promedio dado por el algoritmo de todas las personas en una categor\u00eda espec\u00edfica (p. ej., candidatos varones negros) dividido por el puntaje promedio de las personas en la categor\u00eda de puntaje m\u00e1s alto.<\/p>\n

Las empresas que no cumplan se enfrentar\u00e1n a multas de $375 por la primera infracci\u00f3n, $1350 por la segunda infracci\u00f3n y $1500 por la tercera y las infracciones posteriores. Cada d\u00eda que una empresa utilice un algoritmo en incumplimiento de la ley, constituir\u00e1 una infracci\u00f3n por separado, al igual que la falta de divulgaci\u00f3n suficiente.<\/p>\n

Es importante destacar que el alcance de la Ley Local 144, que fue aprobada por el Concejo Municipal y ser\u00e1 aplicada por el Departamento de Protecci\u00f3n al Consumidor y al Trabajador de la Ciudad de Nueva York, se extiende m\u00e1s all\u00e1 de los trabajadores de la Ciudad de Nueva York. Siempre que una persona est\u00e9 realizando o solicitando un trabajo en la ciudad, es elegible para las protecciones bajo la nueva ley.<\/p>\n

Muchos lo ven como atrasado. Khyati Sundaram, director ejecutivo de Applied, un proveedor de tecnolog\u00eda de contrataci\u00f3n, se\u00f1al\u00f3 que la IA de contrataci\u00f3n en particular tiene el potencial de amplificar los sesgos existentes, empeorando tanto las brechas laborales como salariales en el proceso.<\/p>\n

\u201cLos empleadores deben evitar el uso de IA para calificar o clasificar a los candidatos de forma independiente\u201d, dijo Sundaram a TechCrunch por correo electr\u00f3nico. \u00abTodav\u00eda no estamos en un lugar donde se pueda o se deba confiar en los algoritmos para tomar estas decisiones por s\u00ed mismos sin reflejar y perpetuar los sesgos que ya existen en el mundo del trabajo\u00bb.<\/p>\n

No es necesario buscar muy lejos la evidencia de sesgo que se filtra en los algoritmos de contrataci\u00f3n. Amazon elimin\u00f3 un motor de reclutamiento en 2018 despu\u00e9s de que se descubri\u00f3 que discriminaba a las mujeres candidatas. Y un estudio acad\u00e9mico de 2019 mostr\u00f3 un sesgo anti-negro habilitado por IA en el reclutamiento.<\/p>\n

En otros lugares, se han encontrado algoritmos para asignar a los candidatos de trabajo diferentes puntajes en funci\u00f3n de criterios como si usan anteojos o un pa\u00f1uelo en la cabeza; penalizar a los solicitantes por tener un nombre que suene negro, mencionar una universidad para mujeres o enviar su curr\u00edculum utilizando ciertos tipos de archivos; y poner en desventaja a las personas que tienen una discapacidad f\u00edsica que limita su capacidad para interactuar con un teclado.<\/p>\n

Los sesgos pueden ser profundos. Un estudio de octubre de 2022 realizado por la Universidad de Cambridge implica que las empresas de inteligencia artificial que afirman ofrecer evaluaciones objetivas y meritocr\u00e1ticas son falsas, y postula que las medidas antisesgo para eliminar el g\u00e9nero y la raza son ineficaces porque el empleado ideal est\u00e1 hist\u00f3ricamente influenciado por su g\u00e9nero y raza.<\/p>\n

Pero los riesgos no est\u00e1n ralentizando la adopci\u00f3n. Casi una de cada cuatro organizaciones ya aprovecha la IA para respaldar sus procesos de contrataci\u00f3n, seg\u00fan una encuesta de febrero de 2022 de la Sociedad para la Gesti\u00f3n de Recursos Humanos. El porcentaje es a\u00fan mayor (42 %) entre los empleadores con 5000 empleados o m\u00e1s.<\/p>\n

Entonces, \u00bfqu\u00e9 formas de algoritmos est\u00e1n usando los empleadores, exactamente? Var\u00eda. Algunos de los m\u00e1s comunes son los analizadores de texto que clasifican los curr\u00edculos y las cartas de presentaci\u00f3n en funci\u00f3n de las palabras clave. Pero tambi\u00e9n hay chatbots que realizan entrevistas en l\u00ednea para descartar candidatos con ciertos rasgos, y software de entrevistas dise\u00f1ado para predecir las habilidades de resoluci\u00f3n de problemas, aptitudes y \u00abajuste cultural\u00bb de un candidato a partir de sus patrones de habla y expresiones faciales.<\/p>\n

De hecho, la gama de algoritmos de contrataci\u00f3n y reclutamiento es tan amplia que algunas organizaciones no creen que la Ley Local 144 vaya lo suficientemente lejos.<\/p>\n

La NYCLU, la rama de Nueva York de la Uni\u00f3n Estadounidense por las Libertades Civiles, afirma que la ley est\u00e1 \u201cmuy lejos\u201d de brindar protecci\u00f3n a los candidatos y trabajadores. Daniel Schwarz, estratega s\u00e9nior de privacidad y tecnolog\u00eda de la NYCLU, se\u00f1ala en un memorando de pol\u00edtica que, tal como est\u00e1 escrita, podr\u00eda entenderse que la Ley Local 144 solo cubre un subconjunto de algoritmos de contrataci\u00f3n, por ejemplo, excluye herramientas que transcriben texto de entrevistas en video y audio. (Dado que las herramientas de reconocimiento de voz tienen un problema de sesgo bien conocido, eso es obviamente problem\u00e1tico).<\/p>\n

\u201cLas\u2026 reglas propuestas [must be strengthened to] garantizar una amplia cobertura de [hiring algorithms]ampliar los requisitos de auditor\u00eda de sesgo y proporcionar transparencia y notificaci\u00f3n significativa a las personas afectadas para garantizar que [algorithms] no opere para eludir digitalmente las leyes de la ciudad de Nueva York contra la discriminaci\u00f3n\u201d, escribi\u00f3 Schwarz. \u201cLos candidatos y los trabajadores no deber\u00edan preocuparse por ser evaluados por un algoritmo discriminatorio\u201d.<\/p>\n

Paralelamente a esto, la industria se est\u00e1 embarcando en esfuerzos preliminares para autorregularse.<\/p>\n

Diciembre de 2021 vio el lanzamiento de Data & Trust Alliance, que tiene como objetivo desarrollar un sistema de evaluaci\u00f3n y puntuaci\u00f3n para AI para detectar y combatir el sesgo algor\u00edtmico, particularmente el sesgo en la contrataci\u00f3n. El grupo en un momento cont\u00f3 con CVS Health, Deloitte, General Motors, Humana, IBM, Mastercard, Meta, Nike y Walmart entre sus miembros, y obtuvo una importante cobertura de prensa.<\/p>\n

Como era de esperar, Sundaram est\u00e1 a favor de este enfoque.<\/p>\n

\u201cEn lugar de esperar que los reguladores se pongan al d\u00eda y frenen los peores excesos de la IA de reclutamiento, depende de los empleadores estar atentos y tener cuidado al usar la IA en los procesos de contrataci\u00f3n\u201d, dijo. \u201cLa IA est\u00e1 evolucionando m\u00e1s r\u00e1pidamente de lo que se pueden aprobar las leyes para regular su uso. Es probable que las leyes que finalmente se aprueben, incluida la de la ciudad de Nueva York, sean enormemente complicadas por este motivo. Esto dejar\u00e1 a las empresas en riesgo de malinterpretar o pasar por alto varias complejidades legales y, a su vez, har\u00e1 que los candidatos marginados contin\u00faen siendo ignorados para los puestos\u201d.<\/p>\n

Por supuesto, muchos argumentar\u00edan que hacer que las empresas desarrollen un sistema de certificaci\u00f3n para los productos de IA que est\u00e1n usando o desarrollando es problem\u00e1tico desde el principio.<\/p>\n

Aunque imperfecta en ciertas \u00e1reas, seg\u00fan los cr\u00edticos, la Ley Local 144 hace<\/em> requieren que las auditor\u00edas sean realizadas por entidades independientes que no hayan estado involucradas en el uso, desarrollo o distribuci\u00f3n del algoritmo que est\u00e1n probando y que no tengan una relaci\u00f3n con la empresa que env\u00eda el algoritmo para la prueba.<\/p>\n

\u00bfLa Ley Local 144 afectar\u00e1 el cambio, en \u00faltima instancia? Es demasiado pronto para decirlo. Pero ciertamente, el \u00e9xito \u2014o el fracaso\u2014 de su implementaci\u00f3n afectar\u00e1 las leyes que vendr\u00e1n en otros lugares. Como se se\u00f1al\u00f3 en un art\u00edculo reciente para Nerdwallet, Washington, DC, est\u00e1 considerando una regla que responsabilizar\u00eda a los empleadores por evitar sesgos en los algoritmos automatizados de toma de decisiones. En los \u00faltimos a\u00f1os se introdujeron dos proyectos de ley en California que tienen como objetivo regular la IA en la contrataci\u00f3n. Y a fines de diciembre, se present\u00f3 un proyecto de ley en Nueva Jersey que regular\u00eda el uso de IA en las decisiones de contrataci\u00f3n para minimizar la discriminaci\u00f3n.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Despu\u00e9s de meses de demoras, la ciudad de Nueva York comenz\u00f3 hoy a hacer cumplir una ley que requiere que los empleadores que usan algoritmos para reclutar, contratar o ascender…<\/p>\n","protected":false},"author":1,"featured_media":719700,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[25336,91843,29,2999,4175,1135,254,107,10288,8042],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/719699"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=719699"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/719699\/revisions"}],"predecessor-version":[{"id":719701,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/719699\/revisions\/719701"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/719700"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=719699"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=719699"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=719699"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}