{"id":104970,"date":"2022-08-18T21:06:18","date_gmt":"2022-08-18T21:06:18","guid":{"rendered":"https:\/\/magazineoffice.com\/como-evitar-que-los-robots-se-vuelvan-racistas\/"},"modified":"2022-08-18T21:06:20","modified_gmt":"2022-08-18T21:06:20","slug":"como-evitar-que-los-robots-se-vuelvan-racistas","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/como-evitar-que-los-robots-se-vuelvan-racistas\/","title":{"rendered":"C\u00f3mo evitar que los robots se vuelvan racistas"},"content":{"rendered":"


\n<\/p>\n

\n

En 2017, Holliday contribuy\u00f3 a un informe de RAND que advierte que resolver el sesgo en el aprendizaje autom\u00e1tico requiere contratar equipos diversos y no se puede solucionar solo con medios t\u00e9cnicos. En 2020, ayud\u00f3 a fundar la organizaci\u00f3n sin fines de lucro Black in Robotics, que trabaja para ampliar la presencia de personas negras y otras minor\u00edas en la industria. \u00c9l piensa que dos principios de una declaraci\u00f3n de derechos algor\u00edtmica que propuso en ese momento podr\u00edan reducir el riesgo de implementar robots sesgados. Uno requiere divulgaciones que informen a las personas cuando un algoritmo tomar\u00e1 una decisi\u00f3n de alto riesgo que los afectar\u00e1; el otro es dar a las personas el derecho de revisar o disputar tales decisiones. La Oficina de Pol\u00edtica Cient\u00edfica y Tecnol\u00f3gica de la Casa Blanca est\u00e1 desarrollando actualmente una Declaraci\u00f3n de Derechos de IA.<\/p>\n

Algunos especialistas en rob\u00f3tica negros dicen que sus preocupaciones acerca de que el racismo se convierta en m\u00e1quinas automatizadas provienen de una combinaci\u00f3n de experiencia en ingenier\u00eda y experiencia personal.<\/p>\n

Terrence Southern creci\u00f3 en Detroit y ahora vive en Dallas, manteniendo robots para el fabricante de remolques ATW. Recuerda haber enfrentado barreras para ingresar a la industria de la rob\u00f3tica, o incluso para ser consciente de ello. \u201cMis padres trabajaron para General Motors, y no podr\u00eda haberte dicho fuera de Los Supers\u00f3nicos<\/em> y Star Wars lo que un robot podr\u00eda hacer\u201d, dice Southern. Cuando se gradu\u00f3 de la universidad, no vio a nadie que se pareciera a \u00e9l en las empresas de rob\u00f3tica y cree que poco ha cambiado desde entonces, lo cual es una de las razones por las que asesora a j\u00f3venes interesados \u200b\u200ben buscar trabajos en el campo.<\/p>\n

Southern cree que es demasiado tarde para evitar por completo el despliegue de robots racistas, pero cree que la escala podr\u00eda reducirse mediante el ensamblaje de conjuntos de datos de alta calidad, as\u00ed como evaluaciones independientes de terceros de afirmaciones falsas hechas por empresas que construyen sistemas de IA.<\/p>\n

Andra Keay, directora general del grupo industrial Silicon Valley Robotics y presidenta de Women in Robotics, que cuenta con m\u00e1s de 1700 miembros en todo el mundo, tampoco considera sorprendentes los hallazgos del experimento robot racista. La combinaci\u00f3n de sistemas necesarios para que un robot navegue por el mundo, dijo, equivale a \u00abuna gran ensalada de todo lo que podr\u00eda salir mal\u00bb.<\/p>\n

Keay ya estaba planeando presionar a los organismos de establecimiento de est\u00e1ndares como el Instituto de Ingenieros El\u00e9ctricos y Electr\u00f3nicos (IEEE) para que adopten reglas que requieran que los robots no tengan g\u00e9nero aparente y sean neutrales en etnicidad. Con las tasas de adopci\u00f3n de robots en aumento como resultado de la pandemia de Covid-19, dice Keay, tambi\u00e9n apoya la idea de que el gobierno federal mantenga un registro de robots para monitorear el despliegue de m\u00e1quinas por industria.<\/p>\n

A fines de 2021, en parte como respuesta a las preocupaciones planteadas por la comunidad de inteligencia artificial y rob\u00f3tica, el IEEE aprob\u00f3 un nuevo est\u00e1ndar de transparencia para sistemas aut\u00f3nomos que podr\u00eda ayudar a impulsar a las empresas a garantizar que los robots traten a todas las personas de manera justa. Requiere sistemas aut\u00f3nomos para transmitir honestamente las causas de sus acciones o decisiones a los usuarios. Sin embargo, los grupos profesionales que establecen est\u00e1ndares tienen sus l\u00edmites: en 2020, un comit\u00e9 de pol\u00edtica tecnol\u00f3gica de la Association for Computing Machinery inst\u00f3 a las empresas y los gobiernos a dejar de usar el reconocimiento facial, un llamado que cay\u00f3 en gran medida en saco roto.<\/p>\n

Cuando Carlotta Berry, directora nacional de Black in Robotics, escuch\u00f3 que un robot de ajedrez le rompi\u00f3 el dedo a un ni\u00f1o el mes pasado, lo primero que pens\u00f3 fue: \u00ab\u00bfQui\u00e9n pens\u00f3 que este robot estaba listo para el horario de m\u00e1xima audiencia cuando no pod\u00eda reconocer la diferencia entre una pieza de ajedrez?\u00bb pieza y el dedo de un ni\u00f1o? Es codirectora de un programa de rob\u00f3tica en el Instituto de Tecnolog\u00eda Rose-Hulman en Indiana y editora de un pr\u00f3ximo libro de texto sobre c\u00f3mo mitigar el sesgo en el aprendizaje autom\u00e1tico. Ella cree que parte de la soluci\u00f3n para evitar el despliegue de m\u00e1quinas sexistas y racistas es un conjunto com\u00fan de m\u00e9todos de evaluaci\u00f3n para los nuevos sistemas antes de ponerlos a disposici\u00f3n del p\u00fablico.<\/p>\n

En la era actual de la IA, mientras los ingenieros e investigadores compiten para lanzar nuevos trabajos, Berry se muestra esc\u00e9ptico de que se pueda confiar en los constructores de robots para autorregularse o agregar funciones de seguridad. Ella cree que se debe poner un mayor \u00e9nfasis en las pruebas de usuario.<\/p>\n

\u201cSimplemente no creo que los investigadores en el laboratorio siempre puedan ver el bosque por los \u00e1rboles, y no reconocer\u00e1n cuando hay un problema\u201d, dice Berry. \u00bfEst\u00e1 el poder computacional disponible para los dise\u00f1adores de sistemas de IA por delante de su capacidad para considerar cuidadosamente lo que deber\u00edan o no deber\u00edan construir con \u00e9l? \u00abEs una pregunta dif\u00edcil\u00bb, dice Berry, \u00abpero una que debe responderse, porque el costo es demasiado alto para no hacerlo\u00bb.<\/p>\n<\/div>\n


\n
Source link-46<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

En 2017, Holliday contribuy\u00f3 a un informe de RAND que advierte que resolver el sesgo en el aprendizaje autom\u00e1tico requiere contratar equipos diversos y no se puede solucionar solo con…<\/p>\n","protected":false},"author":1,"featured_media":104971,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[216,5463,8,6780,10012,18134],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/104970"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=104970"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/104970\/revisions"}],"predecessor-version":[{"id":104972,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/104970\/revisions\/104972"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/104971"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=104970"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=104970"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=104970"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}