Cómo evitar que los robots se vuelvan racistas


En 2017, Holliday contribuyó a un informe de RAND que advierte que resolver el sesgo en el aprendizaje automático requiere contratar equipos diversos y no se puede solucionar solo con medios técnicos. En 2020, ayudó a fundar la organización sin fines de lucro Black in Robotics, que trabaja para ampliar la presencia de personas negras y otras minorías en la industria. Él piensa que dos principios de una declaración de derechos algorítmica que propuso en ese momento podrían reducir el riesgo de implementar robots sesgados. Uno requiere divulgaciones que informen a las personas cuando un algoritmo tomará una decisión de alto riesgo que los afectará; el otro es dar a las personas el derecho de revisar o disputar tales decisiones. La Oficina de Política Científica y Tecnológica de la Casa Blanca está desarrollando actualmente una Declaración de Derechos de IA.

Algunos especialistas en robótica negros dicen que sus preocupaciones acerca de que el racismo se convierta en máquinas automatizadas provienen de una combinación de experiencia en ingeniería y experiencia personal.

Terrence Southern creció en Detroit y ahora vive en Dallas, manteniendo robots para el fabricante de remolques ATW. Recuerda haber enfrentado barreras para ingresar a la industria de la robótica, o incluso para ser consciente de ello. “Mis padres trabajaron para General Motors, y no podría haberte dicho fuera de Los Supersónicos y Star Wars lo que un robot podría hacer”, dice Southern. Cuando se graduó de la universidad, no vio a nadie que se pareciera a él en las empresas de robótica y cree que poco ha cambiado desde entonces, lo cual es una de las razones por las que asesora a jóvenes interesados ​​en buscar trabajos en el campo.

Southern cree que es demasiado tarde para evitar por completo el despliegue de robots racistas, pero cree que la escala podría reducirse mediante el ensamblaje de conjuntos de datos de alta calidad, así como evaluaciones independientes de terceros de afirmaciones falsas hechas por empresas que construyen sistemas de IA.

Andra Keay, directora general del grupo industrial Silicon Valley Robotics y presidenta de Women in Robotics, que cuenta con más de 1700 miembros en todo el mundo, tampoco considera sorprendentes los hallazgos del experimento robot racista. La combinación de sistemas necesarios para que un robot navegue por el mundo, dijo, equivale a «una gran ensalada de todo lo que podría salir mal».

Keay ya estaba planeando presionar a los organismos de establecimiento de estándares como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para que adopten reglas que requieran que los robots no tengan género aparente y sean neutrales en etnicidad. Con las tasas de adopción de robots en aumento como resultado de la pandemia de Covid-19, dice Keay, también apoya la idea de que el gobierno federal mantenga un registro de robots para monitorear el despliegue de máquinas por industria.

A fines de 2021, en parte como respuesta a las preocupaciones planteadas por la comunidad de inteligencia artificial y robótica, el IEEE aprobó un nuevo estándar de transparencia para sistemas autónomos que podría ayudar a impulsar a las empresas a garantizar que los robots traten a todas las personas de manera justa. Requiere sistemas autónomos para transmitir honestamente las causas de sus acciones o decisiones a los usuarios. Sin embargo, los grupos profesionales que establecen estándares tienen sus límites: en 2020, un comité de política tecnológica de la Association for Computing Machinery instó a las empresas y los gobiernos a dejar de usar el reconocimiento facial, un llamado que cayó en gran medida en saco roto.

Cuando Carlotta Berry, directora nacional de Black in Robotics, escuchó que un robot de ajedrez le rompió el dedo a un niño el mes pasado, lo primero que pensó fue: «¿Quién pensó que este robot estaba listo para el horario de máxima audiencia cuando no podía reconocer la diferencia entre una pieza de ajedrez?» pieza y el dedo de un niño? Es codirectora de un programa de robótica en el Instituto de Tecnología Rose-Hulman en Indiana y editora de un próximo libro de texto sobre cómo mitigar el sesgo en el aprendizaje automático. Ella cree que parte de la solución para evitar el despliegue de máquinas sexistas y racistas es un conjunto común de métodos de evaluación para los nuevos sistemas antes de ponerlos a disposición del público.

En la era actual de la IA, mientras los ingenieros e investigadores compiten para lanzar nuevos trabajos, Berry se muestra escéptico de que se pueda confiar en los constructores de robots para autorregularse o agregar funciones de seguridad. Ella cree que se debe poner un mayor énfasis en las pruebas de usuario.

“Simplemente no creo que los investigadores en el laboratorio siempre puedan ver el bosque por los árboles, y no reconocerán cuando hay un problema”, dice Berry. ¿Está el poder computacional disponible para los diseñadores de sistemas de IA por delante de su capacidad para considerar cuidadosamente lo que deberían o no deberían construir con él? «Es una pregunta difícil», dice Berry, «pero una que debe responderse, porque el costo es demasiado alto para no hacerlo».



Source link-46