La organización sin fines de lucro de Mutale Nkonde está trabajando para que la IA sea menos sesgada

[ad_1]

Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Mutale Nkonde es el director ejecutivo fundador de la organización sin fines de lucro AI for the People (AFP), que busca aumentar la cantidad de voces negras en la tecnología. Antes de esto, ayudó a presentar las Leyes Algorítmicas y de Falsificaciones Profundas, además de la Ley de No Barreras Biométricas a la Vivienda, en la Cámara de Representantes de Estados Unidos. Actualmente es miembro visitante de políticas en el Oxford Internet Institute.

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Empecé a sentir curiosidad por saber cómo funcionaban las redes sociales después de que un amigo mío publicara que Google Pictures, el precursor de Google Image, etiquetó a dos personas negras como gorilas en 2015. Estuve involucrado con muchos círculos de “negros en la tecnología” y Estábamos indignados, pero no comencé a entender que esto se debía a un sesgo algorítmico hasta la publicación de “Armas de destrucción matemática” en 2016. Esto me inspiró a comenzar a solicitar becas donde pudiera estudiar esto más a fondo y terminé con mi rol como coautor de un informe llamado Advancing Racial Literacy in Tech, que se publicó en 2019. La gente de la Fundación McArthur se dio cuenta de esto y dio inicio a la etapa actual de mi carrera.

Me atrajeron las preguntas sobre racismo y tecnología porque parecían poco investigadas y contraintuitivas. Me gusta hacer cosas que otras personas no hacen, por lo que aprender más y difundir esta información dentro de Silicon Valley me pareció muy divertido. Desde Advancing Racial Literacy in Tech, comencé una organización sin fines de lucro llamada AI for the People que se enfoca en abogar por políticas y prácticas para reducir la expresión del sesgo algorítmico.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Estoy realmente orgulloso de ser el principal defensor de la Ley de Responsabilidad Algorítmica, que se presentó por primera vez a la Cámara de Representantes en 2019. Estableció a AI for the People como un líder de pensamiento clave sobre cómo desarrollar protocolos para guiar el diseño, implementación y gobernanza de los sistemas de IA que cumplan con las leyes locales contra la discriminación. Esto nos ha llevado a ser incluidos en Schumer AI Insights Channels como parte de un grupo asesor para varias agencias federales y a algunos trabajos futuros interesantes en Hill.

¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?

De hecho, he tenido más problemas con los guardianes académicos. A la mayoría de los hombres con los que trabajo en empresas de tecnología se les ha encargado el desarrollo de sistemas para su uso en poblaciones negras y otras poblaciones no blancas, por lo que ha sido muy fácil trabajar con ellos. Principalmente porque actúo como un experto externo que puede validar o cuestionar las prácticas existentes.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

Encuentra un nicho y luego conviértete en una de las mejores personas del mundo en ese nicho. Tuve dos cosas que me han ayudado a generar credibilidad. La primera fue que estaba abogando por políticas para reducir el sesgo algorítmico, mientras la gente del mundo académico comenzaba a discutir el tema. Esto me dio la ventaja de ser el primero en actuar en el “espacio de soluciones” y convirtió a AI for the People en una autoridad en el Congreso cinco años antes de la orden ejecutiva. Lo segundo que diría es que observe sus deficiencias y abórdelas. AI for the People tiene cuatro años y he estado obteniendo las credenciales académicas que necesito para asegurarme de que no me expulsen de los espacios de liderazgo intelectual. No puedo esperar a graduarme con una maestría de Columbia en mayo y espero continuar investigando en este campo.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Estoy pensando mucho en las estrategias que se pueden seguir para involucrar a más personas negras y de color en la construcción, prueba y anotación de modelos fundamentales. Esto se debe a que las tecnologías son tan buenas como sus datos de capacitación, entonces, ¿cómo creamos conjuntos de datos inclusivos en un momento en el que DEI está siendo atacado, los fondos de riesgo negros están siendo demandados por apuntar a fundadores negros y mujeres, y los académicos negros están siendo atacados públicamente? ¿Quién hará este trabajo en la industria?

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Creo que deberíamos pensar en el desarrollo de la IA como una cuestión geopolítica y en cómo Estados Unidos podría convertirse en un líder en IA verdaderamente escalable mediante la creación de productos que tengan altas tasas de eficacia en personas de todos los grupos demográficos. Esto se debe a que China es el único otro gran productor de IA, pero produce productos dentro de una población en gran medida homogénea, y a pesar de que tiene una gran huella en África. El sector tecnológico estadounidense puede dominar ese mercado si se realizan inversiones agresivas para desarrollar tecnologías antisesgos.

¿Cuál es la mejor manera de construir IA de manera responsable?

Es necesario que haya un enfoque múltiple, pero una cosa a considerar sería la búsqueda de preguntas de investigación que se centren en las personas que viven en los márgenes de los márgenes. La forma más sencilla de hacerlo es tomando notas de las tendencias culturales y luego considerando cómo esto afecta el desarrollo tecnológico. Por ejemplo, hacer preguntas como ¿cómo diseñamos tecnologías biométricas escalables en una sociedad donde más personas se identifican como trans o no binarias?

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Los inversores deberían observar las tendencias demográficas y luego preguntarse: ¿estas empresas podrán vender a una población que cada vez es más negra y morena debido a la caída de las tasas de natalidad en las poblaciones europeas en todo el mundo? Esto debería incitarlos a hacer preguntas sobre el sesgo algorítmico durante el proceso de diligencia debida, ya que esto se convertirá cada vez más en un problema para los consumidores.

Hay mucho trabajo por hacer para volver a capacitar a nuestra fuerza laboral en una época en la que los sistemas de inteligencia artificial realizan tareas de bajo riesgo que ahorran mano de obra. ¿Cómo podemos asegurarnos de que las personas que viven en los márgenes de nuestra sociedad estén incluidas en estos programas? ¿Qué información pueden brindarnos sobre cómo funcionan y cómo no funcionan los sistemas de IA, y cómo podemos utilizar estos conocimientos para asegurarnos de que la IA realmente sea para las personas?

[ad_2]

Source link-48