Mujeres en la IA: Urvashi Aneja está investigando el impacto social de la IA en la India


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Urvashi Aneja es el director fundador de Digital Futures Lab, un esfuerzo de investigación interdisciplinario que busca examinar la interacción entre la tecnología y la sociedad en el Sur Global. También es miembro asociado del programa Asia Pacífico de Chatham House, un instituto de políticas independiente con sede en Londres.

La investigación actual de Aneja se centra en el impacto social de los sistemas algorítmicos de toma de decisiones en la India, donde reside, y en la gobernanza de la plataforma. Aneja fue autora recientemente de un estudio sobre los usos actuales de la IA en la India, en el que revisa casos de uso en sectores como la policía y la agricultura.

Preguntas y respuestas

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Comencé mi carrera en investigación y participación política en el sector humanitario. Durante varios años, estudié el uso de tecnologías digitales en crisis prolongadas en contextos de bajos recursos. Rápidamente aprendí que existe una delgada línea entre la innovación y la experimentación, particularmente cuando se trata de poblaciones vulnerables. Los aprendizajes de esta experiencia hicieron que me preocupara profundamente las narrativas tecno-solucionistas en torno al potencial de las tecnologías digitales, en particular la IA. Al mismo tiempo, India había lanzado su misión India Digital y su Estrategia Nacional para la Inteligencia Artificial. Me preocuparon las narrativas dominantes que veían la IA como una solución milagrosa para los complejos problemas socioeconómicos de la India, y la total falta de discurso crítico sobre el tema.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Estoy orgulloso de haber podido llamar la atención sobre la economía política de la producción de IA, así como sobre implicaciones más amplias para la justicia social, las relaciones laborales y la sostenibilidad ambiental. Muy a menudo, las narrativas sobre la IA se centran en los beneficios de aplicaciones específicas y, en el mejor de los casos, en los beneficios y riesgos de esa aplicación. Pero esto pasa por alto el bosque por los árboles: una lente orientada al producto oscurece los impactos estructurales más amplios, como la contribución de la IA a la injusticia epistémica, la descalificación de la mano de obra y la perpetuación de un poder irresponsable en el mundo mayoritario. También estoy orgulloso de que hayamos podido traducir estas preocupaciones en políticas y regulaciones concretas, ya sea diseñando pautas de adquisición para el uso de la IA en el sector público o entregando evidencia en procedimientos legales contra las grandes empresas tecnológicas en el Sur Global.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

Dejando que mi trabajo hable por sí solo. Y preguntando constantemente: ¿por qué?

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

Desarrolla tus conocimientos y experiencia. Asegúrese de que su comprensión técnica de los problemas sea sólida, pero no se centre únicamente en la IA. En su lugar, estudie ampliamente para poder establecer conexiones entre campos y disciplinas. No hay suficientes personas que comprendan la IA como un sistema sociotécnico producto de la historia y la cultura.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Creo que el problema más apremiante es la concentración de poder dentro de un puñado de empresas de tecnología. Si bien no es nuevo, este problema se ve exacerbado por los nuevos desarrollos en grandes modelos de lenguaje y la IA generativa. Muchas de estas empresas ahora están avivando los temores sobre los riesgos existenciales de la IA. Esto no sólo es una distracción de los daños existentes, sino que también posiciona a estas empresas como necesarias para abordar los daños relacionados con la IA. En muchos sentidos, estamos perdiendo parte del impulso del “latigazo tecnológico” que surgió tras el episodio de Cambridge Analytica. En lugares como India, también me preocupa que la IA se esté posicionando como necesaria para el desarrollo socioeconómico, presentando una oportunidad para superar desafíos persistentes. Esto no sólo exagera el potencial de la IA, sino que también ignora el hecho de que no es posible saltarse el desarrollo institucional necesario para desarrollar salvaguardias. Otro tema que no estamos considerando con la suficiente seriedad son los impactos ambientales de la IA: es probable que la trayectoria actual sea insostenible. En el ecosistema actual, es poco probable que los más vulnerables a los impactos del cambio climático sean los beneficiarios de la innovación en IA.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Los usuarios deben ser conscientes de que la IA no es magia ni nada parecido a la inteligencia humana. Es una forma de estadística computacional que tiene muchos usos beneficiosos, pero en última instancia es sólo una suposición probabilística basada en patrones históricos o previos. Estoy seguro de que hay varios otros problemas que los usuarios también deben tener en cuenta, pero quiero advertir que debemos tener cuidado con los intentos de trasladar la responsabilidad a los usuarios. Veo esto más recientemente con el uso de herramientas de IA generativa en contextos de bajos recursos en la mayoría del mundo: en lugar de ser cautelosos con estas tecnologías experimentales y poco confiables, el enfoque a menudo cambia a cómo los usuarios finales, como los agricultores o los trabajadores de primera línea. Los trabajadores de la salud necesitan mejorar sus habilidades.

¿Cuál es la mejor manera de construir IA de manera responsable?

Esto debe comenzar con la evaluación de la necesidad de IA en primer lugar. ¿Existe algún problema que la IA pueda resolver de forma única o son posibles otros medios? Y si vamos a construir IA, ¿es necesario un modelo complejo de caja negra, o podría funcionar igual de bien un modelo más simple basado en la lógica? También necesitamos volver a centrar el conocimiento del dominio en la construcción de la IA. En la obsesión por los grandes datos, hemos sacrificado la teoría: necesitamos construir una teoría del cambio basada en el conocimiento del dominio y esta debería ser la base de los modelos que estamos construyendo, no solo los grandes datos. Por supuesto, esto se suma a cuestiones clave como la participación, los equipos inclusivos, los derechos laborales, etc.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Los inversores deben considerar todo el ciclo de vida de la producción de IA, no solo los resultados de las aplicaciones de IA. Esto requeriría examinar una serie de cuestiones tales como si el trabajo se valora justamente, los impactos ambientales, el modelo de negocio de la empresa (es decir, ¿se basa en la vigilancia comercial?) y las medidas internas de rendición de cuentas dentro de la empresa. Los inversores también deben pedir pruebas mejores y más rigurosas sobre los supuestos beneficios de la IA.



Source link-48