Mujeres en IA: Kristine Gloria del Aspen Institute les dice a las mujeres que entren en el campo y ‘sigan su curiosidad’


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Kristine Gloria anteriormente dirigió la Iniciativa de Tecnologías Inteligentes y Emergentes del Instituto Aspen; el Instituto Aspen es el grupo de expertos con sede en DC centrado en el liderazgo basado en valores y la experiencia en políticas. gloria Tiene un doctorado en ciencias cognitivas y una maestría en estudios de medios, y su trabajo anterior incluye investigaciones en la Iniciativa de Investigación de Políticas de Internet del MIT, el Startup Policy Lab con sede en San Francisco y el Centro para la Sociedad, la Tecnología y las Políticas de UC Berkeley.

Preguntas y respuestas

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Para ser sincero, definitivamente no comencé mi carrera con el objetivo de dedicarme a la IA. Primero, estaba realmente interesado en comprender la intersección de la tecnología y las políticas públicas. En ese momento, estaba trabajando en mi maestría en estudios de medios, explorando ideas sobre la cultura del remix y la propiedad intelectual. Vivía y trabajaba en DC como miembro Archer de la New America Foundation. Un día, recuerdo claramente estar sentado en una sala llena de formuladores de políticas públicas y políticos que estaban lanzando términos que no encajaban del todo con sus definiciones técnicas reales. Poco después de esta reunión me di cuenta de que para lograr cambios en las políticas públicas necesitaba las credenciales. Regresé a la escuela y obtuve mi doctorado en ciencias cognitivas con especialización en tecnologías semánticas y privacidad del consumidor en línea. Tuve mucha suerte de haber encontrado un mentor, un asesor y un laboratorio que fomentó una comprensión interdisciplinaria de cómo se diseña y construye la tecnología. Entonces, perfeccioné mis habilidades técnicas y al mismo tiempo desarrollé un punto de vista más crítico sobre las muchas formas en que la tecnología intersecta nuestras vidas. En mi función como director de IA en el Instituto Aspen, tuve el privilegio de idear, involucrarme y colaborar con algunos de los principales pensadores de la IA. Y siempre me encontré gravitando hacia aquellos que se tomaron el tiempo para cuestionar profundamente si la IA impactaría nuestra vida cotidiana y cómo.

A lo largo de los años, he liderado varias iniciativas de IA y una de las más significativas apenas está comenzando. Ahora, como miembro del equipo fundador y director de asociaciones estratégicas e innovación en una nueva organización sin fines de lucro, Young Futures, estoy emocionado de incorporar este tipo de pensamiento para lograr nuestra misión de hacer del mundo digital un lugar más fácil para crecer. Específicamente, a medida que la IA generativa se convierte en algo en juego y las nuevas tecnologías aparecen en línea, es urgente y fundamental que ayudemos a los preadolescentes, adolescentes y sus unidades de apoyo a navegar juntos en este vasto desierto digital.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Estoy muy orgulloso de dos iniciativas. En primer lugar, mi trabajo está relacionado con sacar a la luz las tensiones, los obstáculos y los efectos de la IA en las comunidades marginadas. Publicado en 2021, “Poder y progreso en el sesgo algorítmico” articula meses de participación de las partes interesadas e investigación sobre este tema. En el informe, planteamos una de mis preguntas favoritas de todos los tiempos: «¿Cómo podemos nosotros (los operadores algorítmicos y de datos) reformular nuestros propios modelos para pronosticar un futuro diferente, uno que se centre en las necesidades de los más vulnerables?» Safiya Noble es la autora original de esa pregunta y es una consideración constante a lo largo de mi trabajo. La segunda iniciativa más importante surgió recientemente de mi época como director de Datos en Blue Fever, una empresa que tiene la misión de mejorar el bienestar de los jóvenes en un espacio en línea inclusivo y libre de juicios. Específicamente, dirigí el diseño y desarrollo de Blue, el primer compañero de apoyo emocional con IA. Aprendí mucho en este proceso. Lo más destacado es que obtuve una nueva y profunda apreciación del impacto que un compañero virtual puede tener en alguien que está pasando apuros o que tal vez no cuente con los sistemas de apoyo establecidos. Blue fue diseñado y construido para aportar su «energía de hermano mayor» para ayudar a guiar a los usuarios a reflexionar sobre sus necesidades mentales y emocionales.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

Desafortunadamente, los desafíos son reales y aún muy actuales. He experimentado una buena cantidad de incredulidad en mis habilidades y experiencia entre todo tipo de colegas en el espacio. Pero, para cada uno de esos desafíos negativos, puedo señalar un ejemplo de un colega que fue mi más feroz animador. Es un entorno difícil y me aferro a estos ejemplos para ayudar a gestionarlo. También creo que muchas cosas han cambiado en este espacio incluso en los últimos cinco años. Las habilidades necesarias y las experiencias profesionales que califican como parte de la “IA” ya no se centran estrictamente en la informática.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

Entra y sigue tu curiosidad. Este espacio está en constante movimiento, y la búsqueda más interesante (y probablemente más productiva) es ser continuamente optimista y crítico sobre el campo mismo.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

De hecho, creo que algunos de los problemas más apremiantes que enfrenta la IA son los mismos que no hemos solucionado del todo desde que se introdujo la web. Se trata de cuestiones relacionadas con la agencia, la autonomía, la privacidad, la justicia, la equidad, etc. Estos son fundamentales para la forma en que nos situamos entre las máquinas. Sí, la IA puede hacerlo mucho más complicado, pero también pueden hacerlo los cambios sociopolíticos.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Los usuarios de IA deben ser conscientes de cómo estos sistemas complican o mejoran su propia agencia y autonomía. Además, a medida que se desarrolla el discurso sobre cómo la tecnología, y en particular la IA, puede afectar nuestro bienestar, es importante recordar que existen herramientas probadas y verdaderas para gestionar más resultados negativos.

¿Cuál es la mejor manera de construir IA de manera responsable?

Una construcción responsable de IA es más que solo el código. Una construcción verdaderamente responsable tiene en cuenta el diseño, la gobernanza, las políticas y el modelo de negocio. Todos impulsan al otro, y seguiremos quedando cortos si sólo nos esforzamos por abordar una parte de la construcción.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Una tarea específica, que admiro por la exigencia de Mozilla Ventures en su diligencia, es una tarjeta modelo de IA. Desarrollada por Timnit Gebru y otros, esta práctica de crear tarjetas modelo permite a los equipos (como a los financiadores) evaluar los riesgos y problemas de seguridad de los modelos de IA utilizados en un sistema. Además, en relación con lo anterior, los inversores deberían evaluar de manera integral el sistema en su capacidad y habilidad para construirse de manera responsable. Por ejemplo, si tiene características de confianza y seguridad en la construcción o en una tarjeta modelo publicada, pero su modelo de ingresos explota datos de población vulnerable, entonces hay una desalineación con su intención como inversionista. Creo que se puede construir de forma responsable y seguir siendo rentable. Por último, me encantaría ver más oportunidades de financiación colaborativa entre los inversores. En el ámbito del bienestar y la salud mental, las soluciones serán variadas y amplias, ya que ninguna persona es igual y ninguna solución puede solucionarlo para todos. La acción colectiva entre los inversores interesados ​​en resolver el problema sería una incorporación bienvenida.



Source link-48