Mujeres en IA: Irene Solaiman, jefa de política global de Hugging Face


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Irene Solaiman comenzó su carrera en IA como investigadora y gerente de políticas públicas en OpenAI, donde lideró un nuevo enfoque para el lanzamiento de GPT-2, un predecesor de ChatGPT. Después de trabajar como gerente de políticas de IA en Zillow durante casi un año, se unió a Hugging Face como jefa de políticas globales. Sus responsabilidades allí van desde desarrollar y liderar la política de IA de la empresa a nivel mundial hasta realizar investigaciones sociotécnicas.

Solaiman también asesora al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la asociación profesional de ingeniería electrónica, en cuestiones de IA, y es un reconocido experto en IA en la Organización intergubernamental para la Cooperación y el Desarrollo Económico (OCDE).

Irene Solaiman, jefa de política global de Hugging Face

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Una trayectoria profesional completamente no lineal es algo común en la IA. Mi incipiente interés comenzó de la misma manera que muchos adolescentes con habilidades sociales incómodas encuentran sus pasiones: a través de los medios de ciencia ficción. Originalmente estudié política de derechos humanos y luego tomé cursos de informática, ya que veía la IA como un medio para trabajar en derechos humanos y construir un futuro mejor. Poder realizar investigaciones técnicas y liderar políticas en un campo con tantas preguntas sin respuesta y caminos sin recorrer mantiene mi trabajo apasionante.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Me siento más orgulloso cuando mi experiencia resuena con personas de todo el campo de la IA, especialmente mis escritos sobre consideraciones de lanzamiento en el complejo panorama de los lanzamientos y la apertura de los sistemas de IA. Ver mi artículo sobre la implementación técnica del marco de gradiente de liberación de IA que genera debates entre científicos y se utiliza en informes gubernamentales es afirmativo, ¡y una buena señal de que estoy trabajando en la dirección correcta! Personalmente, parte del trabajo que más me motiva es el de alineación de valores culturales, que se dedica a garantizar que los sistemas funcionen mejor para las culturas en las que se implementan. Con mi increíble coautora y ahora querida amiga, Christy Dennison, trabajar en un proceso para adaptar los modelos lingüísticos a la sociedad fue un proyecto de gran corazón (y muchas horas de depuración) que ha dado forma al trabajo de seguridad y alineación actual.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

He encontrado, y sigo encontrando, a mi gente: desde trabajar con líderes de empresas increíbles que se preocupan profundamente por los mismos temas que yo priorizo ​​hasta excelentes coautores de investigaciones con quienes puedo comenzar cada sesión de trabajo con una mini sesión de terapia. Los grupos de afinidad son de gran ayuda para crear una comunidad y compartir consejos. Es importante destacar aquí la interseccionalidad; Mis comunidades de investigadores musulmanes y BIPOC son continuamente inspiradoras.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

Tenga un grupo de apoyo cuyo éxito sea su éxito. En términos de juventud, creo que ésta es una “chica de chicas”. Las mismas mujeres y aliadas con las que ingresé a este campo son mis citas favoritas para tomar café y mis llamadas de pánico nocturnas antes de una fecha límite. Uno de los mejores consejos profesionales que he leído fue el de Arvind Narayan en la plataforma anteriormente conocida como Twitter que establece el «Principio de Liam Neeson» de no ser el más inteligente de todos, sino tener un conjunto particular de habilidades.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Las cuestiones más apremiantes evolucionan, por lo que la metarespuesta es: coordinación internacional para sistemas más seguros para todos los pueblos. Las personas que utilizan sistemas y se ven afectadas por ellos, incluso en el mismo país, tienen diferentes preferencias e ideas sobre lo que es más seguro para ellos. Y los problemas que surjan dependerán no sólo de cómo evolucione la IA, sino también del entorno en el que se implemente; Las prioridades de seguridad y nuestras definiciones de capacidad difieren regionalmente, como una mayor amenaza de ataques cibernéticos a infraestructuras críticas en economías más digitalizadas.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Las soluciones técnicas rara vez, o nunca, abordan los riesgos y daños de manera integral. Si bien hay medidas que los usuarios pueden tomar para aumentar su conocimiento de la IA, es importante invertir en una multitud de salvaguardas para los riesgos a medida que evolucionan. Por ejemplo, estoy entusiasmado con una mayor investigación sobre las marcas de agua como herramienta técnica, y también necesitamos orientación coordinada de los formuladores de políticas sobre la distribución de contenido generado, especialmente en las plataformas de redes sociales.

¿Cuál es la mejor manera de construir IA de manera responsable?

Con los pueblos afectados y reevaluando constantemente nuestros métodos de evaluación e implementación de técnicas de seguridad. Tanto las aplicaciones beneficiosas como los daños potenciales evolucionan constantemente y requieren retroalimentación iterativa. Los medios por los que mejoramos la seguridad de la IA deben examinarse colectivamente como un campo. Las evaluaciones más populares de modelos en 2024 son mucho más sólidas que las que realicé en 2019. Hoy en día, soy mucho más optimista con las evaluaciones técnicas que con el equipo rojo. Considero que las evaluaciones humanas tienen una utilidad extremadamente alta, pero a medida que surgen más pruebas de la carga mental y los costos dispares de la retroalimentación humana, soy cada vez más optimista en cuanto a estandarizar las evaluaciones.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

¡Ya lo son! Me alegra ver que muchos inversores y empresas de capital de riesgo participan activamente en conversaciones sobre políticas y seguridad, incluso a través de cartas abiertas y testimonios en el Congreso. Estoy ansioso por escuchar más de la experiencia de los inversores sobre lo que estimula a las pequeñas empresas en todos los sectores, especialmente porque estamos viendo un mayor uso de la IA en campos fuera de las industrias tecnológicas centrales.



Source link-48