Mujeres en IA: Heidy Khlaaf, directora de ingeniería de seguridad de Trail of Bits


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Heidy Khlaaf es directora de ingeniería de la empresa de ciberseguridad Trail of Bits. Se especializa en evaluar implementaciones de software e inteligencia artificial dentro de sistemas «críticos para la seguridad», como plantas de energía nuclear y vehículos autónomos.

Khlaaf recibió su doctorado en informática. de University College London y su licenciatura en informática y filosofía de Florida State University. Ha dirigido auditorías de seguridad y protección, ha brindado consultas y revisiones de casos de aseguramiento y ha contribuido a la creación de estándares y directrices para aplicaciones relacionadas con la seguridad y su desarrollo.

Preguntas y respuestas

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Me atrajo la robótica desde muy joven y comencé a programar a los 15 años porque me fascinaban las perspectivas de utilizar la robótica y la inteligencia artificial (ya que están inexplicablemente vinculadas) para automatizar cargas de trabajo donde más se necesitan. Al igual que en la fabricación, vi que se utilizaba la robótica para ayudar a las personas mayores y automatizar el trabajo manual peligroso en nuestra sociedad. Sin embargo, recibí mi doctorado. en un subcampo diferente de la informática, porque creo que tener una base teórica sólida en informática permite tomar decisiones fundamentadas y científicas sobre dónde la IA puede o no ser adecuada y dónde pueden encontrarse los obstáculos.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Utilizar mi sólida experiencia y experiencia en ingeniería de seguridad y sistemas críticos para la seguridad para brindar contexto y críticas cuando sea necesario en el nuevo campo de la «seguridad» de la IA. Aunque el campo de la seguridad de la IA ha intentado adaptarse y citar técnicas de seguridad bien establecidas, se ha malinterpretado varias terminologías en cuanto a su uso y significado. Faltan definiciones consistentes o intencionales que comprometan la integridad de las técnicas de seguridad que la comunidad de IA está utilizando actualmente. Estoy particularmente orgulloso de «Hacia evaluaciones integrales de riesgos y garantía de sistemas basados ​​en IA» y «Un marco de análisis de peligros para modelos de lenguaje grande de síntesis de código», donde deconstruyo narrativas falsas sobre seguridad y evaluaciones de IA, y proporciono pasos concretos para salvar las barreras. brecha de seguridad dentro de la IA.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

El reconocimiento de lo poco que ha cambiado el status quo no es algo que discutamos a menudo, pero creo que en realidad es importante para mí y para otras mujeres técnicas comprender nuestra posición dentro de la industria y tener una visión realista sobre los cambios necesarios. Las tasas de retención y la proporción de mujeres que ocupan puestos de liderazgo se han mantenido prácticamente iguales desde que me uní al campo, y eso fue hace más de una década. Y como ha señalado acertadamente TechCrunch, a pesar de los tremendos avances y contribuciones de las mujeres dentro de la IA, seguimos al margen de las conversaciones que nosotras mismas hemos definido. Reconocer esta falta de progreso me ayudó a comprender que construir una comunidad personal fuerte es mucho más valioso como fuente de apoyo que depender de iniciativas de DEI que desafortunadamente no han logrado cambios, dado que el sesgo y el escepticismo hacia las mujeres técnicas todavía está bastante generalizado en tecnología.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

No apelar a la autoridad y encontrar una línea de trabajo en la que realmente creas, incluso si contradice las narrativas populares. Dado el poder que los laboratorios de IA tienen política y económicamente en este momento, existe el instinto de tomar como un hecho cualquier cosa que los “líderes de opinión” de IA digan, cuando a menudo ocurre que muchas afirmaciones de IA son discursos de marketing que exageran las capacidades de la IA para beneficiarse. un resultado final. Sin embargo, veo una vacilación significativa, especialmente entre las mujeres jóvenes en el campo, a la hora de expresar escepticismo frente a afirmaciones hechas por sus pares masculinos que no pueden fundamentarse. El síndrome del impostor tiene un fuerte dominio sobre las mujeres dentro del sector tecnológico y lleva a muchas a dudar de su propia integridad científica. Pero es más importante que nunca cuestionar las afirmaciones que exageran las capacidades de la IA, especialmente aquellas que no son falsables según el método científico.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Independientemente de los avances que observemos en la IA, nunca serán la única solución, tecnológica o socialmente, a nuestros problemas. Actualmente existe una tendencia a introducir la IA en todos los sistemas posibles, independientemente de su eficacia (o falta de ella) en numerosos dominios. La IA debería aumentar las capacidades humanas en lugar de reemplazarlas, y estamos siendo testigos de un completo desprecio por los escollos y los modos de falla de la IA que están provocando daños reales y tangibles. Recientemente, un sistema de inteligencia artificial ShotSpotter provocó que un oficial disparara contra un niño.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Qué poco confiable es la IA. Los algoritmos de IA son notoriamente defectuosos y se observan altas tasas de error en aplicaciones que requieren precisión, exactitud y seguridad. La forma en que se entrenan los sistemas de IA incorpora prejuicios y discriminación humanos en sus resultados, que se vuelven “de facto” y automatizados. Y esto se debe a que la naturaleza de los sistemas de IA es proporcionar resultados basados ​​en inferencias y correlaciones estadísticas y probabilísticas a partir de datos históricos, y no en ningún tipo de razonamiento, evidencia fáctica o “causalidad”.

¿Cuál es la mejor manera de construir IA de manera responsable?

Garantizar que la IA se desarrolle de manera que proteja los derechos y la seguridad de las personas mediante la elaboración de afirmaciones verificables y responsabilizar a los desarrolladores de IA ante ellas. Estas afirmaciones también deben tener como alcance una aplicación regulatoria, de seguridad, ética o técnica y no deben ser falsificables. De lo contrario, existe una falta significativa de integridad científica para evaluar adecuadamente estos sistemas. Los reguladores independientes también deberían evaluar los sistemas de IA en función de estas afirmaciones, como se requiere actualmente para muchos productos y sistemas en otras industrias, por ejemplo, los evaluados por la FDA. Los sistemas de IA no deberían estar exentos de procesos de auditoría estándar que estén bien establecidos para garantizar la protección del público y de los consumidores.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Los inversores deben colaborar y financiar organizaciones que busquen establecer y promover prácticas de auditoría para la IA. Actualmente, la mayor parte de los fondos se invierten en los propios laboratorios de IA, con la creencia de que sus equipos de seguridad son suficientes para el avance de las pruebas de IA. Sin embargo, los auditores y reguladores independientes son clave para la confianza pública. La independencia permite al público confiar en la exactitud e integridad de las evaluaciones y en la integridad de los resultados regulatorios.



Source link-48