Mujeres en IA: Sandra Watcher, profesora de ética de datos en Oxford


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Sandra Wachter es profesora e investigadora principal en ética de datos, inteligencia artificial, robótica, algoritmos y regulación en el Oxford Internet Institute. También fue miembro del Instituto Alan Turing, el instituto nacional de ciencia de datos e inteligencia artificial del Reino Unido.

Mientras estuvo en el Instituto Turing, Watcher evaluó los aspectos éticos y legales de la ciencia de datos, destacando casos en los que los algoritmos opacos se han vuelto racistas y sexistas. También buscó formas de auditar la IA para abordar la desinformación y promover la equidad.

Preguntas y respuestas

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

No recuerdo un momento de mi vida en el que no pensara que la innovación y la tecnología tienen un potencial increíble para mejorar la vida de las personas. Sin embargo, también sé que la tecnología puede tener consecuencias devastadoras para la vida de las personas. Y por eso siempre me sentí impulsado (sobre todo debido a mi fuerte sentido de la justicia) a encontrar una manera de garantizar ese perfecto término medio. Permitir la innovación y al mismo tiempo proteger los derechos humanos.

Siempre sentí que la ley tiene un papel muy importante que desempeñar. La ley puede ser ese punto medio que proteja a las personas pero que permita la innovación. El derecho como disciplina me resultó muy natural. Me gustan los desafíos, me gusta entender cómo funciona un sistema, ver cómo puedo jugar con él, encontrar lagunas y posteriormente cerrarlas.

La IA es una fuerza increíblemente transformadora. Se implementa en finanzas, empleo, justicia penal, inmigración, salud y arte. Esto puede ser bueno y malo. Y si es bueno o malo es una cuestión de diseño y política. Naturalmente, me atrajo porque sentí que la ley puede hacer una contribución significativa para garantizar que la innovación beneficie a la mayor cantidad de personas posible.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Creo que el trabajo del que estoy más orgulloso actualmente es un artículo en coautoría con Brent Mittelstadt (un filósofo), Chris Russell (un científico informático) y yo como abogado.

Nuestro último trabajo sobre prejuicios y equidad, “La injusticia del aprendizaje automático justo”, reveló el impacto dañino de aplicar muchas medidas de “justicia grupal” en la práctica. Específicamente, la justicia se logra “bajando nivel” o empeorando la situación de todos, en lugar de ayudar a los grupos desfavorecidos. Este enfoque es muy problemático en el contexto de las leyes antidiscriminatorias de la UE y el Reino Unido, además de ser éticamente preocupante. En un artículo en Wired discutimos cuán dañino puede ser bajar el nivel en la práctica: en la atención médica, por ejemplo, hacer cumplir la equidad grupal podría significar pasar por alto más casos de cáncer de los estrictamente necesarios y, al mismo tiempo, hacer que un sistema sea menos preciso en general.

Para nosotros, esto fue aterrador y es algo que es importante saber para la gente de tecnología, políticas y, en realidad, para todos los seres humanos. De hecho, nos hemos comprometido con los reguladores del Reino Unido y la UE y les hemos compartido nuestros alarmantes resultados. Espero profundamente que esto brinde a los formuladores de políticas la influencia necesaria para implementar nuevas políticas que impidan que la IA cause daños tan graves.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

Lo interesante es que nunca vi la tecnología como algo que “pertenece” a los varones. Recién cuando comencé la escuela la sociedad me dijo que la tecnología no tiene lugar para personas como yo. Todavía recuerdo que cuando tenía 10 años, el plan de estudios dictaba que las niñas tenían que tejer y coser mientras los niños construían casas para pájaros. También quería construir una pajarera y solicité que me transfirieran a la clase de niños, pero mis profesores me dijeron que “las niñas no hacen eso”. Incluso acudí al director de la escuela para intentar revocar la decisión, pero lamentablemente fracasé en ese momento.

Es muy difícil luchar contra un estereotipo que dice que no deberías ser parte de esta comunidad. Ojalá pudiera decir que cosas así ya no suceden, pero lamentablemente esto no es cierto.

Sin embargo, he tenido mucha suerte de trabajar con aliados como Brent Mittelstadt y Chris Russell. Tuve el privilegio de contar con mentores increíbles como mi Ph.D. Supervisor y yo tenemos una red cada vez mayor de personas de todos los géneros con ideas afines que están haciendo todo lo posible para marcar el camino a seguir y mejorar la situación de todos los interesados ​​en la tecnología.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

Por encima de todo, trate de encontrar personas y aliados con ideas afines. Encontrar a su gente y apoyarse mutuamente es crucial. Mi trabajo más impactante siempre proviene de hablar con personas de mente abierta de otros orígenes y disciplinas para resolver problemas comunes que enfrentamos. La sabiduría aceptada por sí sola no puede resolver problemas nuevos, por lo que las mujeres y otros grupos que históricamente han enfrentado barreras para ingresar a la IA y otros campos tecnológicos tienen las herramientas para verdaderamente innovar y ofrecer algo nuevo.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Creo que hay una amplia gama de cuestiones que necesitan una seria consideración jurídica y política. Por nombrar algunos, la IA está plagada de datos sesgados que conducen a resultados discriminatorios e injustos. La IA es intrínsecamente opaca y difícil de entender, pero tiene la tarea de decidir quién obtiene un préstamo, quién consigue el trabajo, quién debe ir a prisión y a quién se le permite ir a la universidad.

La IA generativa tiene problemas relacionados, pero también contribuye a la desinformación, está plagada de alucinaciones, viola la protección de datos y los derechos de propiedad intelectual, pone en riesgo los puestos de trabajo de las personas y contribuye más al cambio climático que la industria de la aviación.

No tenemos tiempo que perder; Teníamos que haber abordado estas cuestiones ayer.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Creo que hay una tendencia a creer en una cierta narrativa del tipo “la IA está aquí y aquí para quedarse, subirse a bordo o quedarse atrás”. Creo que es importante pensar en quién impulsa esta narrativa y quién se beneficia de ella. Es importante recordar dónde reside el poder real. El poder no está en quienes innovan, sino en quienes compran e implementan la IA.

Por lo tanto, los consumidores y las empresas deberían preguntarse: «¿Esta tecnología realmente me ayuda y en qué sentido?» Los cepillos de dientes eléctricos ahora tienen «IA» integrada. ¿Para quien es esto? ¿Quién necesita esto? ¿Qué se está mejorando aquí?

En otras palabras, pregúntese qué está roto y qué necesita arreglarse y si la IA realmente puede arreglarlo.

Este tipo de pensamiento cambiará el poder del mercado y es de esperar que la innovación tome una dirección que se centre en la utilidad para una comunidad en lugar de simplemente en las ganancias.

¿Cuál es la mejor manera de construir IA de manera responsable?

Contar con leyes que exijan una IA responsable. Aquí también tiende a dominar una narrativa muy inútil y falsa: que la regulación sofoca la innovación. Esto no es verdad. La regulación sofoca dañino innovación. Las buenas leyes fomentan y nutren la innovación ética; Por eso tenemos coches, aviones, trenes y puentes seguros. La sociedad no sale perdiendo si la regulación impide la
creación de IA que viola los derechos humanos.

También se dijo que las normas de tráfico y seguridad para los automóviles “sofocan la innovación” y “limitan la autonomía”. Estas leyes impiden que las personas conduzcan sin licencia, impiden que entren al mercado automóviles que no tengan cinturones de seguridad y bolsas de aire y castigan a las personas que no conducen de acuerdo con el límite de velocidad. Imagínese cómo sería el historial de seguridad de la industria automotriz si no tuviéramos leyes para regular los vehículos y los conductores. La IA se encuentra actualmente en un punto de inflexión similar, y el intenso lobby de la industria y la presión política hacen que aún no esté claro qué camino tomará.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Hace unos años escribí un artículo titulado «Cómo la IA justa puede hacernos más ricos». Creo profundamente que una IA que respete los derechos humanos y sea imparcial, explicable y sostenible no sólo es lo correcto desde el punto de vista legal, ético y moral, sino que también puede ser rentable.

Realmente espero que los inversores comprendan que si impulsan una investigación e innovación responsables, también obtendrán mejores productos. Los malos datos, los malos algoritmos y las malas elecciones de diseño conducen a peores productos. Incluso si no puedo convencerte de que debes hacer lo ético porque es lo correcto, espero que veas que lo ético también es más rentable. La ética debe verse como una inversión, no como un obstáculo que hay que superar.



Source link-48