Francine Bennett utiliza la ciencia de datos para hacer que la IA sea más responsable


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Francine Bennett es miembro fundador de la junta directiva del Instituto Ada Lovelace y actualmente se desempeña como directora interina de la organización. Antes de esto, trabajó en biotecnología, utilizando IA para encontrar tratamientos médicos para enfermedades raras. También cofundó una consultoría de ciencia de datos y es fideicomisaria fundadora de DataKind UK, que ayuda a organizaciones benéficas británicas con apoyo a la ciencia de datos.

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Comencé en matemáticas puras y no estaba tan interesado en nada aplicado; disfrutaba jugando con las computadoras, pero pensaba que cualquier matemática aplicada era solo cálculo y no muy interesante intelectualmente. Llegué a la IA y al aprendizaje automático más tarde, cuando empezó a resultar obvio para mí y para todos los demás que, dado que los datos se estaban volviendo mucho más abundantes en muchos contextos, se abrían posibilidades interesantes para resolver todo tipo de problemas de nuevas formas utilizando la IA. y aprendizaje automático, y eran mucho más interesantes de lo que pensaba.

¿De qué trabajo estás más orgulloso (en el campo de la IA)?

Estoy muy orgulloso del trabajo que no es el más elaborado desde el punto de vista técnico, pero que desbloquea algunas mejoras reales para las personas; por ejemplo, usar ML para tratar de encontrar patrones previamente desapercibidos en informes de incidentes de seguridad del paciente en un hospital para ayudar a los profesionales médicos a mejorar el futuro. resultados de los pacientes. Y estoy orgulloso de representar la importancia de poner a las personas y a la sociedad en lugar de a la tecnología en el centro de eventos como la Cumbre de Seguridad de la IA de este año en el Reino Unido. Creo que solo es posible hacer eso con autoridad porque tengo experiencia trabajando con la tecnología y entusiasmado con ella y profundizando en cómo afecta realmente la vida de las personas en la práctica.

¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?

Principalmente eligiendo trabajar en lugares y con personas que están interesadas en la persona y sus habilidades más que en el género y tratando de utilizar la influencia que tengo para hacer de eso la norma. También trabajo en equipos diversos siempre que puedo: estar en un equipo equilibrado en lugar de ser una «minoría» excepcional crea una atmósfera realmente diferente y hace que sea mucho más posible que todos alcancen su potencial. En términos más generales, debido a que la IA es tan multifacética y es probable que tenga un impacto en tantos ámbitos de la vida, especialmente en aquellos de comunidades marginadas, es obvio que personas de todos los ámbitos de la vida deben participar en su construcción y configuración, si es que se desea. va a funcionar bien.

¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?

¡Disfrútala! Este es un campo muy interesante, intelectualmente desafiante y en constante cambio: siempre encontrarás algo útil y desafiante que hacer, y hay muchas aplicaciones importantes en las que nadie ha pensado todavía. Además, no se preocupe demasiado por la necesidad de conocer todos los aspectos técnicos (literalmente, nadie sabe todos los aspectos técnicos); simplemente comience con algo que le intrigue y trabaje a partir de ahí.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

En este momento, creo que hay una falta de una visión compartida de lo que queremos que la IA haga por nosotros y de lo que puede y no puede hacer por nosotros como sociedad. Actualmente se están produciendo muchos avances técnicos, que probablemente tengan impactos ambientales, financieros y sociales muy altos, y hay mucho entusiasmo por implementar esas nuevas tecnologías sin una comprensión bien fundada de los riesgos potenciales o las consecuencias no deseadas. La mayoría de las personas que construyen la tecnología y hablan de los riesgos y consecuencias pertenecen a un grupo demográfico bastante reducido. Ahora tenemos una ventana de oportunidad para decidir qué queremos ver de la IA y trabajar para que eso suceda. Podemos recordar otros tipos de tecnología y cómo manejamos su evolución o qué desearíamos haber hecho mejor: cuáles son nuestros equivalentes para los productos de IA de las pruebas de choque de autos nuevos; responsabilizar a un restaurante que accidentalmente le provoca una intoxicación alimentaria; consultar a las personas afectadas durante el permiso de planificación; apelar una decisión de la IA como lo haría con una burocracia humana.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Me gustaría que las personas que utilizan tecnologías de IA tengan confianza en cuáles son las herramientas y en lo que pueden hacer, y que hablen sobre lo que quieren de la IA. Es fácil ver la IA como algo incognoscible e incontrolable, pero en realidad es sólo un conjunto de herramientas, y quiero que los humanos se sientan capaces de hacerse cargo de lo que hacen con esas herramientas. Pero no debería ser solo responsabilidad de las personas que usan la tecnología: el gobierno y la industria deberían crear las condiciones para que las personas que usan la IA puedan tener confianza.

¿Cuál es la mejor manera de construir IA de manera responsable?

Nos hacemos mucho esta pregunta en el Instituto Ada Lovelace, cuyo objetivo es hacer que la IA de datos funcione para las personas y la sociedad. Es difícil y hay cientos de ángulos que puedes tomar, pero hay dos realmente importantes desde mi perspectiva.

La primera es estar dispuesto a veces a no construir ni a detenerse. Todo el tiempo, vemos sistemas de IA con gran impulso, donde los constructores intentan agregar «barandillas» después para mitigar los problemas y daños, pero no se ponen en una situación en la que detenerse sea una posibilidad.

El segundo es involucrarse realmente e intentar comprender cómo todo tipo de personas experimentarán lo que estás construyendo. Si realmente puedes sumergirte en sus experiencias, entonces tienes muchas más posibilidades de tener una IA responsable y positiva: construir algo que realmente resuelva un problema para las personas, basado en una visión compartida de cómo sería el bien, además de Evitar lo negativo, no empeorar accidentalmente la vida de alguien porque su existencia diaria es muy diferente a la suya.

Por ejemplo, el Instituto Ada Lovelace se asoció con el NHS para desarrollar una evaluación de impacto algorítmica que los desarrolladores deberían realizar como condición para el acceso a los datos de atención médica. Esto requiere que los desarrolladores evalúen los posibles impactos sociales de su sistema de IA antes de su implementación e incorporen las experiencias vividas de las personas y comunidades que podrían verse afectadas.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Al hacer preguntas sobre sus inversiones y sus posibles futuros, para este sistema de inteligencia artificial, ¿qué significa trabajar de manera brillante y ser responsable? ¿Dónde podrían descarrilarse las cosas? ¿Cuáles son los posibles efectos en cadena para las personas y la sociedad? ¿Cómo sabríamos si necesitamos dejar de construir o cambiar las cosas significativamente y qué haríamos entonces? No existe una receta única para todos, pero con solo hacer las preguntas y señalar que ser responsable es importante, los inversionistas pueden cambiar dónde sus empresas están poniendo atención y esfuerzo.



Source link-48