Mujeres en la IA: Rashida Richardson, asesora principal de Mastercard centrada en la IA y la privacidad


Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.

Rashida Richardson es asesora principal de Mastercard, donde su competencia radica en cuestiones legales relacionadas con la privacidad y la protección de datos, además de la IA.

Richardson, ex director de investigación de políticas en el AI Now Institute, el instituto de investigación que estudia las implicaciones sociales de la IA, y asesor principal de políticas para datos y democracia en la Oficina de Política Científica y Tecnológica de la Casa Blanca, ha sido profesor asistente de derecho. y ciencias políticas en la Universidad Northeastern desde 2021. Allí, se especializa en raza y tecnologías emergentes.

Rashida Richardson, asesora principal de IA en Mastercard

Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?

Mi experiencia es como abogada de derechos civiles, donde trabajé en una variedad de temas que incluyen privacidad, vigilancia, eliminación de la segregación escolar, vivienda justa y reforma de la justicia penal. Mientras trabajaba en estos temas, fui testigo de las primeras etapas de adopción y experimentación gubernamental con tecnologías basadas en IA. En algunos casos, los riesgos y preocupaciones eran evidentes, y ayudé a liderar una serie de esfuerzos de políticas tecnológicas en el estado y la ciudad de Nueva York para crear una mayor supervisión, evaluación u otras salvaguardas. En otros casos, era inherentemente escéptico sobre los beneficios o las afirmaciones de eficacia de las soluciones relacionadas con la IA, especialmente aquellas comercializadas para resolver o mitigar problemas estructurales como la eliminación de la segregación escolar o la vivienda justa.

Mi experiencia previa también me hizo muy consciente de las lagunas normativas y políticas existentes. Rápidamente me di cuenta de que había pocas personas en el espacio de la IA con mi formación y experiencia, o que ofrecieran el análisis y las posibles intervenciones que estaba desarrollando en mi trabajo académico y de promoción de políticas. Entonces me di cuenta de que este era un campo y un espacio donde podía hacer contribuciones significativas y también aprovechar mi experiencia previa de maneras únicas.

Decidí centrar tanto mi práctica jurídica como mi trabajo académico en la IA, específicamente en cuestiones políticas y legales relacionadas con su desarrollo y uso.

¿De qué trabajo estás más orgulloso en el campo de la IA?

Me alegra que la cuestión finalmente esté recibiendo más atención de todas las partes interesadas, pero especialmente de los responsables políticos. Hay una larga historia en los Estados Unidos de que la ley se está poniendo al día o nunca ha abordado adecuadamente las cuestiones de política tecnológica, y hace cinco o seis años, parecía que ese podría ser el destino de la IA, porque recuerdo haber interactuado con los responsables políticos, tanto en En entornos formales como audiencias del Senado de EE. UU. o foros educativos, y la mayoría de los formuladores de políticas trataron el tema como arcano o algo que no requería urgencia a pesar de la rápida adopción de la IA en todos los sectores. Sin embargo, en el último año se ha producido un cambio significativo, de modo que la IA es una característica constante del discurso público y los formuladores de políticas aprecian mejor lo que está en juego y la necesidad de una acción informada. También creo que las partes interesadas de todos los sectores, incluida la industria, reconocen que la IA plantea beneficios y riesgos únicos que pueden no resolverse mediante prácticas convencionales, por lo que hay más reconocimiento, o al menos aprecio, por las intervenciones políticas.

¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?

Como mujer negra, estoy acostumbrada a ser una minoría en muchos espacios, y si bien las industrias de la inteligencia artificial y la tecnología son campos extremadamente homogéneos, no son novedosos ni tan diferentes de otros campos de inmenso poder y riqueza, como las finanzas y la economía. profesión legal. Así que creo que mi trabajo previo y mi experiencia vivida me ayudaron a prepararme para esta industria, porque soy muy consciente de las ideas preconcebidas que quizás tenga que superar y de las dinámicas desafiantes que probablemente encontraré. Confío en mi experiencia para navegar, porque tengo una experiencia y una perspectiva únicas al haber trabajado en IA en todas las industrias: academia, industria, gobierno y sociedad civil.

¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?

Dos cuestiones clave que los usuarios de IA deben tener en cuenta son: (1) una mayor comprensión de las capacidades y limitaciones de las diferentes aplicaciones y modelos de IA, y (2) cómo existe una gran incertidumbre con respecto a la capacidad de las leyes actuales y futuras para resolver conflictos o ciertas preocupaciones. respecto al uso de la IA.

En cuanto al primer punto, existe un desequilibrio en el discurso público y la comprensión sobre los beneficios y el potencial de las aplicaciones de IA y sus capacidades y limitaciones reales. Este problema se ve agravado por el hecho de que es posible que los usuarios de IA no aprecien la diferencia entre las aplicaciones y los modelos de IA. La conciencia pública sobre la IA creció con el lanzamiento de ChatGPT y otros sistemas de IA generativa disponibles comercialmente, pero esos modelos de IA son distintos de otros tipos de modelos de IA con los que los consumidores han interactuado durante años, como los sistemas de recomendación. Cuando la conversación sobre la IA es confusa –donde la tecnología se trata como monolítica– tiende a distorsionar la comprensión pública de lo que cada tipo de aplicación o modelo puede hacer realmente, y los riesgos asociados con sus limitaciones o deficiencias.

En cuanto al segundo punto, las leyes y políticas relativas al desarrollo y uso de la IA están evolucionando. Si bien existe una variedad de leyes (por ejemplo, derechos civiles, protección al consumidor, competencia, préstamos justos) que ya se aplican al uso de la IA, estamos en las primeras etapas para ver cómo se aplicarán e interpretarán estas leyes. También estamos en las primeras etapas del desarrollo de políticas diseñadas específicamente para la IA, pero lo que he notado tanto en la práctica legal como en mi investigación es que hay áreas que siguen sin resolverse en este mosaico legal y solo se resolverán cuando haya más litigio relacionado con el desarrollo y uso de la IA. En general, no creo que haya una gran comprensión del estado actual de la ley y la IA, y de cómo la incertidumbre legal con respecto a cuestiones clave como la responsabilidad puede significar que ciertos riesgos, daños y disputas pueden permanecer sin resolver hasta años de litigios entre empresas o entre reguladores. y las empresas producen precedentes legales que pueden aportar cierta claridad.

¿Cuál es la mejor manera de construir IA de manera responsable?

El desafío de construir una IA de manera responsable es que muchos de los pilares subyacentes de una IA responsable, como la equidad y la seguridad, se basan en valores normativos, de los cuales no existen definiciones ni comprensión compartidas de estos conceptos. Por lo tanto, presumiblemente uno podría actuar responsablemente y aun así causar daño, o uno podría actuar maliciosamente y confiar en el hecho de que no existen normas compartidas de estos conceptos para reclamar una acción de buena fe. Hasta que existan estándares globales o algún marco compartido de lo que se entiende por construir IA de manera responsable, la mejor manera de perseguir este objetivo es tener principios, políticas, orientaciones y estándares claros para el desarrollo y uso responsable de la IA que se apliquen mediante supervisión interna. evaluación comparativa y otras prácticas de gobernanza.

¿Cómo pueden los inversores impulsar mejor una IA responsable?

Los inversores pueden hacer un mejor trabajo al definir o al menos aclarar qué constituye un desarrollo o uso responsable de la IA, y tomar medidas cuando las prácticas de los actores de la IA no se alinean. Actualmente, la IA «responsable» o «confiable» son efectivamente términos de marketing porque no existen estándares claros para evaluar las prácticas de los actores de la IA. Si bien algunas regulaciones incipientes, como la Ley de IA de la UE, establecerán algunos requisitos de gobernanza y supervisión, todavía hay áreas en las que los inversores pueden incentivar a los actores de la IA para que desarrollen mejores prácticas que centren los valores humanos o el bien social. Sin embargo, si los inversores no están dispuestos a actuar cuando hay desalineamiento o evidencia de malos actores, habrá pocos incentivos para ajustar el comportamiento o las prácticas.



Source link-48