Conozca a los humanos que intentan mantenernos a salvo de la IA


Hace un año, la idea de mantener una conversación significativa con una computadora era materia de ciencia ficción. Pero desde que se lanzó ChatGPT de OpenAI en noviembre pasado, la vida comenzó a sentirse más como un tecno-thriller con una trama de rápido movimiento. Los chatbots y otras herramientas generativas de inteligencia artificial están comenzando a cambiar profundamente la forma en que las personas viven y trabajan. Pero que esta trama resulte edificante o distópica dependerá de quién ayude a escribirla.

Afortunadamente, así como la inteligencia artificial evoluciona, también lo hace el elenco de personas que la construyen y la estudian. Esta es una multitud más diversa de líderes, investigadores, empresarios y activistas que aquellos que sentaron las bases de ChatGPT. Aunque la comunidad de IA sigue siendo abrumadoramente masculina, en los últimos años algunos investigadores y empresas han presionado para que sea más acogedora para las mujeres y otros grupos subrepresentados. Y el campo ahora incluye a muchas personas preocupadas por algo más que hacer algoritmos o ganar dinero, gracias a un movimiento, liderado en gran parte por mujeres, que considera las implicaciones éticas y sociales de la tecnología. Estos son algunos de los humanos que dan forma a esta historia acelerada. —Will Caballero

Sobre el Arte

“Quería usar la IA generativa para capturar el potencial y la inquietud que sentimos mientras exploramos nuestra relación con esta nueva tecnología”, dice el artista Sam Cannon, quien trabajó junto a cuatro fotógrafos para mejorar los retratos con fondos creados con IA. “Se sintió como una conversación: yo alimentando imágenes e ideas a la IA, y la IA ofreciendo las suyas propias a cambio”.


Rumman Chowdhury

FOTOGRAFÍA: CHERIL SÁNCHEZ; Arte de IA por Sam Cannon

Rumman Chowdhury dirigido La investigación ética de inteligencia artificial de Twitter hasta que Elon Musk adquirió la empresa y despidió a su equipo. Es cofundadora de Humane Intelligence, una organización sin fines de lucro que utiliza el crowdsourcing para revelar vulnerabilidades en los sistemas de IA, diseñando concursos que desafían a los piratas informáticos a inducir un mal comportamiento en los algoritmos. Su primer evento, programado para este verano con el apoyo de la Casa Blanca, probará los sistemas de IA generativa de empresas como Google y OpenAI. Chowdhury dice que se necesitan pruebas públicas a gran escala debido a las amplias repercusiones de los sistemas de IA: «Si las implicaciones de esto afectarán a la sociedad en gran medida, ¿no son los mejores expertos las personas de la sociedad en general?» —Khari Johnson


sara pájaroFotografía: Annie Marie Musselman; Arte de IA por Sam Cannon

El trabajo de Sarah Bird en Microsoft es evitar que la IA generativa que la compañía está agregando a sus aplicaciones de oficina y otros productos se descarrile. A medida que vio que los generadores de texto como el que está detrás del chatbot de Bing se volvieron más capaces y útiles, también los vio mejorar en la emisión de contenido sesgado y código dañino. Su equipo trabaja para contener ese lado oscuro de la tecnología. La IA podría mejorar muchas vidas, dice Bird, pero «nada de eso es posible si a la gente le preocupa que la tecnología produzca resultados estereotipados». —KJ


Yejin ChoiFotografía: Annie Marie Musselman; Arte de IA por Sam Cannon

Yejin Choi, un profesor de la Escuela de Ciencias de la Computación e Ingeniería de la Universidad de Washington, está desarrollando un modelo de código abierto llamado Delphi, diseñado para tener un sentido del bien y del mal. Está interesada en cómo los humanos perciben los pronunciamientos morales de Delphi. Choi quiere sistemas tan capaces como los de OpenAI y Google que no requieran grandes recursos. “El enfoque actual en la báscula es muy poco saludable por una variedad de razones”, dice ella. “Es una concentración total de poder, demasiado costosa y es poco probable que sea la única forma”. —WK


margaret mitchellFotografía: Annie Marie Musselman; Arte de IA por Sam Cannon

Margaret Mitchell fundó El equipo de investigación de IA ética de Google en 2017. Fue despedida cuatro años después después de una disputa con los ejecutivos sobre un artículo del que era coautora. Advirtió que los grandes modelos de lenguaje, la tecnología detrás de ChatGPT, pueden reforzar los estereotipos y causar otros males. Mitchell ahora es jefe de ética en Hugging Face, una empresa emergente que desarrolla software de IA de código abierto para programadores. Ella trabaja para asegurarse de que los lanzamientos de la compañía no den sorpresas desagradables y alienta al campo a poner a las personas antes que a los algoritmos. Los modelos generativos pueden ser útiles, dice, pero también pueden estar socavando el sentido de la verdad de las personas: “Corremos el riesgo de perder el contacto con los hechos de la historia”. —KJ


Inioluwa Deborah RajiFotografía: AYSIA STIEB; Arte de IA por Sam Cannon

Cuando Inioluwa Deborah Raji comenzó en IA, trabajó en un proyecto que encontró sesgos en los algoritmos de análisis facial: eran menos precisos en mujeres con piel oscura. Los hallazgos llevaron a Amazon, IBM y Microsoft a dejar de vender tecnología de reconocimiento facial. Ahora Raji está trabajando con la Fundación Mozilla en herramientas de código abierto que ayudan a las personas a examinar los sistemas de inteligencia artificial en busca de fallas como sesgo e inexactitud, incluidos modelos de lenguaje grandes. Raji dice que las herramientas pueden ayudar a las comunidades perjudicadas por la IA a desafiar las afirmaciones de poderosas empresas tecnológicas. “La gente niega activamente el hecho de que ocurren daños”, dice, “por lo que recopilar evidencia es parte integral de cualquier tipo de progreso en este campo”. —KJ


Daniela AmodeiFotografía: AYSIA STIEB; Arte de IA por Sam Cannon

Daniela Amodei anteriormente Trabajó en la política de IA en OpenAI, ayudando a sentar las bases para ChatGPT. Pero en 2021, ella y varios otros dejaron la empresa para iniciar Anthropic, una corporación de beneficio público que traza su propio enfoque de la seguridad de la IA. El chatbot de la startup, Claude, tiene una «constitución» que guía su comportamiento, basada en principios extraídos de fuentes que incluyen la Declaración Universal de Derechos Humanos de la ONU. Amodei, presidente y cofundador de Anthropic, dice que ideas como esa reducirán el mal comportamiento hoy y tal vez ayuden a limitar los sistemas de IA más poderosos del futuro: «Pensar a largo plazo sobre los impactos potenciales de esta tecnología podría ser muy importante». —WK


Lila IbrahimFotografía: Ayesha Kazim; Arte de IA por Sam Cannon

Lila Ibrahim es director de operaciones de Google DeepMind, una unidad de investigación fundamental para los proyectos de IA generativa de Google. Ella considera que dirigir uno de los laboratorios de IA más poderosos del mundo es menos un trabajo que una vocación moral. Ibrahim se unió a DeepMind hace cinco años, después de casi dos décadas en Intel, con la esperanza de ayudar a que la IA evolucione de una manera que beneficie a la sociedad. Una de sus funciones es presidir un consejo de revisión interna que analiza cómo ampliar los beneficios de los proyectos de DeepMind y evitar los malos resultados. “Pensé que si podía aportar parte de mi experiencia y conocimientos para ayudar a que esta tecnología apareciera en el mundo de una manera más responsable, entonces valía la pena estar aquí”, dice. —Morgan Meaker


Este artículo aparece en la edición de julio/agosto de 2023. Suscríbase ahora.

Háganos saber lo que piensa acerca de este artículo. Envíe una carta al editor en [email protected].



Source link-46