Informe: Microsoft eliminó un equipo clave de ética de IA


Un equipo completo responsable de asegurarse de que los productos de inteligencia artificial de Microsoft se envíen con medidas de seguridad para mitigar los daños sociales fue cortado durante el despido más reciente de 10,000 empleados de la compañía, informó Platformer.

Los ex empleados dijeron que el equipo de ética y sociedad era una parte fundamental de la estrategia de Microsoft para reducir los riesgos asociados con el uso de la tecnología OpenAI en los productos de Microsoft. Antes de que se eliminara, el equipo desarrolló un «juego de herramientas de innovación responsable» completo para ayudar a los ingenieros de Microsoft a pronosticar qué daños podría causar la IA y luego disminuir esos daños.

El informe de Platformer se produjo justo antes de que OpenAI lanzara posiblemente su modelo de IA más poderoso hasta el momento, GPT-4, que ya está ayudando a potenciar la búsqueda de Bing, informó Reuters.

En una declaración proporcionada a Ars, Microsoft dijo que sigue «comprometida con el desarrollo de productos y experiencias de IA de manera segura y responsable, y lo hace invirtiendo en personas, procesos y asociaciones que priorizan esto».

Al calificar el trabajo del equipo de ética y sociedad como «pionero», Microsoft dijo que la compañía se había centrado más en los últimos seis años en invertir y expandir el tamaño de su Oficina de IA Responsable. Esa oficina permanece activa, junto con otros grupos de trabajo de IA responsable de Microsoft, el Comité Aether y la Estrategia de IA responsable en ingeniería.

Emily Bender, experta de la Universidad de Washington en lingüística computacional y cuestiones éticas en el procesamiento del lenguaje natural, se unió a otros críticos. tuiteando para denunciar la decisión de Microsoft de disolver el equipo de ética y sociedad. Bender le dijo a Ars que, como forastera, cree que la decisión de Microsoft fue «miope». Agregó: «Dado lo difícil e importante que es este trabajo, cualquier recorte significativo para las personas que lo realizan es condenatorio».

Breve historia del equipo de ética y sociedad

Microsoft comenzó a centrarse en equipos dedicados a explorar la IA responsable en 2017, informó CNBC. Para 2020, ese esfuerzo incluyó al equipo de ética y sociedad con un tamaño máximo de 30 miembros, señaló Platformer. Pero a medida que la carrera de IA con Google se calentaba, Microsoft comenzó a trasladar a la mayoría de los miembros del equipo de ética y sociedad a equipos de productos específicos en octubre pasado. Eso dejó solo a siete personas dedicadas a implementar los «planes ambiciosos» del equipo de ética y sociedad, dijeron los empleados a Platformer.

Era demasiado trabajo para un equipo tan pequeño, y Platformer informó que los ex miembros del equipo dijeron que Microsoft no siempre actuó según sus recomendaciones, como las estrategias de mitigación recomendadas para Bing Image Creator que podrían evitar que copie las marcas de artistas vivos. (Microsoft ha cuestionado esa afirmación, diciendo que modificó la herramienta antes del lanzamiento para abordar las preocupaciones del equipo).





Source link-49