\n<\/aside>\n<\/p>\n
Un equipo completo responsable de asegurarse de que los productos de inteligencia artificial de Microsoft se env\u00eden con medidas de seguridad para mitigar los da\u00f1os sociales fue cortado durante el despido m\u00e1s reciente de 10,000 empleados de la compa\u00f1\u00eda, inform\u00f3 Platformer.<\/p>\n
Los ex empleados dijeron que el equipo de \u00e9tica y sociedad era una parte fundamental de la estrategia de Microsoft para reducir los riesgos asociados con el uso de la tecnolog\u00eda OpenAI en los productos de Microsoft. Antes de que se eliminara, el equipo desarroll\u00f3 un \u00abjuego de herramientas de innovaci\u00f3n responsable\u00bb completo para ayudar a los ingenieros de Microsoft a pronosticar qu\u00e9 da\u00f1os podr\u00eda causar la IA y luego disminuir esos da\u00f1os.<\/p>\n
El informe de Platformer se produjo justo antes de que OpenAI lanzara posiblemente su modelo de IA m\u00e1s poderoso hasta el momento, GPT-4, que ya est\u00e1 ayudando a potenciar la b\u00fasqueda de Bing, inform\u00f3 Reuters.<\/p>\n
En una declaraci\u00f3n proporcionada a Ars, Microsoft dijo que sigue \u00abcomprometida con el desarrollo de productos y experiencias de IA de manera segura y responsable, y lo hace invirtiendo en personas, procesos y asociaciones que priorizan esto\u00bb.<\/p>\n
Al calificar el trabajo del equipo de \u00e9tica y sociedad como \u00abpionero\u00bb, Microsoft dijo que la compa\u00f1\u00eda se hab\u00eda centrado m\u00e1s en los \u00faltimos seis a\u00f1os en invertir y expandir el tama\u00f1o de su Oficina de IA Responsable. Esa oficina permanece activa, junto con otros grupos de trabajo de IA responsable de Microsoft, el Comit\u00e9 Aether y la Estrategia de IA responsable en ingenier\u00eda.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nEmily Bender, experta de la Universidad de Washington en ling\u00fc\u00edstica computacional y cuestiones \u00e9ticas en el procesamiento del lenguaje natural, se uni\u00f3 a otros cr\u00edticos. tuiteando<\/a> para denunciar la decisi\u00f3n de Microsoft de disolver el equipo de \u00e9tica y sociedad. Bender le dijo a Ars que, como forastera, cree que la decisi\u00f3n de Microsoft fue \u00abmiope\u00bb. Agreg\u00f3: \u00abDado lo dif\u00edcil e importante que es este trabajo, cualquier recorte significativo para las personas que lo realizan es condenatorio\u00bb.<\/p>\nBreve historia del equipo de \u00e9tica y sociedad<\/h2>\n Microsoft comenz\u00f3 a centrarse en equipos dedicados a explorar la IA responsable en 2017, inform\u00f3 CNBC. Para 2020, ese esfuerzo incluy\u00f3 al equipo de \u00e9tica y sociedad con un tama\u00f1o m\u00e1ximo de 30 miembros, se\u00f1al\u00f3 Platformer. Pero a medida que la carrera de IA con Google se calentaba, Microsoft comenz\u00f3 a trasladar a la mayor\u00eda de los miembros del equipo de \u00e9tica y sociedad a equipos de productos espec\u00edficos en octubre pasado. Eso dej\u00f3 solo a siete personas dedicadas a implementar los \u00abplanes ambiciosos\u00bb del equipo de \u00e9tica y sociedad, dijeron los empleados a Platformer.<\/p>\n
Era demasiado trabajo para un equipo tan peque\u00f1o, y Platformer inform\u00f3 que los ex miembros del equipo dijeron que Microsoft no siempre actu\u00f3 seg\u00fan sus recomendaciones, como las estrategias de mitigaci\u00f3n recomendadas para Bing Image Creator que podr\u00edan evitar que copie las marcas de artistas vivos. (Microsoft ha cuestionado esa afirmaci\u00f3n, diciendo que modific\u00f3 la herramienta antes del lanzamiento para abordar las preocupaciones del equipo).<\/p>\n<\/p><\/div>\n