{"id":1114171,"date":"2024-05-02T23:23:21","date_gmt":"2024-05-02T23:23:21","guid":{"rendered":"https:\/\/magazineoffice.com\/microsoft-dice-que-hizo-mucho-por-la-ia-responsable-en-su-informe-de-transparencia-inaugural\/"},"modified":"2024-05-02T23:23:23","modified_gmt":"2024-05-02T23:23:23","slug":"microsoft-dice-que-hizo-mucho-por-la-ia-responsable-en-su-informe-de-transparencia-inaugural","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/microsoft-dice-que-hizo-mucho-por-la-ia-responsable-en-su-informe-de-transparencia-inaugural\/","title":{"rendered":"Microsoft dice que hizo mucho por la IA responsable en su informe de transparencia inaugural"},"content":{"rendered":"
\n<\/p>\n
En su Informe de transparencia de IA responsable<\/em>, que cubre principalmente 2023, Microsoft promociona sus logros en la implementaci\u00f3n segura de productos de inteligencia artificial. El informe anual de transparencia de la IA es uno de los compromisos que asumi\u00f3 la compa\u00f1\u00eda tras firmar un acuerdo voluntario con la Casa Blanca en julio del a\u00f1o pasado. Microsoft y otras empresas prometieron establecer sistemas de inteligencia artificial responsables y comprometerse con la seguridad. <\/p>\n<\/div>\n Microsoft dice en el informe que cre\u00f3 30 herramientas de IA responsable el a\u00f1o pasado, aument\u00f3 su equipo de IA responsable y requiri\u00f3 equipos que crearan aplicaciones de IA generativa para medir y mapear los riesgos a lo largo del ciclo de desarrollo. La empresa se\u00f1ala que Credenciales de contenido agregadas<\/a> a sus plataformas de generaci\u00f3n de im\u00e1genes, que ponen una marca de agua en una foto, etiquet\u00e1ndola como realizada por un modelo de IA. <\/p>\n<\/div>\n La compa\u00f1\u00eda dice que ha brindado a los clientes de Azure AI acceso a herramientas que detectan contenido problem\u00e1tico como incitaci\u00f3n al odio, contenido sexual y autolesiones, as\u00ed como herramientas para evaluar riesgos de seguridad. Esto incluye nuevos m\u00e9todos de detecci\u00f3n de jailbreak, que fueron ampliado en marzo<\/a> este a\u00f1o incluir\u00e1 inyecciones r\u00e1pidas indirectas donde las instrucciones maliciosas son parte de los datos ingeridos por el modelo de IA. <\/p>\n<\/div>\n