{"id":1110239,"date":"2024-04-30T04:03:55","date_gmt":"2024-04-30T04:03:55","guid":{"rendered":"https:\/\/magazineoffice.com\/nist-lanza-una-nueva-plataforma-para-evaluar-la-ia-generativa\/"},"modified":"2024-04-30T04:03:58","modified_gmt":"2024-04-30T04:03:58","slug":"nist-lanza-una-nueva-plataforma-para-evaluar-la-ia-generativa","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nist-lanza-una-nueva-plataforma-para-evaluar-la-ia-generativa\/","title":{"rendered":"NIST lanza una nueva plataforma para evaluar la IA generativa"},"content":{"rendered":"
\n<\/p>\n
El Instituto Nacional de Est\u00e1ndares y Tecnolog\u00eda (NIST), la agencia del Departamento de Comercio de EE. UU. que desarrolla y prueba tecnolog\u00eda para el gobierno, las empresas y el p\u00fablico en general de EE. UU., anunci\u00f3 el lunes el lanzamiento de NIST GenAI, un nuevo programa encabezado por el NIST para evaluar la generaci\u00f3n. Tecnolog\u00edas de IA, incluida la IA generadora de texto e im\u00e1genes.<\/p>\n
NIST GenAI publicar\u00e1 puntos de referencia, ayudar\u00e1 a crear sistemas de detecci\u00f3n de \u00abautenticidad del contenido\u00bb (es decir, verificaci\u00f3n de deepfake) y fomentar\u00e1 el desarrollo de software para detectar la fuente de informaci\u00f3n falsa o enga\u00f1osa generada por IA, explica el NIST en el sitio web NIST GenAI recientemente lanzado y en comunicado de prensa.<\/p>\n
\u201cEl programa NIST GenAI emitir\u00e1 una serie de problemas desafiantes [intended] para evaluar y medir las capacidades y limitaciones de las tecnolog\u00edas de IA generativa\u201d, se lee en el comunicado de prensa. \u00abEstas evaluaciones se utilizar\u00e1n para identificar estrategias para promover la integridad de la informaci\u00f3n y guiar el uso seguro y responsable del contenido digital\u00bb.<\/p>\n
El primer proyecto de NIST GenAI es un estudio piloto para construir sistemas que puedan distinguir de manera confiable entre los medios creados por humanos y los generados por IA, comenzando con el texto. (Si bien muchos servicios pretenden detectar deepfakes, los estudios y nuestras propias pruebas han demostrado que, en el mejor de los casos, son inestables, especialmente cuando se trata de texto). NIST GenAI est\u00e1 invitando a equipos de la academia, la industria y los laboratorios de investigaci\u00f3n a enviar cualquiera de los \u201cgeneradores\u201d: Sistemas de IA para generar contenido, o \u201cdiscriminadores\u201d, que son sistemas dise\u00f1ados para identificar contenido generado por IA.<\/p>\n
Los generadores del estudio deben generar res\u00famenes de 250 palabras o menos, proporcionando un tema y un conjunto de documentos, mientras que los discriminadores deben detectar si un resumen determinado est\u00e1 potencialmente escrito por IA. Para garantizar la equidad, NIST GenAI proporcionar\u00e1 los datos necesarios para probar los generadores. Sistemas capacitados con datos disponibles p\u00fablicamente y que no \u201c[comply] con las leyes y regulaciones aplicables \u00abno ser\u00e1n aceptados\u00bb, dice el NIST.<\/p>\n
La inscripci\u00f3n para el piloto comenzar\u00e1 el 1 de mayo, y la primera ronda de dos finalizar\u00e1 el 2 de agosto. Se espera que los resultados finales del estudio se publiquen en febrero de 2025.<\/p>\n
El lanzamiento de NIST GenAI y el estudio centrado en deepfake se producen en un momento en que el volumen de informaci\u00f3n err\u00f3nea y desinformaci\u00f3n generada por IA crece exponencialmente.<\/p>\n
Seg\u00fan datos de Clarity, una empresa de detecci\u00f3n de deepfakes, este a\u00f1o se han creado y publicado un 900% m\u00e1s de deepfakes en comparaci\u00f3n con el mismo per\u00edodo del a\u00f1o pasado. Est\u00e1 causando alarma, comprensiblemente. A reciente <\/span>encuesta de YouGov encontr\u00f3 que el 85% de los estadounidenses estaban preocupados por la difusi\u00f3n en l\u00ednea de deepfakes enga\u00f1osos.<\/span><\/p>\n El lanzamiento de NIST GenAI es parte de la respuesta del NIST a la orden ejecutiva del presidente Joe Biden sobre IA, que estableci\u00f3 reglas que exigen una mayor transparencia por parte de las empresas de IA sobre c\u00f3mo funcionan sus modelos y estableci\u00f3 una serie de nuevos est\u00e1ndares, incluso para etiquetar el contenido generado por IA. .<\/p>\n Tambi\u00e9n es el primer anuncio del NIST relacionado con la IA despu\u00e9s del nombramiento de Paul Christiano, un ex investigador de OpenAI, para el Instituto de Seguridad de IA de la agencia.<\/p>\n Christiano fue una elecci\u00f3n controvertida por sus opiniones \u201cdoomeristas\u201d; Una vez predijo que \u00abhay un 50% de posibilidades de que el desarrollo de la IA termine en [humanity\u2019s destruction].\u201d Los cr\u00edticos, que al parecer incluyen a cient\u00edficos del NIST, temen que Cristiano pueda alentar al AI Safety Institute a centrarse en \u201cescenarios de fantas\u00eda\u201d en lugar de riesgos realistas y m\u00e1s inmediatos de la IA.<\/p>\n NIST dice que NIST GenAI informar\u00e1 el trabajo del AI Safety Institute.<\/p>\n<\/p><\/div>\n