\n<\/aside>\n<\/p>\n
El martes, Meta anunci\u00f3 su plan para comenzar a etiquetar im\u00e1genes generadas por IA de otras compa\u00f1\u00edas como OpenAI y Google, seg\u00fan inform\u00f3 Reuters. La medida tiene como objetivo mejorar la transparencia en plataformas como Facebook, Instagram y Threads al informar a los usuarios cuando el contenido que ven es un medio sintetizado digitalmente en lugar de una foto o un video aut\u00e9ntico.<\/p>\n
La decisi\u00f3n de Meta, que se produce durante un a\u00f1o electoral en EE. UU. que se espera sea pol\u00e9mico, es parte de un esfuerzo mayor dentro de la industria tecnol\u00f3gica para establecer est\u00e1ndares para etiquetar contenido creado utilizando modelos generativos de IA, que son capaces de producir audio, im\u00e1genes e im\u00e1genes falsas pero realistas. v\u00eddeo a partir de indicaciones escritas. (Incluso el contenido falso no generado por IA puede potencialmente confundir a los usuarios de las redes sociales, como cubrimos ayer).<\/p>\n
El presidente de Asuntos Globales de Meta, Nick Clegg, hizo el anuncio en una publicaci\u00f3n de blog en el sitio web de Meta. \u00abVamos a adoptar este enfoque durante el pr\u00f3ximo a\u00f1o, durante el cual se llevar\u00e1n a cabo una serie de elecciones importantes en todo el mundo\u00bb, escribi\u00f3 Clegg. \u00abDurante este tiempo, esperamos aprender mucho m\u00e1s sobre c\u00f3mo las personas crean y comparten contenido de IA, qu\u00e9 tipo de transparencia consideran m\u00e1s valiosa y c\u00f3mo evolucionan estas tecnolog\u00edas\u00bb.<\/p>\n
Clegg dijo que la iniciativa de Meta de etiquetar contenido generado por IA ampliar\u00e1 la pr\u00e1ctica existente de la compa\u00f1\u00eda de etiquetar contenido generado por sus propias herramientas de IA para incluir im\u00e1genes creadas por servicios de otras empresas.<\/p>\n
\u00abEstamos creando herramientas l\u00edderes en la industria que pueden identificar marcadores invisibles a escala (espec\u00edficamente, la informaci\u00f3n ‘generada por IA’ en los est\u00e1ndares t\u00e9cnicos C2PA e IPTC) para que podamos etiquetar im\u00e1genes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock mientras implementan sus planes para agregar metadatos a las im\u00e1genes creadas por sus herramientas\u00bb.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nMeta dice que la tecnolog\u00eda para etiquetar etiquetas de contenido generadas por IA se basar\u00e1 en marcas de agua invisibles y metadatos incrustados en los archivos. Meta agrega una peque\u00f1a marca de agua \u00abImaginado con IA\u00bb a las im\u00e1genes creadas con su generador p\u00fablico de im\u00e1genes de IA.<\/p>\n
En la publicaci\u00f3n, Clegg expres\u00f3 confianza en la capacidad de las empresas para etiquetar de manera confiable im\u00e1genes generadas por IA, aunque se\u00f1al\u00f3 que las herramientas para marcar contenido de audio y video a\u00fan est\u00e1n en desarrollo. Mientras tanto, Meta exigir\u00e1 a los usuarios que etiqueten su contenido de audio y v\u00eddeo alterado, con sanciones no especificadas en caso de incumplimiento.<\/p>\n
\u00abExigiremos que las personas utilicen esta herramienta de divulgaci\u00f3n y etiquetado cuando publiquen contenido org\u00e1nico con un video fotorrealista o un audio con sonido realista que haya sido creado o alterado digitalmente, y podemos aplicar sanciones si no lo hacen\u00bb, escribi\u00f3.<\/p>\n
Sin embargo, Clegg mencion\u00f3 que actualmente no existe una forma efectiva de etiquetar el texto generado por IA, lo que sugiere que es demasiado tarde para implementar tales medidas en el contenido escrito. Esto concuerda con nuestro informe de que los detectores de IA para texto no funcionan.<\/p>\n
El anuncio se produce un d\u00eda despu\u00e9s de que la junta de supervisi\u00f3n independiente de Meta criticara la pol\u00edtica de la compa\u00f1\u00eda sobre videos alterados de manera enga\u00f1osa como demasiado estrecha, recomendando que dicho contenido sea etiquetado en lugar de eliminado. Clegg estuvo de acuerdo con la cr\u00edtica y reconoci\u00f3 que las pol\u00edticas existentes de Meta son inadecuadas para gestionar el creciente volumen de contenido sint\u00e9tico e h\u00edbrido en l\u00ednea. Considera que la nueva iniciativa de etiquetado es un paso hacia el cumplimiento de las recomendaciones de la junta de supervisi\u00f3n y el fomento de un impulso en toda la industria para medidas similares.<\/p>\n
Meta admite que no podr\u00e1 detectar contenido generado por IA que se haya creado sin marcas de agua ni metadatos, como im\u00e1genes creadas con algunas herramientas de s\u00edntesis de im\u00e1genes de IA de c\u00f3digo abierto. Meta est\u00e1 investigando una tecnolog\u00eda de marca de agua de im\u00e1genes llamada Stable Signature que espera pueda integrarse en generadores de im\u00e1genes de c\u00f3digo abierto. Pero mientras los p\u00edxeles sean p\u00edxeles, se pueden crear utilizando m\u00e9todos fuera del control de la industria tecnol\u00f3gica, y eso sigue siendo un desaf\u00edo para la detecci\u00f3n de contenido de IA a medida que las herramientas de IA de c\u00f3digo abierto se vuelven cada vez m\u00e1s sofisticadas y realistas.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Im\u00e1genes Meta\/Getty El martes, Meta anunci\u00f3 su plan para comenzar a etiquetar im\u00e1genes generadas por IA de otras compa\u00f1\u00edas como OpenAI y Google, seg\u00fan inform\u00f3 Reuters. La medida tiene como…<\/p>\n","protected":false},"author":1,"featured_media":998616,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[2695,39620,1967,19299,3672,5147,9842,49133,110],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/998615"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=998615"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/998615\/revisions"}],"predecessor-version":[{"id":998617,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/998615\/revisions\/998617"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/998616"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=998615"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=998615"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=998615"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}