\n<\/aside>\n<\/p>\n
Siete empresas, incluidas OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e Inflection, se han comprometido a desarrollar tecnolog\u00eda para marcar claramente el contenido generado por IA. Eso ayudar\u00e1 a que sea m\u00e1s seguro compartir texto, video, audio e im\u00e1genes generados por IA sin enga\u00f1ar a otros sobre la autenticidad de ese contenido, espera la administraci\u00f3n de Biden.<\/p>\n
Actualmente no est\u00e1 claro c\u00f3mo funcionar\u00e1 la marca de agua, pero es probable que se incruste en el contenido para que los usuarios puedan rastrear sus or\u00edgenes hasta las herramientas de inteligencia artificial utilizadas para generarla.<\/p>\n
Deepfakes se ha convertido en una preocupaci\u00f3n emergente tanto para los usuarios de Internet como para los legisladores, ya que las empresas tecnol\u00f3gicas lidian con c\u00f3mo lidiar con los usos controvertidos de las herramientas de IA.<\/p>\n
A principios de este a\u00f1o, se utiliz\u00f3 el generador de im\u00e1genes Midjourney para crear im\u00e1genes falsas del arresto de Donald Trump, que posteriormente se volvieron virales. Si bien para muchos era obvio que las im\u00e1genes eran falsas, Midjourney decidi\u00f3 tomar medidas para prohibir al usuario que las hizo. Quiz\u00e1s si una marca de agua hubiera estado disponible en ese momento, ese usuario, el fundador de Bellingcat, Eliot Higgins, nunca se habr\u00eda enfrentado a consecuencias tan graves por lo que dijo que no era un intento de ser inteligente o enga\u00f1ar a otros, sino simplemente divertirse con Midjourney.<\/p>\n
Sin embargo, hay otros usos indebidos m\u00e1s graves de las herramientas de IA, en los que una marca de agua podr\u00eda ayudar a salvar a algunos usuarios de Internet del dolor y la lucha. A principios de este a\u00f1o, se inform\u00f3 que el software de generaci\u00f3n de voz de IA se us\u00f3 para estafar a las personas por miles de d\u00f3lares, y el mes pasado, el FBI advirti\u00f3 sobre el uso creciente de falsificaciones profundas generadas por IA en esquemas de sextorsi\u00f3n.<\/p>\n
La Casa Blanca dijo que la marca de agua permitir\u00e1 que \u00abflorezca la creatividad con la IA, pero reducir\u00e1 los peligros de fraude y enga\u00f1o\u00bb.<\/p>\n
OpenAI dijo en un blog que acord\u00f3 \u00abdesarrollar mecanismos robustos, incluidos sistemas de procedencia y\/o marcas de agua para contenido de audio o visual\u00bb, as\u00ed como \u00abherramientas o API para determinar si un contenido en particular se cre\u00f3 con su sistema\u00bb. Esto se aplicar\u00e1 a la mayor\u00eda del contenido generado por IA, con raras excepciones, como no marcar con marca de agua las voces predeterminadas de los asistentes de IA.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\n\u00abEl contenido audiovisual que se distingue f\u00e1cilmente de la realidad o que est\u00e1 dise\u00f1ado para ser f\u00e1cilmente reconocible como generado por el sistema de inteligencia artificial de una empresa, como las voces predeterminadas de los asistentes de inteligencia artificial, est\u00e1 fuera del alcance de este compromiso\u00bb, dijo OpenAI.<\/p>\n
Google dijo que adem\u00e1s de la marca de agua, tambi\u00e9n \u00abintegrar\u00e1 metadatos\u00bb y \u00abotras t\u00e9cnicas innovadoras\u00bb para \u00abpromover informaci\u00f3n confiable\u00bb.<\/p>\n
A medida que aumenta la preocupaci\u00f3n por el uso indebido de la IA, el presidente Joe Biden se reunir\u00e1 hoy con empresas tecnol\u00f3gicas. Eso deber\u00eda ayudar a Biden y al Congreso a obtener informaci\u00f3n clave antes de desarrollar una orden ejecutiva y una legislaci\u00f3n bipartidista en un esfuerzo por recuperar el control sobre las tecnolog\u00edas de IA que avanzan r\u00e1pidamente.<\/p>\n
En un blog, Microsoft elogi\u00f3 a la administraci\u00f3n de Biden por crear \u00abuna base para ayudar a garantizar que la promesa de la IA se mantenga por delante de sus riesgos\u00bb y \u00abreunir a la industria tecnol\u00f3gica para elaborar pasos concretos que ayudar\u00e1n a que la IA sea m\u00e1s segura y beneficiosa para el p\u00fablico\u00bb.<\/p>\n
\u201cNinguno de nosotros puede lograr la inteligencia artificial por s\u00ed solo\u201d, dijo el blog de Google.<\/p>\n
M\u00e1s garant\u00edas de IA prometidas<\/h2>\n Adem\u00e1s de desarrollar marcas de agua para contenido generado por IA, las empresas de tecnolog\u00eda hicieron una serie de otros compromisos voluntarios anunciados por la Casa Blanca el viernes.<\/p>\n
Entre ellos, las empresas de tecnolog\u00eda acordaron realizar pruebas internas y externas en los sistemas de IA antes de su lanzamiento. Tambi\u00e9n dijeron que invertir\u00edan m\u00e1s en ciberseguridad y compartir\u00edan informaci\u00f3n en toda la industria para ayudar a reducir los riesgos de la IA. Esos riesgos incluyen todo, desde la IA que permite el sesgo o la discriminaci\u00f3n hasta la reducci\u00f3n de las barreras para el desarrollo de armamento avanzado, dijo el blog de OpenAI. El blog de Microsoft destac\u00f3 los compromisos adicionales que ha hecho con la Casa Blanca, incluido el apoyo al desarrollo de un registro nacional que documente los sistemas de IA de alto riesgo.<\/p>\n
OpenAI dijo que las empresas de tecnolog\u00eda que hacen estos compromisos \u00abes un paso importante para promover una gobernanza de IA significativa y efectiva, tanto en los EE. UU. como en todo el mundo\u00bb. El fabricante de ChatGPT, GPT-4 y DALL-E 2 tambi\u00e9n prometi\u00f3 \u00abinvertir en investigaci\u00f3n en \u00e1reas que puedan ayudar a informar la regulaci\u00f3n, como t\u00e9cnicas para evaluar capacidades potencialmente peligrosas en modelos de IA\u00bb.<\/p>\n
El presidente de asuntos globales de Meta, Nick Clegg, se hizo eco de OpenAI y calific\u00f3 los compromisos de las empresas de tecnolog\u00eda como un \u00abprimer paso importante para garantizar que se establezcan medidas de protecci\u00f3n responsables para la IA\u00bb.<\/p>\n
Google describi\u00f3 los compromisos como \u00abun hito en la uni\u00f3n de la industria para garantizar que la IA ayude a todos\u00bb.<\/p>\n
La Casa Blanca espera que elevar los est\u00e1ndares de la IA mejore la seguridad y la confianza en la IA, seg\u00fan un funcionario citado por el Financial Times. \u201cEsta es una alta prioridad para el presidente y el equipo aqu\u00ed\u201d, dijo el funcionario.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Siete empresas, incluidas OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e Inflection, se han comprometido a desarrollar tecnolog\u00eda para marcar claramente el contenido generado por IA. Eso ayudar\u00e1 a que sea…<\/p>\n","protected":false},"author":1,"featured_media":741313,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[650,2695,15945,32541,19299,3672,4561,246,3751,4566,49133,107,29022,110,3039,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/741312"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=741312"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/741312\/revisions"}],"predecessor-version":[{"id":741314,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/741312\/revisions\/741314"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/741313"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=741312"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=741312"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=741312"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}