{"id":596028,"date":"2023-04-27T11:50:30","date_gmt":"2023-04-27T11:50:30","guid":{"rendered":"https:\/\/magazineoffice.com\/preparese-para-las-elecciones-deepfake-de-2024\/"},"modified":"2023-04-27T11:50:33","modified_gmt":"2023-04-27T11:50:33","slug":"preparese-para-las-elecciones-deepfake-de-2024","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/preparese-para-las-elecciones-deepfake-de-2024\/","title":{"rendered":"Prep\u00e1rese para las elecciones Deepfake de 2024"},"content":{"rendered":"


\n<\/p>\n

\n

\u201cSiempre me sorprende que en el mundo f\u00edsico, cuando lanzamos productos, existen pautas realmente estrictas\u201d, dice Farid. \u201cNo puedes lanzar un producto y esperar que no mate a tu cliente. Pero con el software, decimos: ‘Esto realmente no funciona, pero veamos qu\u00e9 sucede cuando lo lanzamos a miles de millones de personas'\u00bb.<\/p>\n

Si comenzamos a ver una cantidad significativa de deepfakes difundidos durante las elecciones, es f\u00e1cil imaginar a alguien como Donald Trump compartiendo este tipo de contenido en las redes sociales y afirmando que es real. Un deepfake del presidente Biden diciendo algo descalificador podr\u00eda salir a la luz poco antes de las elecciones, y es posible que muchas personas nunca descubran que fue generado por IA. La investigaci\u00f3n ha demostrado consistentemente, despu\u00e9s de todo, que las noticias falsas se propagan m\u00e1s que las noticias reales. <\/p>\n

Incluso si los deepfakes no se vuelven omnipresentes antes de las elecciones de 2024, para las que a\u00fan faltan 18 meses, el mero hecho de que se pueda crear este tipo de contenido podr\u00eda afectar las elecciones. Saber que las im\u00e1genes, el audio y el video fraudulentos se pueden crear con relativa facilidad podr\u00eda hacer que las personas desconf\u00eden del material leg\u00edtimo que encuentran.<\/p>\n

\u201cEn algunos aspectos, los deepfakes y la IA generativa ni siquiera necesitan estar involucrados en las elecciones para que sigan provocando interrupciones, porque ahora el pozo ha sido envenenado con esta idea de que cualquier cosa podr\u00eda ser falsa\u201d, dice Ajder. \u201cEso proporciona una excusa realmente \u00fatil si surge algo inconveniente contigo. Puedes descartarlo como falso\u201d.<\/p>\n

Entonces, \u00bfqu\u00e9 se puede hacer con este problema? Una soluci\u00f3n es algo llamado C2PA. Esta tecnolog\u00eda firma criptogr\u00e1ficamente cualquier contenido creado por un dispositivo, como un tel\u00e9fono o una c\u00e1mara de video, y documenta qui\u00e9n captur\u00f3 la imagen, d\u00f3nde y cu\u00e1ndo. Luego, la firma criptogr\u00e1fica se mantiene en un registro inmutable centralizado. Esto permitir\u00eda que las personas que producen videos leg\u00edtimos demuestren que, de hecho, son leg\u00edtimos.<\/p>\n

Algunas otras opciones involucran lo que se llama im\u00e1genes y videos de huellas dactilares y marcas de agua. La toma de huellas dactilares implica tomar lo que se llama \u00abhashes\u00bb del contenido, que son esencialmente solo cadenas de sus datos, para que pueda verificarse como leg\u00edtimo m\u00e1s adelante. La marca de agua, como es de esperar, consiste en insertar una marca de agua digital en im\u00e1genes y videos.<\/p>\n

A menudo se ha propuesto que se pueden desarrollar herramientas de inteligencia artificial para detectar falsificaciones profundas, pero Ajder no est\u00e1 convencido de esa soluci\u00f3n. \u00c9l dice que la tecnolog\u00eda no es lo suficientemente confiable y que no podr\u00e1 mantenerse al d\u00eda con las herramientas de IA generativa en constante cambio que se est\u00e1n desarrollando.<\/p>\n

Una \u00faltima posibilidad para resolver este problema ser\u00eda desarrollar una especie de verificador de datos instant\u00e1neo para los usuarios de las redes sociales. Aviv Ovadya, investigador del Centro Berkman Klein para Internet y Sociedad de Harvard, dice que podr\u00edas resaltar una parte del contenido de una aplicaci\u00f3n y enviarla a un motor de contextualizaci\u00f3n que te informar\u00eda sobre su veracidad.<\/p>\n

\u201cLa alfabetizaci\u00f3n medi\u00e1tica que evoluciona al ritmo de los avances de esta tecnolog\u00eda no es f\u00e1cil. Necesita que sea casi instant\u00e1neo, donde mira algo que ve en l\u00ednea y puede obtener contexto sobre eso\u201d, dice Ovadya. \u00bfQu\u00e9 es lo que est\u00e1s mirando? Podr\u00edas tener referencias cruzadas con fuentes en las que puedas confiar\u201d.<\/p>\n

Si ve algo que podr\u00eda ser una noticia falsa, la herramienta podr\u00eda informarle r\u00e1pidamente sobre su veracidad. Si ve una imagen o un video que parece ser falso, podr\u00eda verificar las fuentes para ver si se ha verificado. Ovadya dice que podr\u00eda estar disponible en aplicaciones como WhatsApp y Twitter, o simplemente podr\u00eda ser su propia aplicaci\u00f3n. El problema, dice, es que muchos fundadores con los que ha hablado simplemente no ven mucho dinero en el desarrollo de una herramienta de este tipo. <\/p>\n

Queda por ver si alguna de estas posibles soluciones se adoptar\u00e1 antes de las elecciones de 2024, pero la amenaza est\u00e1 creciendo y se est\u00e1 invirtiendo mucho dinero en desarrollar IA generativa y poco en encontrar formas de prevenir la propagaci\u00f3n de este tipo de desinformaci\u00f3n. .<\/p>\n

\u201cCreo que vamos a ver una avalancha de herramientas, como ya estamos viendo, pero creo [AI-generated political content] continuar\u00e1\u201d, dice Ajder. \u201cB\u00e1sicamente, no estamos en una buena posici\u00f3n para lidiar con estas tecnolog\u00edas poderosas y de r\u00e1pido movimiento\u201d.<\/p>\n<\/div>\n


\n
Source link-46<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

\u201cSiempre me sorprende que en el mundo f\u00edsico, cuando lanzamos productos, existen pautas realmente estrictas\u201d, dice Farid. \u201cNo puedes lanzar un producto y esperar que no mate a tu cliente.…<\/p>\n","protected":false},"author":1,"featured_media":596029,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[19844,1515,246,107,18676],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/596028"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=596028"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/596028\/revisions"}],"predecessor-version":[{"id":596030,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/596028\/revisions\/596030"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/596029"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=596028"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=596028"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=596028"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}