{"id":914996,"date":"2023-12-06T02:06:06","date_gmt":"2023-12-06T02:06:06","guid":{"rendered":"https:\/\/magazineoffice.com\/animate-everyone-presagia-el-acercamiento-de-los-deepfakes-en-movimiento-completo\/"},"modified":"2023-12-06T02:06:10","modified_gmt":"2023-12-06T02:06:10","slug":"animate-everyone-presagia-el-acercamiento-de-los-deepfakes-en-movimiento-completo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/animate-everyone-presagia-el-acercamiento-de-los-deepfakes-en-movimiento-completo\/","title":{"rendered":"‘Animate Everyone’ presagia el acercamiento de los deepfakes en movimiento completo"},"content":{"rendered":"


\n<\/p>\n

\n

Como si los deepfakes de im\u00e1genes fijas no fueran lo suficientemente malos, es posible que pronto tengamos que lidiar con videos generados de cualquiera que se atreva a poner una foto de s\u00ed mismo en l\u00ednea: con Animate Everyone, los malos actores pueden manipular a las personas mejor que nunca.<\/p>\n

La nueva t\u00e9cnica de v\u00eddeo generativo fue desarrollada por investigadores del Instituto de Computaci\u00f3n Inteligente del Grupo Alibaba. Es un gran paso adelante con respecto a los sistemas anteriores de imagen a video como DisCo y DreamPose, que fueron impresionantes en el verano pero que ahora son historia antigua.<\/p>\n

Lo que Animate Everyone puede hacer no tiene precedentes en modo alguno, pero ha superado ese dif\u00edcil espacio entre un \u201cexperimento acad\u00e9mico de mala calidad\u201d y \u201csuficientemente bueno si no se mira de cerca\u201d. Como todos sabemos, la siguiente etapa es simplemente \u00absuficientemente buena\u00bb, donde la gente ni siquiera se molestar\u00e1 en mirar de cerca porque asumen que es real. Ah\u00ed es donde se encuentran actualmente las im\u00e1genes fijas y las conversaciones de texto, causando estragos en nuestro sentido de la realidad.<\/p>\n

Los modelos de imagen a video como este comienzan extrayendo detalles, como rasgos faciales, patrones y pose, de una imagen de referencia, como una fotograf\u00eda de moda de una modelo con un vestido en venta. Luego se crea una serie de im\u00e1genes donde esos detalles se asignan a poses ligeramente diferentes, que pueden capturarse en movimiento o extraerse de otro video.<\/p>\n

Los modelos anteriores demostraron que esto era posible, pero hubo muchos problemas. Las alucinaciones eran un gran problema, ya que el modelo ten\u00eda que inventar detalles plausibles, como c\u00f3mo se mover\u00eda una manga o un cabello cuando una persona se gira. Esto genera muchas im\u00e1genes realmente extra\u00f1as, lo que hace que el v\u00eddeo resultante est\u00e9 lejos de ser convincente. Pero la posibilidad persist\u00eda y Animate Everyone ha mejorado mucho, aunque todav\u00eda est\u00e1 lejos de ser perfecto.<\/p>\n

Los detalles t\u00e9cnicos del nuevo modelo est\u00e1n m\u00e1s all\u00e1 de la mayor\u00eda, pero el documento enfatiza un nuevo paso intermedio que \u201cpermite al modelo aprender de manera integral la relaci\u00f3n con la imagen de referencia en un espacio de caracter\u00edsticas consistente, lo que contribuye significativamente a mejorar la preservaci\u00f3n de los detalles de la apariencia. \u00bb Al mejorar la retenci\u00f3n de detalles b\u00e1sicos y finos, las im\u00e1genes generadas en el futuro tienen una verdad m\u00e1s s\u00f3lida con la que trabajar y resultan mucho mejores.<\/p>\n

\n

Cr\u00e9ditos de imagen:<\/strong> Grupo Alibaba<\/p>\n<\/div>\n

Muestran sus resultados en algunos contextos. Los modelos adoptan poses arbitrarias sin deformarse ni perder la ropa su patr\u00f3n. Una figura de anime 2D cobra vida y baila de forma convincente. Lionel Messi hace algunos movimientos gen\u00e9ricos.<\/p>\n

Est\u00e1n lejos de ser perfectos, especialmente en lo que respecta a los ojos y las manos, que plantean problemas particulares para los modelos generativos. Y las poses que mejor se representan son las m\u00e1s cercanas a la original; si la persona se da vuelta, por ejemplo, el modelo lucha por seguir el ritmo. Pero es un gran salto con respecto al estado de la t\u00e9cnica anterior, que produc\u00eda muchos m\u00e1s artefactos o perd\u00eda por completo detalles importantes como el color del cabello o la ropa de una persona.<\/p>\n

Es desconcertante pensar que, dada una sola imagen tuya de buena calidad, un actor (o productor) malicioso podr\u00eda obligarte a hacer casi cualquier cosa y, combinado con animaci\u00f3n facial y tecnolog\u00eda de captura de voz, tambi\u00e9n podr\u00eda hacerte expresar cualquier cosa al mismo tiempo. . Por ahora, la tecnolog\u00eda es demasiado compleja y con errores para un uso general, pero las cosas no tienden a permanecer as\u00ed por mucho tiempo en el mundo de la IA.<\/p>\n

Al menos el equipo a\u00fan no est\u00e1 liberando el c\u00f3digo al mundo. Aunque tienen una p\u00e1gina de GitHub, los desarrolladores escriben: \u201cestamos trabajando activamente en la preparaci\u00f3n de la demostraci\u00f3n y el c\u00f3digo para su lanzamiento p\u00fablico. Aunque no podemos comprometernos con una fecha de lanzamiento espec\u00edfica en este momento, aseg\u00farese de que la intenci\u00f3n de brindar acceso tanto a la demostraci\u00f3n como a nuestro c\u00f3digo fuente sea firme\u201d.<\/p>\n

\u00bfSe desatar\u00e1 el infierno cuando Internet se inunde de repente con dancefakes? Lo sabremos, y probablemente antes de lo que nos gustar\u00eda.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Como si los deepfakes de im\u00e1genes fijas no fueran lo suficientemente malos, es posible que pronto tengamos que lidiar con videos generados de cualquiera que se atreva a poner una…<\/p>\n","protected":false},"author":1,"featured_media":914997,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[12449,39275,5981,38525,8,2363,40018],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/914996"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=914996"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/914996\/revisions"}],"predecessor-version":[{"id":914998,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/914996\/revisions\/914998"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/914997"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=914996"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=914996"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=914996"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}