{"id":914996,"date":"2023-12-06T02:06:06","date_gmt":"2023-12-06T02:06:06","guid":{"rendered":"https:\/\/magazineoffice.com\/animate-everyone-presagia-el-acercamiento-de-los-deepfakes-en-movimiento-completo\/"},"modified":"2023-12-06T02:06:10","modified_gmt":"2023-12-06T02:06:10","slug":"animate-everyone-presagia-el-acercamiento-de-los-deepfakes-en-movimiento-completo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/animate-everyone-presagia-el-acercamiento-de-los-deepfakes-en-movimiento-completo\/","title":{"rendered":"‘Animate Everyone’ presagia el acercamiento de los deepfakes en movimiento completo"},"content":{"rendered":"
\n<\/p>\n
Como si los deepfakes de im\u00e1genes fijas no fueran lo suficientemente malos, es posible que pronto tengamos que lidiar con videos generados de cualquiera que se atreva a poner una foto de s\u00ed mismo en l\u00ednea: con Animate Everyone, los malos actores pueden manipular a las personas mejor que nunca.<\/p>\n
La nueva t\u00e9cnica de v\u00eddeo generativo fue desarrollada por investigadores del Instituto de Computaci\u00f3n Inteligente del Grupo Alibaba. Es un gran paso adelante con respecto a los sistemas anteriores de imagen a video como DisCo y DreamPose, que fueron impresionantes en el verano pero que ahora son historia antigua.<\/p>\n
Lo que Animate Everyone puede hacer no tiene precedentes en modo alguno, pero ha superado ese dif\u00edcil espacio entre un \u201cexperimento acad\u00e9mico de mala calidad\u201d y \u201csuficientemente bueno si no se mira de cerca\u201d. Como todos sabemos, la siguiente etapa es simplemente \u00absuficientemente buena\u00bb, donde la gente ni siquiera se molestar\u00e1 en mirar de cerca porque asumen que es real. Ah\u00ed es donde se encuentran actualmente las im\u00e1genes fijas y las conversaciones de texto, causando estragos en nuestro sentido de la realidad.<\/p>\n
Los modelos de imagen a video como este comienzan extrayendo detalles, como rasgos faciales, patrones y pose, de una imagen de referencia, como una fotograf\u00eda de moda de una modelo con un vestido en venta. Luego se crea una serie de im\u00e1genes donde esos detalles se asignan a poses ligeramente diferentes, que pueden capturarse en movimiento o extraerse de otro video.<\/p>\n
Los modelos anteriores demostraron que esto era posible, pero hubo muchos problemas. Las alucinaciones eran un gran problema, ya que el modelo ten\u00eda que inventar detalles plausibles, como c\u00f3mo se mover\u00eda una manga o un cabello cuando una persona se gira. Esto genera muchas im\u00e1genes realmente extra\u00f1as, lo que hace que el v\u00eddeo resultante est\u00e9 lejos de ser convincente. Pero la posibilidad persist\u00eda y Animate Everyone ha mejorado mucho, aunque todav\u00eda est\u00e1 lejos de ser perfecto.<\/p>\n
Los detalles t\u00e9cnicos del nuevo modelo est\u00e1n m\u00e1s all\u00e1 de la mayor\u00eda, pero el documento enfatiza un nuevo paso intermedio que \u201cpermite al modelo aprender de manera integral la relaci\u00f3n con la imagen de referencia en un espacio de caracter\u00edsticas consistente, lo que contribuye significativamente a mejorar la preservaci\u00f3n de los detalles de la apariencia. \u00bb Al mejorar la retenci\u00f3n de detalles b\u00e1sicos y finos, las im\u00e1genes generadas en el futuro tienen una verdad m\u00e1s s\u00f3lida con la que trabajar y resultan mucho mejores.<\/p>\n