{"id":573883,"date":"2023-04-14T19:26:29","date_gmt":"2023-04-14T19:26:29","guid":{"rendered":"https:\/\/magazineoffice.com\/openai-mira-mas-alla-de-la-difusion-con-un-generador-de-imagenes-basado-en-la-consistencia\/"},"modified":"2023-04-14T19:26:32","modified_gmt":"2023-04-14T19:26:32","slug":"openai-mira-mas-alla-de-la-difusion-con-un-generador-de-imagenes-basado-en-la-consistencia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/openai-mira-mas-alla-de-la-difusion-con-un-generador-de-imagenes-basado-en-la-consistencia\/","title":{"rendered":"OpenAI mira m\u00e1s all\u00e1 de la difusi\u00f3n con un generador de im\u00e1genes basado en la \u00abconsistencia\u00bb"},"content":{"rendered":"
\n<\/p>\n
El campo de la generaci\u00f3n de im\u00e1genes se mueve r\u00e1pidamente. Aunque los modelos de difusi\u00f3n utilizados por herramientas populares como Midjourney y Stable Diffusion pueden parecer los mejores que tenemos, lo siguiente siempre est\u00e1 llegando, y OpenAI podr\u00eda haberlo encontrado con \u00abmodelos de consistencia\u00bb, que ya pueden realizar tareas simples y orden de magnitud m\u00e1s r\u00e1pido que los gustos de DALL-E.<\/p>\n
El documento se puso en l\u00ednea como preimpresi\u00f3n el mes pasado y no estuvo acompa\u00f1ado por la fanfarria discreta que OpenAI reserva para sus principales lanzamientos. Eso no es una sorpresa: este es definitivamente solo un trabajo de investigaci\u00f3n, y es muy t\u00e9cnico. Pero los resultados de esta t\u00e9cnica temprana y experimental son lo suficientemente interesantes como para notarlos.<\/p>\n
Los modelos de consistencia no son particularmente f\u00e1ciles de explicar, pero tienen m\u00e1s sentido en contraste con los modelos de difusi\u00f3n.<\/p>\n
En difusi\u00f3n, un modelo aprende a restar gradualmente el ruido de una imagen inicial hecha completamente de ruido, acerc\u00e1ndola paso a paso al indicador de destino. Este enfoque ha permitido las im\u00e1genes de IA m\u00e1s impresionantes de la actualidad, pero fundamentalmente se basa en realizar entre 10 y miles de pasos para obtener buenos resultados. Eso significa que es costoso de operar y tambi\u00e9n lo suficientemente lento como para que las aplicaciones en tiempo real no sean pr\u00e1cticas.<\/p>\n
El objetivo de los modelos de consistencia era crear algo que obtuviera resultados decentes en un solo paso de c\u00e1lculo, o como m\u00e1ximo en dos. Para hacer esto, el modelo se entrena, como un modelo de difusi\u00f3n, para observar el proceso de destrucci\u00f3n de la imagen, pero aprende a tomar una imagen en cualquier nivel de oscurecimiento (es decir, con poca informaci\u00f3n faltante o mucha) y genera una imagen de origen completa en solo un paso<\/p>\n
Pero me apresuro a agregar que esta es solo la descripci\u00f3n m\u00e1s complicada de lo que est\u00e1 sucediendo. Es este tipo de papel:<\/p>\n