no est\u00e1n contentos con eso<\/a>, y la sociedad en general a\u00fan parece desconocer en gran medida la revoluci\u00f3n tecnol\u00f3gica en r\u00e1pida evoluci\u00f3n que se est\u00e1 produciendo a trav\u00e9s de las comunidades en Twitter, Discord y Github. Podr\u00eda decirse que la s\u00edntesis de im\u00e1genes trae implicaciones tan grandes como la invenci\u00f3n de la c\u00e1mara, o tal vez la creaci\u00f3n del arte visual en s\u00ed. Incluso nuestro sentido de la historia podr\u00eda estar en juego, dependiendo de c\u00f3mo se desarrollen las cosas. De cualquier manera, Stable Diffusion est\u00e1 liderando una nueva ola de herramientas creativas de aprendizaje profundo que est\u00e1n preparadas para revolucionar la creaci\u00f3n de medios visuales.<\/p>\nEl auge de la s\u00edntesis de im\u00e1genes de aprendizaje profundo<\/h2>\n Stable Diffusion es una creaci\u00f3n de Emad Mostaque, un ex administrador de fondos de cobertura con sede en Londres cuyo objetivo es llevar aplicaciones novedosas de aprendizaje profundo a las masas a trav\u00e9s de su empresa, Stability AI. Pero las ra\u00edces de la s\u00edntesis de im\u00e1genes moderna se remontan a 2014, y Stable Diffusion no fue el primer modelo de s\u00edntesis de im\u00e1genes (ISM) en hacer olas este a\u00f1o.<\/p>\n
En abril de 2022, OpenAI anunci\u00f3 DALL-E 2, que conmocion\u00f3 a las redes sociales con su capacidad para transformar una escena escrita con palabras (llamada \u00abindicaci\u00f3n\u00bb) en una mir\u00edada de estilos visuales que pueden ser fant\u00e1sticos, fotorrealistas o incluso mundanos. Las personas con acceso privilegiado a la herramienta cerrada generaron astronautas a caballo, osos de peluche comprando pan en el antiguo Egipto, esculturas novedosas al estilo de artistas famosos y mucho m\u00e1s.<\/p>\n\n Anuncio publicitario <\/span> <\/p>\n<\/aside>\n\nAgrandar
\/<\/span> Una captura de pantalla del sitio web de OpenAI DALL-E 2.<\/div>\nIA abierta<\/p>\n<\/figcaption><\/figure>\n
No mucho despu\u00e9s de DALL-E 2, Google y Meta anunciaron sus propios modelos de IA de texto a imagen. MidJourney, disponible como servidor de Discord desde marzo de 2022 y abierto al p\u00fablico unos meses despu\u00e9s, cobra por el acceso y logra efectos similares pero con una calidad m\u00e1s pict\u00f3rica e ilustrativa que la predeterminada.<\/p>\n
Luego est\u00e1 la difusi\u00f3n estable. El 22 de agosto, Stability AI lanz\u00f3 su modelo de generaci\u00f3n de im\u00e1genes de c\u00f3digo abierto que posiblemente coincida con DALL-E 2 en calidad. Tambi\u00e9n lanz\u00f3 su propio sitio web comercial, llamado DreamStudio, que vende acceso a tiempo de c\u00f3mputo para generar im\u00e1genes con Stable Diffusion. A diferencia de DALL-E 2, cualquiera puede usarlo y, dado que el c\u00f3digo Stable Diffusion es de c\u00f3digo abierto, los proyectos pueden desarrollarse con pocas restricciones.<\/p>\n
Solo en la \u00faltima semana, surgieron docenas de proyectos que llevan a Stable Diffusion en direcciones radicalmente nuevas. Y la gente ha logrado resultados inesperados utilizando una t\u00e9cnica llamada \u00abimg2img\u00bb que ha \u00abactualizado\u00bb el arte del juego de MS-DOS, gr\u00e1ficos convertidos de Minecraft<\/a> en realistas, transform\u00f3 una escena de Aladdin en 3D, tradujo garabatos infantiles en ricas ilustraciones y mucho m\u00e1s. La s\u00edntesis de im\u00e1genes puede brindar la capacidad de visualizar ideas ricamente a una audiencia masiva, reduciendo las barreras de entrada y acelerando las capacidades de los artistas que adoptan la tecnolog\u00eda, como lo hizo Adobe Photoshop en la d\u00e9cada de 1990.<\/p>\n Duke Nukem<\/em>, The Secret of Monkey Island<\/em>, King’s Quest VI<\/em> y Star Control II<\/em> recibieron difusi\u00f3n estable -Actualizaciones de ventilador alimentado.\u00bb src=\u00bbhttps:\/\/cdn.arstechnica.net\/wp-content\/uploads\/2022\/09\/ms_dos_game_upgrade_set-640×320.jpg\u00bb width=\u00bb640″ height=\u00bb320″ srcset=\u00bbhttps:\/\/cdn.arstechnica.net\/wp-content\/uploads\/2022\/09\/ms_dos_game_upgrade_set.jpg 2x\u00bb\/>\nAgrandar
\/<\/span> Retratos de Duke Nukem<\/em>, El secreto de la isla de los monos<\/em>, King’s Quest VI<\/em>y Control estelar II<\/em> recibi\u00f3 actualizaciones de ventilador impulsadas por Stable Diffusion.<\/div>\n<\/figcaption><\/figure>\nPuede ejecutar Stable Diffusion localmente usted mismo si sigue una serie de pasos algo arcanos. Durante las \u00faltimas dos semanas, lo hemos estado ejecutando en una PC con Windows con una GPU Nvidia RTX 3060 de 12 GB. Puede generar im\u00e1genes de 512\u00d7512 en unos 10 segundos. En una 3090 Ti, ese tiempo se reduce a cuatro segundos por imagen. Las interfaces tambi\u00e9n siguen evolucionando r\u00e1pidamente, pasando de interfaces de l\u00ednea de comandos toscas y port\u00e1tiles de Google Colab a interfaces gr\u00e1ficas de usuario frontales m\u00e1s pulidas (pero a\u00fan complejas), con interfaces mucho m\u00e1s pulidas pr\u00f3ximamente. Entonces, si no tiene una inclinaci\u00f3n t\u00e9cnica, ag\u00e1rrese fuerte: soluciones m\u00e1s f\u00e1ciles est\u00e1n en camino. Y si todo lo dem\u00e1s falla, puede probar una demostraci\u00f3n en l\u00ednea.<\/p>\n<\/p><\/div>\n