difusión – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Fri, 10 May 2024 04:02:00 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 DeepMind agrega un motor de difusión al último software de plegamiento de proteínas https://magazineoffice.com/deepmind-agrega-un-motor-de-difusion-al-ultimo-software-de-plegamiento-de-proteinas/ https://magazineoffice.com/deepmind-agrega-un-motor-de-difusion-al-ultimo-software-de-plegamiento-de-proteinas/#respond Fri, 10 May 2024 04:01:57 +0000 https://magazineoffice.com/deepmind-agrega-un-motor-de-difusion-al-ultimo-software-de-plegamiento-de-proteinas/

Agrandar / Predicción de la estructura de un coronavirus. Proteína Spike de un virus que causa el resfriado común.

Google DeepMind

La mayoría de las actividades que tienen lugar dentro de las células (las actividades que nos mantienen vivos, respirando y pensando como animales) están a cargo de las proteínas. Permiten que las células se comuniquen entre sí, ejecuten el metabolismo básico de una célula y ayuden a convertir la información almacenada en el ADN en aún más proteínas. Y todo eso depende de la capacidad de la cadena de aminoácidos de la proteína para plegarse en una forma tridimensional complicada pero específica que le permita funcionar.

Hasta esta década, comprender esa forma 3D significaba purificar la proteína y someterla a un proceso que requería mucho tiempo y trabajo para determinar su estructura. Pero eso cambió con el trabajo de DeepMind, una de las divisiones de inteligencia artificial de Google, que lanzó Alpha Fold en 2021, y un esfuerzo académico similar poco después. El software no era perfecto; tuvo problemas con proteínas más grandes y no ofreció soluciones de alta confianza para cada proteína. Pero muchas de sus predicciones resultaron ser notablemente precisas.

Aun así, estas estructuras sólo cuentan la mitad de la historia. Para funcionar, casi todas las proteínas tienen que interactuar con algo más: otras proteínas, ADN, sustancias químicas, membranas y más. Y, si bien la versión inicial de AlphaFold podía manejar algunas interacciones proteína-proteína, el resto seguían siendo cajas negras. Hoy, DeepMind anuncia la disponibilidad de la versión 3 de AlphaFold, en la que partes de su motor subyacente se modificaron en gran medida o se reemplazaron por completo. Gracias a estos cambios, el software ahora maneja varias interacciones y modificaciones de proteínas adicionales.

Cambio de piezas

El AlphaFold original se basaba en dos funciones de software subyacentes. Uno de ellos tuvo en cuenta los límites evolutivos de una proteína. Al observar la misma proteína en múltiples especies, se puede tener una idea de qué partes son siempre iguales y, por lo tanto, es probable que sean fundamentales para su función. Esa centralidad implica que es probable que siempre estén en la misma ubicación y orientación en la estructura de la proteína. Para hacer esto, el AlphaFold original encontró tantas versiones de una proteína como pudo y alineó sus secuencias para buscar las porciones que mostraban poca variación.

Sin embargo, hacerlo es costoso desde el punto de vista computacional, ya que cuantas más proteínas alinees, más restricciones tendrás que resolver. En la nueva versión, el equipo de AlphaFold todavía identificó múltiples proteínas relacionadas, pero pasó a realizar alineaciones en gran medida utilizando pares de secuencias de proteínas dentro del conjunto de las relacionadas. Probablemente esto no sea tan rico en información como una alineación múltiple, pero es mucho más eficiente desde el punto de vista computacional y la información perdida no parece ser crítica para descubrir las estructuras de las proteínas.

Utilizando estas alineaciones, un módulo de software independiente descubrió las relaciones espaciales entre pares de aminoácidos dentro de la proteína objetivo. Luego, esas relaciones se tradujeron a coordenadas espaciales para cada átomo mediante un código que tenía en cuenta algunas de las propiedades físicas de los aminoácidos, como qué porciones de un aminoácido podían rotar en relación con otras, etc.

En AlphaFold 3, la predicción de las posiciones atómicas se maneja mediante un módulo de difusión, que se entrena dándole una estructura conocida y versiones de esa estructura donde se ha agregado ruido (en forma de cambio de posiciones de algunos átomos). Esto permite que el módulo de difusión tome las ubicaciones inexactas descritas por posiciones relativas y las convierta en predicciones exactas de la ubicación de cada átomo de la proteína. No necesita que le digan las propiedades físicas de los aminoácidos, porque puede descubrir lo que hacen normalmente observando suficientes estructuras.

(DeepMind tuvo que entrenar en dos niveles diferentes de ruido para que el módulo de difusión funcionara: uno en el que las ubicaciones de los átomos se cambiaban mientras la estructura general se dejaba intacta y un segundo en el que el ruido implicaba cambiar la estructura a gran escala del proteína, afectando así la ubicación de muchos átomos).

Durante el entrenamiento, el equipo descubrió que se necesitaban alrededor de 20.000 instancias de estructuras de proteínas para que AlphaFold 3 lograra que aproximadamente el 97 por ciento de un conjunto de estructuras de prueba fuera correcto. En 60.000 ocasiones, comenzó a corregir las interfaces proteína-proteína también a esa frecuencia. Y, lo que es más importante, también empezó a lograr que las proteínas formaran complejos con otras moléculas.



Source link-49

]]>
https://magazineoffice.com/deepmind-agrega-un-motor-de-difusion-al-ultimo-software-de-plegamiento-de-proteinas/feed/ 0
El acelerador Intel Gaudi 2 es hasta un 55 % más rápido que el NVIDIA H100 en difusión estable y 3 veces más rápido que el A100 en un enfrentamiento de referencia de IA https://magazineoffice.com/el-acelerador-intel-gaudi-2-es-hasta-un-55-mas-rapido-que-el-nvidia-h100-en-difusion-estable-y-3-veces-mas-rapido-que-el-a100-en-un-enfrentamiento-de-referencia-de-ia/ https://magazineoffice.com/el-acelerador-intel-gaudi-2-es-hasta-un-55-mas-rapido-que-el-nvidia-h100-en-difusion-estable-y-3-veces-mas-rapido-que-el-a100-en-un-enfrentamiento-de-referencia-de-ia/#respond Tue, 12 Mar 2024 14:59:25 +0000 https://magazineoffice.com/el-acelerador-intel-gaudi-2-es-hasta-un-55-mas-rapido-que-el-nvidia-h100-en-difusion-estable-y-3-veces-mas-rapido-que-el-a100-en-un-enfrentamiento-de-referencia-de-ia/

Stability AI ha publicado una nueva publicación de blog que ofrece un enfrentamiento comparativo de IA entre los aceleradores GPU Intel Gaudi 2 y NVIDIA H100 y A100. Los puntos de referencia muestran que las soluciones de Intel ofrecen un gran valor y pueden verse como una alternativa respetada para los clientes que buscan una solución rápida y fácilmente disponible en comparación con las ofertas de NVIDIA.

Enfrentamiento entre Intel y NVIDIA AI Accelerator: Gaudi 2 muestra un sólido rendimiento frente a H100 y A100 en Stable Diffusion y Llama 2 LLM, excelente rendimiento/$ destacado como una fuerte razón para optar por el equipo azul

La empresa de inteligencia artificial Stability AI ha estado creando modelos abiertos que pueden manejar una amplia gama de tareas de manera eficiente. Para probar esto, Stability AI utilizó dos de sus modelos que incluyen Stable Diffusion 3, e hizo una evaluación comparativa entre los aceleradores de IA más populares de NVIDIA e Intel para ver cómo se desempeñan entre sí.

En Stability Diffusion 3, el siguiente capítulo del muy popular modelo de texto a imagen, el acelerador de IA Gaudi 2 de Intel arrojó algunos resultados excepcionales. El modelo oscila entre los parámetros 800M y 8B y se probó utilizando la versión de parámetros 2B. A modo de comparación, se utilizaron 2 nodos con un total de 16 aceleradores Intel y NVIDIA con un tamaño de lote establecido en 16 por acelerador y un tamaño de lote de hasta 512. El resultado final fue que Intel Gaudi 2 ofrece una aceleración del 56 % en comparación con el H100. GPU de 80 GB y una aceleración de 2,43 veces en comparación con la GPU A100 de 80 GB.

Fuente de la imagen: Estabilidad AI

La capacidad de 96 GB HBM también permitió que el Gaudi 2 de Intel encajara en un tamaño de lote de 32 por acelerador para un tamaño de lote total de 512. Esto permitió una velocidad adicional de 1254 imágenes por segundo, una aceleración del 35% con respecto a los 16 lotes. Acelerador Gaudi 2, 2,10 veces más que el H100 de 80 GB y 3,26 veces más que el A100 de 80 GB con GPU AI.

Fuente de la imagen: Estabilidad AI

Al ampliar aún más hasta 32 nodos (256 aceleradores) para las GPU Gaudi 2 y A100 de 80 GB, se observa un aumento de 3,16 veces en la solución Intel, que puede generar 49,4 imágenes/segundo/dispositivo frente a solo 15,6 en la solución A100.

Si bien el rendimiento del entrenamiento es excelente con los aceleradores de IA Gaudi 2, parece que NVIDIA aún conserva el trono en inferencia gracias a sus optimizaciones Tensor-RT que han logrado grandes avances durante el año anterior y el equipo ecológico está continuamente dando grandes pasos en este ecosistema. Se dice que las GPU A100 producen imágenes hasta un 40% más rápido en estas cargas de trabajo particulares bajo el mismo modelo Stable Diffusion 3 8B en comparación con los aceleradores Gaudi 2.

En las pruebas de inferencia con el modelo de parámetros Stable Diffusion 3 8B, los chips Gaudi 2 ofrecen una velocidad de inferencia similar a la de los chips Nvidia A100 que utilizan PyTorch base. Sin embargo, con la optimización de TensorRT, los chips A100 producen imágenes un 40% más rápido que Gaudi 2. Anticipamos que con una mayor optimización, Gaudi 2 pronto superará a los A100 en este modelo. En pruebas anteriores en nuestro modelo SDXL con PyTorch base, Gaudi 2 genera una imagen de 1024×1024 en 30 pasos en 3,2 segundos, frente a 3,6 segundos para PyTorch en A100 y 2,7 ​​segundos para una generación con TensorRT en un A100.

La mayor memoria y la rápida interconexión de Gaudi 2, además de otras consideraciones de diseño, lo hacen competitivo para ejecutar la arquitectura Diffusion Transformer que sustenta esta próxima generación de modelos de medios.

a través de la estabilidad AI

Por último, tenemos resultados en el segundo modelo, que es Stable Beluga 2.5 70B, una versión mejorada del LLaMA 2 70B. Sin optimizaciones adicionales y funcionando bajo PyTorch, los 256 aceleradores de IA Intel Gaudi 2 lograron un rendimiento promedio de 116,777 tokens/segundo. Era aproximadamente un 28% más rápido que la solución A100 de 80 GB que se ejecuta con TensorRT.

Todo esto demuestra cuán competitivo se está volviendo el panorama de la IA y no es el hardware lo que más importa, sino el software y las optimizaciones para cada acelerador específico. Si bien el hardware es esencial, puedes tener lo último y lo mejor, pero si no hay una base sólida para impulsar todos esos núcleos, memoria y varios aceleradores específicos de IA, entonces tendrás dificultades en este espacio.

Pat Gelsinger (derecha), director ejecutivo de Intel, y Christoph Schell, vicepresidente ejecutivo y director comercial, muestran por primera vez un acelerador de IA Intel Gaudi 3 de próxima generación para aprendizaje profundo y modelos de IA generativa a gran escala. programar el próximo año, en el evento “AI Everywhere” de Intel el jueves 14 de diciembre de 2023 en la ciudad de Nueva York. (Crédito: Corporación Intel)

NVIDIA lo sabe desde hace mucho tiempo, por lo que Intel y AMD acaban de comenzar a solidificar sus paquetes de software para IA y aún está por verse si alcanzarán al gigante verde o podrán abordar la arquitectura CUDA/Tensor con lanzamientos rápidos de software. ser visto. Estos puntos de referencia muestran que Intel se está convirtiendo en una solución muy viable, no solo como una alternativa sino también como una solución competitiva frente a las ofertas de NVIDIA, y con las futuras ofertas de GPU de IA y Gaudí, podemos esperar un segmento de IA más sólido con excelentes soluciones para que los clientes seleccionen. en lugar de depender de una sola empresa.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/el-acelerador-intel-gaudi-2-es-hasta-un-55-mas-rapido-que-el-nvidia-h100-en-difusion-estable-y-3-veces-mas-rapido-que-el-a100-en-un-enfrentamiento-de-referencia-de-ia/feed/ 0
Snapdragon X Elite puede generar hasta 10 veces más imágenes con un solo mensaje en difusión estable 1.5 en comparación con la CPU Intel Core Ultra 7 155H https://magazineoffice.com/snapdragon-x-elite-puede-generar-hasta-10-veces-mas-imagenes-con-un-solo-mensaje-en-difusion-estable-1-5-en-comparacion-con-la-cpu-intel-core-ultra-7-155h/ https://magazineoffice.com/snapdragon-x-elite-puede-generar-hasta-10-veces-mas-imagenes-con-un-solo-mensaje-en-difusion-estable-1-5-en-comparacion-con-la-cpu-intel-core-ultra-7-155h/#respond Tue, 27 Feb 2024 18:18:51 +0000 https://magazineoffice.com/snapdragon-x-elite-puede-generar-hasta-10-veces-mas-imagenes-con-un-solo-mensaje-en-difusion-estable-1-5-en-comparacion-con-la-cpu-intel-core-ultra-7-155h/

Está previsto que el Snapdragon X Elite impulse una gran cantidad de portátiles a mediados de 2024, pero antes de que se materialicen los primeros productos, Qualcomm decidió presumir un poco en lo que respecta a la generación de imágenes. La compañía colocó su SoC insignia hecho a medida para máquinas portátiles y lo comparó con el Core Ultra 7 155H de Intel, que ofrece una configuración de 16 núcleos y está diseñado para sobresalir en cargas de trabajo de subprocesos múltiples. Sin embargo, cuando ambos chips ejecutan Stable Diffusion 1.5, el Snapdragon X Elite no solo obtiene la ventaja, sino que también supera a su nuevo competidor en cuanto a generación de imágenes de IA.

Se ejecutaron dos mensajes de generación de imágenes de IA y el Snapdragon X Elite dominó por completo el Core Ultra 7 155H

Antes de pasar a los puntos de referencia, repasemos algunas especificaciones tanto del Snapdragon X Elite como del Core Ultra 7 155H. Stable Diffusion 1.5 aprovecha la NPU de ambos silicios, pero el Snapdragon X Elite domina a su último rival en lo que respecta a la generación de imágenes. En el primer mensaje, que era un «paquete de bayas», el SoC de Qualcomm terminó la prueba en 7,25 segundos, generando la imagen tres veces más rápido que el Intel Core Ultra 7 155H, que generó la misma imagen en 22,26 segundos.

Si eso no fuera suficiente para decir mucho de las capacidades de generación de IA del Snapdragon X Elite, también podría crear imágenes 10 veces más rápidas cuando se le solicite crear un «león majestuoso tomando el sol dorado de la tarde». En el vídeo a continuación, puede ver que el Intel Core Ultra 7 155H genera una imagen cada 12 segundos, mientras que el Snapdragon X Elite completa la misma tarea en un solo segundo, consolidando su autoridad en uno de los procesadores de Intel.

El último SoC tampoco se queda atrás en rendimiento multinúcleo, con una ejecución anterior de Geekbench 6 que reveló que es hasta un 21 por ciento más rápido que el M3 y puede funcionar con dos límites de potencia de 23 W y 80 W para brindar a los usuarios opciones para cuando quieren priorizar la eficiencia energética y el rendimiento. Con suerte, los productos de consumo reales que llevan el Snapdragon X Elite no serán una decepción, ya que estos puntos de referencia ciertamente han exagerado las existencias del próximo conjunto de chips.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/snapdragon-x-elite-puede-generar-hasta-10-veces-mas-imagenes-con-un-solo-mensaje-en-difusion-estable-1-5-en-comparacion-con-la-cpu-intel-core-ultra-7-155h/feed/ 0
¿Está haciendo Tiktok lo suficiente para detener la difusión de contenidos ilegales? La Comisión de la UE quiere comprobar esto https://magazineoffice.com/esta-haciendo-tiktok-lo-suficiente-para-detener-la-difusion-de-contenidos-ilegales-la-comision-de-la-ue-quiere-comprobar-esto/ https://magazineoffice.com/esta-haciendo-tiktok-lo-suficiente-para-detener-la-difusion-de-contenidos-ilegales-la-comision-de-la-ue-quiere-comprobar-esto/#respond Mon, 19 Feb 2024 21:51:04 +0000 https://magazineoffice.com/esta-haciendo-tiktok-lo-suficiente-para-detener-la-difusion-de-contenidos-ilegales-la-comision-de-la-ue-quiere-comprobar-esto/

La Comisión de la UE abre un procedimiento contra la plataforma online Tiktok. Se trata, entre otras cosas, de la protección de los jóvenes y de las conductas adictivas.

(dpa) La Comisión Europea está tomando medidas contra Tiktok. El objetivo es comprobar si el gigante online está haciendo lo suficiente para evitar la difusión de contenidos ilegales y si está violando las normas de la UE en áreas como la protección de los jóvenes o la transparencia publicitaria. La Comisión de la UE lo anunció el lunes en Bruselas.

La posible mala conducta también implica el hecho de que Tiktok puede no estar haciendo lo suficiente para garantizar que la aplicación no promueva comportamientos adictivos. En concreto, la Comisión sospecha de algoritmos que estimulan la dependencia o pueden desencadenar el llamado efecto madriguera de conejo.

Peligro de adicción y preocupación por la protección de los jóvenes

Este efecto (el nombre se basa en la historia de «Alicia en el país de las maravillas») describe el fenómeno de perderse intensamente en un tema y ya no poder separarse de él. En teoría, los algoritmos pueden reconocer y explotar dichos patrones de comportamiento para que los usuarios pasen más tiempo en una plataforma.

Las medidas de protección para menores, como los controles de edad para proteger a los menores, pueden no ser efectivas, afirmó la comisión. Según la empresa, la plataforma está destinada a personas mayores de 13 años. El sitio web de la empresa dice: «Por eso es fundamental que los adolescentes indiquen su fecha de nacimiento correcta».

Nueva ley de la UE en vigor

La comisión ya había llevado a cabo una investigación preliminar, cuyos resultados dieron lugar al proceso formal iniciado ahora contra Tiktok. Hace dos meses, Bruselas abrió un procedimiento similar contra la Plataforma X. Entre otras cosas, esto implicó referencias a contribuciones ilegales y engañosas a la guerra de Gaza. Las plataformas en línea están obligadas por una nueva ley de la UE sobre servicios digitales (DSA) a tomar medidas estrictas contra los contenidos ilegales como el discurso de odio y el discurso de odio en línea.

Desde que la ley entró en vigor, la Comisión de la UE ha enviado una lista de preguntas a algunas grandes plataformas en línea, incluidas Meta, la empresa matriz de Facebook, y Snapchat. Entre otras cosas, debían informar sobre cómo protegen la salud mental de los jóvenes.

Las plataformas deben proporcionar a sus usuarios información sobre los anuncios. Por ejemplo, por qué se le muestran los anuncios y quién pagó por la publicidad. Además, los menores deberían recibir una protección especial. Está prohibido dirigirles específicamente publicidad basada en datos personales.

Una pena alta está a la vista

La Comisión de la UE también quiere investigar si Tiktok está haciendo lo suficiente para garantizar suficiente privacidad a los usuarios. Se trata de qué ajustes de protección de datos están establecidos por defecto para menores. También se analizará si un directorio de búsqueda de los anuncios presentados en Tiktok cumple con los requisitos legales. Además, la Comisión de la UE tiene dudas sobre si los investigadores tendrán suficiente acceso a los datos de Tiktok según sea necesario.

Si la Comisión llega a la conclusión final de que Tiktok está violando la Ley de Servicios Digitales de la UE, se podrían imponer multas de hasta el seis por ciento del volumen de negocios global anual. La comisión también puede imponer multas de hasta el cinco por ciento del volumen de negocios diario promedio global de Tiktok. Y eso por cada día en el que la empresa no implemente las medidas prometidas.

Según los informes, Tiktok factura anualmente varios miles de millones de euros. La propia empresa no publica cifras. No hay plazo para el procedimiento que ahora se ha iniciado. No está claro cuánto durará la investigación. Según las autoridades de Bruselas, la duración depende de la complejidad del caso y de la cooperación de la empresa con la Comisión. Tampoco está claro cuál será el resultado de la investigación.



Source link-58

]]>
https://magazineoffice.com/esta-haciendo-tiktok-lo-suficiente-para-detener-la-difusion-de-contenidos-ilegales-la-comision-de-la-ue-quiere-comprobar-esto/feed/ 0
Medidas drásticas de X, es posible que Microsoft no detenga la difusión de pornografía falsa de Taylor Swift https://magazineoffice.com/medidas-drasticas-de-x-es-posible-que-microsoft-no-detenga-la-difusion-de-pornografia-falsa-de-taylor-swift/ https://magazineoffice.com/medidas-drasticas-de-x-es-posible-que-microsoft-no-detenga-la-difusion-de-pornografia-falsa-de-taylor-swift/#respond Tue, 30 Jan 2024 12:59:45 +0000 https://magazineoffice.com/medidas-drasticas-de-x-es-posible-que-microsoft-no-detenga-la-difusion-de-pornografia-falsa-de-taylor-swift/

Después de que imágenes explícitas y falsas de IA de Taylor Swift comenzaron a difundirse en X, la plataforma anteriormente conocida como Twitter intentó bloquear todas las búsquedas de la estrella del pop.

«Esta es una acción temporal y se hace con mucha precaución, ya que priorizamos la seguridad en este tema», dijo Joe Benarroch, jefe de operaciones comerciales de X, en un comunicado a Reuters.

Sin embargo, incluso esta medida drástica no parece ser una solución efectiva, ya que «Swift» fue tendencia el lunes por la mañana en X. El bloqueo temporal tampoco hace nada para detener las búsquedas que utilizan errores ortográficos en el nombre del cantante.

X no respondió de inmediato a la solicitud de Ars de hacer comentarios.

Las imágenes dañinas aparecieron por primera vez la semana pasada en X después de filtrarse de un canal tóxico de Telegram donde los usuarios discutían formas de usar herramientas populares de inteligencia artificial como Microsoft Designer para generar imágenes íntimas no consensuadas de celebridades, encontró 404 Media. Al igual que las soluciones de búsqueda de X, se utilizaron errores ortográficos y trucos de palabras clave para evadir los filtros de contenido de Designer. Ars también encontró un hilo de Reddit donde los usuarios discutían sobre el uso de Designer para generar imágenes sexualizadas de «pintura corporal» muy similares a algunas de las imágenes de AI Swift que se volvieron virales.

La semana pasada, Microsoft le dijo a Ars que estaba investigando, pero hasta ahora, la compañía no ha confirmado los informes de que se utilizó Designer para generar las imágenes de Swift. Sin embargo, eso no ha impedido que Microsoft también tome medidas drásticas y tome medidas enérgicas contra los filtros de contenido de Designer.

Según 404 Media, los usuarios de Telegram y 4chan se sintieron decepcionados al descubrir esta semana que Microsoft introdujo más medidas de seguridad en Designer, aparentemente bloqueando la cara de cualquier celebridad para que la herramienta no genere. Ahora, las palabras clave que antes funcionaban para generar imágenes de estrellas como Ariana Grande o Zendaya ahora solo muestran «chicas genéricas» con apariencia similar, dijeron los usuarios, quejándose de que «Microsoft Designer recibió un gran parche» y es «casi como si no generara celebridades». ya no.»

El martes, el director ejecutivo de Microsoft, Satya Nadella, aparecerá en Noticias nocturnas de NBC para discutir el papel que sus herramientas pueden haber jugado en la generación de pornografía con IA de Swift. Millones de personas vieron algunas de estas imágenes antes de que comenzara la eliminación de contenido, y una de las imágenes más compartidas recibió 47 millones de visitas, informó The New York Times.

Ars recibió una transcripción de la próxima transmisión de NBC, donde Nadella confirmará que Microsoft planea «actuar rápido» para reducir los daños de las herramientas de inteligencia artificial como Designer y Bing, que pueden usarse para generar imágenes de cualquier cosa que los usuarios puedan imaginar a través de mensajes de texto.

«Creo que, en primer lugar, esto es absolutamente alarmante y terrible, por lo que sí, tenemos que actuar», dijo Nadella a NBC.

Nadella dijo que «hay mucho por hacer y mucho por hacer» en Microsoft para colocar barreras alrededor de las tecnologías de inteligencia artificial para evitar resultados dañinos, pero lo que también se necesita es una «convergencia sobre ciertas normas» global y social, como si todos llegaran a un consenso. que las imágenes de IA no consensuadas son dañinas. Actualmente, no todas las plataformas están de acuerdo con eso. Junto con las fuerzas del orden, las plataformas «pueden gobernar mucho más de lo que pensamos», dijo Nadella a NBC.



Source link-49

]]>
https://magazineoffice.com/medidas-drasticas-de-x-es-posible-que-microsoft-no-detenga-la-difusion-de-pornografia-falsa-de-taylor-swift/feed/ 0
El nuevo modelo de IA “Difusión de vídeo estable” puede animar cualquier imagen fija https://magazineoffice.com/el-nuevo-modelo-de-ia-difusion-de-video-estable-puede-animar-cualquier-imagen-fija/ https://magazineoffice.com/el-nuevo-modelo-de-ia-difusion-de-video-estable-puede-animar-cualquier-imagen-fija/#respond Wed, 29 Nov 2023 16:30:42 +0000 https://magazineoffice.com/el-nuevo-modelo-de-ia-difusion-de-video-estable-puede-animar-cualquier-imagen-fija/

Agrandar / Todavía ejemplos de imágenes animadas usando Stable Video Diffusion de Stability AI.

Estabilidad IA

El martes, Stability AI lanzó Stable Video Diffusion, una nueva herramienta gratuita de investigación de IA que puede convertir cualquier imagen fija en un video corto, con resultados mixtos. Es una vista previa de peso abierto de dos modelos de IA que utilizan una técnica llamada imagen a video y puede ejecutarse localmente en una máquina con una GPU Nvidia.

El año pasado, Stability AI causó sensación con el lanzamiento de Stable Diffusion, un modelo de síntesis de imágenes de «pesos abiertos» que inició una ola de síntesis de imágenes abiertas e inspiró a una gran comunidad de aficionados que han aprovechado la tecnología con su propia tecnología personalizada. afinaciones. Ahora Stability quiere hacer lo mismo con la síntesis de vídeo mediante IA, aunque la tecnología aún está en su infancia.

En este momento, Stable Video Diffusion consta de dos modelos: uno que puede producir síntesis de imagen a video con 14 fotogramas de longitud (llamado «SVD») y otro que genera 25 fotogramas (llamado «SVD-XT»). Pueden funcionar a velocidades variables de 3 a 30 fotogramas por segundo y producen clips de vídeo MP4 cortos (normalmente de 2 a 4 segundos de duración) con una resolución de 576×1024.

En nuestras pruebas locales, se tardó unos 30 minutos en crear una generación de 14 fotogramas en una tarjeta gráfica Nvidia RTX 3060, pero los usuarios pueden experimentar ejecutando los modelos mucho más rápido en la nube a través de servicios como Hugging Face y Replicate (algunos de los cuales puede hay que pagar). En nuestros experimentos, la animación generada normalmente mantiene estática una parte de la escena y agrega efectos de panorámica y zoom o anima humo o fuego. Las personas representadas en las fotografías a menudo no se mueven, aunque conseguimos que una imagen de Getty de Steve Wozniak cobrara ligeramente vida.

(Nota: además de la foto de Steve Wozniak Getty Images, las otras imágenes animadas en este artículo se generaron con DALL-E 3 y se animaron usando Stable Video Diffusion).

Dadas estas limitaciones, Stability enfatiza que el modelo aún es temprano y está destinado únicamente a investigación. «Si bien actualizamos con entusiasmo nuestros modelos con los últimos avances y trabajamos para incorporar sus comentarios», escribe la compañía en su sitio web, «este modelo no está diseñado para aplicaciones comerciales o del mundo real en esta etapa. Sus ideas y comentarios sobre seguridad y La calidad es importante para perfeccionar este modelo para su eventual lanzamiento».

En particular, pero tal vez no sea sorprendente, el artículo de investigación de Stable Video Diffusion no revela la fuente de los conjuntos de datos de entrenamiento de los modelos, solo dice que el equipo de investigación utilizó «un gran conjunto de datos de video que comprende aproximadamente 600 millones de muestras» que seleccionaron en el Large Video Dataset. (LVD), que consta de 580 millones de videoclips comentados que abarcan 212 años de duración de contenido.

Stable Video Diffusion está lejos de ser el primer modelo de IA que ofrece este tipo de funcionalidad. Anteriormente cubrimos otros métodos de síntesis de video con IA, incluidos los de Meta, Google y Adobe. También cubrimos el ModelScope de código abierto y lo que muchos consideran el mejor modelo de video de IA en este momento, el modelo Gen-2 de Runway (Pika Labs es otro proveedor de video de IA). Stability AI dice que también está trabajando en un modelo de texto a video, que permitirá la creación de videoclips cortos utilizando indicaciones escritas en lugar de imágenes.

La fuente y los pesos de Stable Video Diffusion están disponibles en GitHub, y otra forma sencilla de probarlo localmente es ejecutarlo a través de la plataforma Pinokio, que maneja las dependencias de instalación fácilmente y ejecuta el modelo en su propio entorno.



Source link-49

]]>
https://magazineoffice.com/el-nuevo-modelo-de-ia-difusion-de-video-estable-puede-animar-cualquier-imagen-fija/feed/ 0
NVIDIA TensorRT acelera la difusión estable GenAI para todas las GPU RTX, RTX 4090 hasta 7 veces más rápido que Apple M2 Ultra https://magazineoffice.com/nvidia-tensorrt-acelera-la-difusion-estable-genai-para-todas-las-gpu-rtx-rtx-4090-hasta-7-veces-mas-rapido-que-apple-m2-ultra/ https://magazineoffice.com/nvidia-tensorrt-acelera-la-difusion-estable-genai-para-todas-las-gpu-rtx-rtx-4090-hasta-7-veces-mas-rapido-que-apple-m2-ultra/#respond Wed, 18 Oct 2023 06:44:08 +0000 https://magazineoffice.com/nvidia-tensorrt-acelera-la-difusion-estable-genai-para-todas-las-gpu-rtx-rtx-4090-hasta-7-veces-mas-rapido-que-apple-m2-ultra/

Las actualizaciones de TensorRT de NVIDIA para GPU RTX también permiten grandes mejoras en el rendimiento de las cargas de trabajo GenAI, como Stable Diffusion.

La difusión estable y GenAI se impulsan gracias a la compatibilidad con TensorRT en las GPU Gaming y Pro RTX de NVIDIA

Ya hemos detallado cómo TensorRT-LLM está brindando capacidades de IA más rápidas a Windows en hardware RTX y GenAI es otra área donde los consumidores que poseen una GPU RTX podrán ver un beneficio directo.

No es ningún secreto que las GPU de NVIDIA se encuentran entre las soluciones más populares para cargas de trabajo de difusión estable e IA generativa. Hemos visto a NVIDIA estar por delante de casi todos en este campo, pero los lanzamientos de CPU más recientes y futuros (de AMD e Intel) han comenzado a incluir una unidad NPU dedicada que puede descargar las tareas de IA de la CPU/GPU y completar el trabajo en un modo eficiente y de muy bajo consumo para la gran mayoría de usuarios.

NVIDIA afirma que es fantástico ver el impulso para acelerar la IA al infundir IA en las CPU y que se usarán principalmente para tareas livianas de IA que se ejecutan a baja potencia y la GPU será para casos de uso más exigentes. Tanto la NPU como las GPU son recursos fuera de línea y disponibles localmente, lo que proporciona baja latencia y características de localidad/privacidad de datos, mientras que los centros de datos en la nube apuntan a cargas de trabajo pesadas de IA para modelos muy grandes y uso bajo demanda. Se dice que las GPU RTX de NVIDIA ofrecen entre 20 y 100 veces más rendimiento que estas NPU.

La aceleración de TensorRT ahora está disponible para Stable Diffusion en la popular interfaz de usuario web de la distribución Automatic1111. Acelera el modelo de difusión de IA generativa hasta 2 veces más que la implementación más rápida anterior.

a través de NVIDIA

En una demostración de rendimiento de Difusión estable, NVIDIA muestra la GeForce RTX 4090 ejecutando WebUI desde Automatic 1111 y generando 27 imágenes por minuto usando la implementación de PyTorc xFormers, pero ejecutándola con TensorRT duplica el rendimiento a 52 imágenes por minuto.

NVIDIA también compara el rendimiento con el M2 Ultra de Apple (variante de 72 núcleos), que cuesta un precio base de 5000 dólares estadounidenses. Este sistema solo genera 7 imágenes por minuto utilizando el modelo CoreML. Mientras tanto, puedes construir un sistema de muy alta gama con dos GPU GeForce RTX 4090 con el mismo presupuesto.

La compañía ha anunciado que TensorRT ahora está disponible en WebUI (Automatic 1111) y se puede descargar desde GitHub.com/NVIDIA.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/nvidia-tensorrt-acelera-la-difusion-estable-genai-para-todas-las-gpu-rtx-rtx-4090-hasta-7-veces-mas-rapido-que-apple-m2-ultra/feed/ 0
AMD implementa compatibilidad con Counter-Strike 2 en los últimos controladores de GPU Radeon y también agrega optimizaciones de difusión estable https://magazineoffice.com/amd-implementa-compatibilidad-con-counter-strike-2-en-los-ultimos-controladores-de-gpu-radeon-y-tambien-agrega-optimizaciones-de-difusion-estable/ https://magazineoffice.com/amd-implementa-compatibilidad-con-counter-strike-2-en-los-ultimos-controladores-de-gpu-radeon-y-tambien-agrega-optimizaciones-de-difusion-estable/#respond Fri, 29 Sep 2023 12:01:22 +0000 https://magazineoffice.com/amd-implementa-compatibilidad-con-counter-strike-2-en-los-ultimos-controladores-de-gpu-radeon-y-tambien-agrega-optimizaciones-de-difusion-estable/

AMD también ofrece hoy sus últimos controladores de GPU Radeon con soporte para Counter-Strike 2 junto con optimizaciones para Stable Diffusion.

Las GPU AMD Radeon RDNA ahora están listas para Counter-Strike 2 gracias a los controladores más recientes y también ofrecen mejoras de difusión estable

El último controlador del equipo rojo, Radeon Software: Adrenalin Edition 23.9.3, agrega soporte para tres nuevos juegos, incluidos Counter-Strike 2, Cyberpunk 2077: Phantom Liberty y Payday 3. Counter-Strike 2 es definitivamente lo más destacado del lanzamiento de hoy como el El juego acaba de lanzarse para todos, por lo que puede esperar un gran rendimiento en las GPU Radeon, especialmente la línea RDNA compatible para la que está diseñado este controlador.

Entre los aspectos más destacados también se encuentran las optimizaciones para MeanVarianceNormalization (MVN) y Stable Diffusion, por lo que los usuarios de Radeon RDNA pueden esperar algunas mejoras de rendimiento al utilizar estas cargas de trabajo específicas de IA. En cuanto al controlador, puede dirigirse a este enlace para descargar el software AMD: paquete Adrenalin Edition 23.9.3.

Nuevas características destacadas

  • Soporte para nuevos juegos
    • ​​​​​​​Contraataque 2
    • Cyberpunk 2077: Libertad fantasma
    • DÍA DE PAGO 3
  • Optimizaciones de variantes de MeanVarianceNormalization (MVN) y Stable Diffusion

Problemas conocidos

  • La superposición de métricas de rendimiento puede indicar N/A para FPS en varios juegos.
  • El audio puede desincronizarse intermitentemente con el vídeo al grabar desde el software AMD: Adrenalin Edition con códec AV1.
  • La pantalla puede congelarse intermitentemente después de cambiar el formato de codificación mientras se transmiten juegos seleccionados mediante AMD Link. Se sugiere a los usuarios que experimenten este problema que seleccionen el formato de codificación deseado antes de transmitir como solución temporal.

Compatibilidad de productos Radeon

Software AMD: Adrenalin Edition 23.9.3 es compatible con los siguientes productos AMD Radeon.

Gráficos de la serie Radeon RX 7900/7800/7700/7600
Gráficos de la serie Radeon RX 6900/6800/6700/6600/6500/6400
Gráficos de la serie Radeon RX 5700/5600/5500/5300

Compatibilidad del producto Mobility Radeon

Software AMD: Adrenalin Edition 23.9.3 es un controlador de gráficos de referencia para portátiles con soporte limitado para funciones específicas del proveedor del sistema.

Tarjeta gráfica AMD Radeon RX serie 6800M
Tarjeta gráfica AMD Radeon RX serie 6700M
Tarjeta gráfica AMD Radeon RX serie 6600M
Tarjeta gráfica AMD Radeon RX serie 6500M
Tarjeta gráfica AMD Radeon RX serie 6300M
Gráficos de la serie AMD Radeon RX 5700M/5600M/5500M/5300M

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/amd-implementa-compatibilidad-con-counter-strike-2-en-los-ultimos-controladores-de-gpu-radeon-y-tambien-agrega-optimizaciones-de-difusion-estable/feed/ 0
AMD Radeon 7900 XTX logra un 890 % de aceleración en IA generativa con optimización de difusión estable https://magazineoffice.com/amd-radeon-7900-xtx-logra-un-890-de-aceleracion-en-ia-generativa-con-optimizacion-de-difusion-estable/ https://magazineoffice.com/amd-radeon-7900-xtx-logra-un-890-de-aceleracion-en-ia-generativa-con-optimizacion-de-difusion-estable/#respond Sat, 19 Aug 2023 21:18:15 +0000 https://magazineoffice.com/amd-radeon-7900-xtx-logra-un-890-de-aceleracion-en-ia-generativa-con-optimizacion-de-difusion-estable/

NVIDIA está dominando absolutamente la conversación sobre IA de forma correcta y en buena medida: sus GPU funcionan de forma inmediata y son la mejor opción para profesionales y empresas que desean incursionar en la IA de consumo. Pero solo esta semana, tanto Intel como AMD optimizaron sus pilas de software para obtener aceleraciones masivas en IA generativa, lo que ha hecho que la RTX 7900 XTX de AMD obtenga un mayor rendimiento por dólar que una NVIDIA RTX 4080 en IA generativa (específicamente Stable Diffusion con A111/Xformers). Teniendo en cuenta que Stable Diffusion representa la gran mayoría de la IA generativa localizada que no es SaaS en este momento, este es un hito importante y finalmente ofrece algo de competencia a NVIDIA.

AMD 7900 XTX logra mayores iteraciones por segundo por dólar en Stable Diffusion (Automatic111 con DirectML) que NVIDIA RTX 4080 (xformers)

Nota: La optimización de GenAI, al igual que la optimización del rendimiento de la criptominería, tendrá un kilometraje que variará significativamente según el modelo o la configuración que se utilice. Este artículo trata sobre la configuración más común de A111 Xformers (puede obtener un recuento actualizado del rendimiento promedio por GPU aquí: https://vladmandic.github.io/sd-extension-system-info/pages/benchmark.html) pero hay *son* Optimizaciones boutique hiperafinadas donde NVIDIA RTX 4080 es aún más rápida.

El uso de Microsoft Olive y DirectML en lugar de la ruta PyTorch da como resultado que AMD 7900 XTX pase de 1,87 iteraciones por segundo a 18,59 iteraciones por segundo. Puedes leer el guía detallada de AMD aquí. Este nivel de rendimiento en Automatic111 está bastante cerca del enfoque basado en SHARK para Stable Diffusion y definitivamente coloca a la empresa en el mapa con respecto a la IA generativa. Resulta que también hace que el 7900 XTX ofrezca un rendimiento GenAI ligeramente superior por dólar (en difusión estable/A111) que el RTX 4080 comparativo, al menos a los precios actuales.

La NVIDIA RTX 4080 más barata que pude encontrar en Newegg (el 19/8/2023) fue la MSI Ventus GeForce RTX 4080 de 16 GB (enlace archivado de WBM aquí) y la AMD Radeon 7900 XTX más barata que pude encontrar en Newegg fue la MSI Gaming Radeon RX 7900 XTX 24 GB (enlace archivado de WBM aquí). Antes de analizar los números, quiero mencionar la advertencia de que, a diferencia de NVIDIA, la ruta de AMD requiere que el usuario sea un poco más experto en tecnología (la ruta de AMD usa Microsoft Olive en lugar de PyTorch y es probable que la mayoría de los instaladores automáticos no instalen las dependencias requerido para esto automáticamente), por lo que si la conveniencia es un factor para usted, NVIDIA sigue siendo el camino a seguir. Pero los profesionales y las pequeñas empresas generalmente pueden sortear una molestia de configuración inicial si la base de costos es lo suficientemente buena y parece ser el caso aquí.

GPU Precio de mercado Configuración Rendimiento SD (it/s) Dólares Gastados Por It/s
Nvidia RTX 4080 $1099 A111 (PyTorch) 19.41* $56.6
AMD Radeon 7900 XTX $969 A111 (Oliva de Microsoft) 18.59 $52.1
AMD Radeon 7900 XTX $969 TIBURÓN 20.76* $46.6
*= datos tomados de la comparación de Puget Systems publicada el 31 de julio de 2023.

Como podemos ver, el silicio AMD finalmente está comenzando a brillar en GenAI hasta el punto en que ofrece un valor más alto en comparación con el 4080 en Stable Diffusion A111. AMD 7900 XTX ofrece 18,59 iteraciones por segundo, lo que hace que los usuarios paguen $52,1 por it/s, mientras que NVIDIA RTX 4080 obtiene 19,41 iteraciones por segundo, lo que hace que los usuarios paguen $56,6 por it/s. Si los usuarios optan por la implementación SHARK menos común, pueden impulsar la propuesta de valor hasta solo $ 46.6 por it/s para Radeon 7900 XTX. Así que es oficial: AMD es oficialmente un competidor para los consumidores interesados ​​en la IA generativa.

Esto también significa que si reciben un poco más de atención por parte de AMD, pueden ser un competidor formidable para las ambiciones de IA de NVIDIA. La mayoría de las personas no ejecutarán LLM desde su sótano, pero GenAI y SLM/ULM estarán en todas partes en los próximos 12 meses y formarán parte de muchos flujos de trabajo de productividad. La forma en que Intel y AMD se posicionen en un mercado en el que NVIDIA tiene una enorme ventaja determinará cómo les irá en un mundo dominado por la IA.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/amd-radeon-7900-xtx-logra-un-890-de-aceleracion-en-ia-generativa-con-optimizacion-de-difusion-estable/feed/ 0
La difusión estable optimizada para Intel Silicon aumenta el rendimiento de Arc A770 en un 54 % https://magazineoffice.com/la-difusion-estable-optimizada-para-intel-silicon-aumenta-el-rendimiento-de-arc-a770-en-un-54/ https://magazineoffice.com/la-difusion-estable-optimizada-para-intel-silicon-aumenta-el-rendimiento-de-arc-a770-en-un-54/#respond Fri, 18 Aug 2023 07:09:51 +0000 https://magazineoffice.com/la-difusion-estable-optimizada-para-intel-silicon-aumenta-el-rendimiento-de-arc-a770-en-un-54/

Stable Diffusion WebUI de Automatic1111 ahora funciona con hardware Intel GPU, gracias a la integración del kit de herramientas OpenVINO de Intel que toma modelos de IA y los optimiza para ejecutarse en hardware Intel. Hemos vuelto a probar la última versión de Stable Diffusion para ver qué tan rápidas son las GPU de Intel en comparación con nuestros resultados anteriores, con ganancias del 40 al 55 por ciento.

Stable Diffusion (que actualmente tiene nuestras pruebas anteriores, aunque estamos trabajando para actualizar los resultados) es un modelo de inteligencia artificial de aprendizaje profundo que se utiliza para generar imágenes a partir de descripciones de texto. Lo que hace que Stable Diffusion sea especial es su capacidad para ejecutarse en hardware de consumo local. La comunidad de IA tiene muchos proyectos, siendo Stable Diffusion WebUI el más popular. Proporciona una interfaz de navegador que es fácil de usar y experimentar.

Después de meses de trabajo en segundo plano (hemos estado escuchando rumores de esto por un tiempo), las últimas actualizaciones ahora están disponibles para los propietarios de Intel Arc y brindan un impulso sustancial al rendimiento.

Ver más

Estos son los resultados de nuestras pruebas anteriores y actualizadas de Stable Diffusion. Utilizamos un OpenVINO de difusión estable ligeramente modificado para nuestras pruebas anteriores, y hemos vuelto a probar con la bifurcación de Automatic1111 webui con OpenVINO. También volvimos a probar varias de las GPU de AMD con una versión más nueva de Stable Diffusion basada en Shark de Nod.ai. Los resultados de Nvidia no se han actualizado, aunque volveremos a probar con la última versión en un futuro cercano (y actualizaremos el artículo principal de los puntos de referencia de Stable Diffusion cuando hayamos terminado).

Debemos tener en cuenta que también cambiamos nuestro aviso, lo que hace que los nuevos resultados sean generalmente más exigentes. (El nuevo indicador es «sala desordenada», que tiende a tener muchos detalles pequeños en las imágenes que requieren más esfuerzo para que la IA los genere). Hay variaciones entre las ejecuciones, y hay advertencias que se aplican específicamente a Arc en este momento, pero aquí están los resultados antes/después.

(Crédito de la imagen: futuro)

(Crédito de la imagen: futuro)

Las GPU Intel ARC y AMD muestran un rendimiento mejorado, y la mayoría ofrece ganancias significativas. El Arc A770 de 16 GB mejoró un 54 %, mientras que el A750 mejoró un 40 % en el mismo escenario. (Utilizamos las tarjetas de edición limitada A770 para las pruebas, que ahora están descontinuadas, aunque Acer, ASRock, Sparkle y Gunnir aún ofrecen tarjetas de 16 GB).

Nod.ai tampoco se ha quedado quieto. Las RX 6800, RX 6750 XT y RX 6700 de 10 GB de AMD son todas más rápidas, y las 6800 y 6700 de 10 GB en particular muestran grandes ganancias. No estamos seguros de por qué la 6750 XT no funcionó tan bien, pero la RX 6800 experimentó un aumento del rendimiento del 34 % y la RX 6700 de 10 GB experimentó una mejora aún mayor del 76 %. La RX 6750 XT, por alguna razón, solo experimentó un mísero aumento del 9%, a pesar de que las tres GPU AMD comparten la misma arquitectura RDNA2. (Volveremos a probar otras GPU, incluidas las piezas más nuevas de la serie RX 7000 de AMD, en un futuro próximo).

Nuevamente, no volvimos a probar las tres GPU de la serie Nvidia RTX 40, por lo que las estadísticas de rendimiento siguen siendo idénticas entre los dos gráficos. Aun así, con las nuevas optimizaciones de OpenVINO, los Arc A750 y A770 de Intel ahora pueden superar al RTX 4060, y el A770 de 16 GB está muy cerca del RTX 4060 Ti.

Todavía hay mucho trabajo en curso, incluida la simplificación de la instalación y las correcciones para que funcionen otras resoluciones de imagen y modelos de difusión estable. Tuvimos que confiar en el modelo predeterminado «v1-5-pruned-emaonly.safetensors», ya que los nuevos «v2-1_512-ema-pruned.safetensors» y «v2-1_768-ema-pruned.safetensors» no pudieron generar producción.

Además, la generación de 768×768 actualmente falla en las GPU de Arc: podríamos hacer hasta 720×720, pero 744×744 terminó cambiando a la generación basada en CPU. Sin embargo, se nos dice que una solución para el soporte de 768×768 debería llegar relativamente pronto, por lo que los usuarios de Arc deben estar atentos a esa actualización.

Actualización, 17/08/2023: La solución es en vivo. Para que funcione 768×768, vaya al directorio donde instaló Stable Diffusion OpenVINO y ejecute: «venvScriptsactivate» y luego «pip install –pre openvino==2023.1.0.dev20230811» y generación de mayor resolución Las imágenes deberían funcionar. Probamos con éxito 768×768 en un A750, donde anteriormente incluso el A770 de 16 GB fallaba y parecía quedarse sin VRAM.





Source link-41

]]>
https://magazineoffice.com/la-difusion-estable-optimizada-para-intel-silicon-aumenta-el-rendimiento-de-arc-a770-en-un-54/feed/ 0