TPU – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Thu, 16 May 2024 07:18:17 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Google revela su TPU en la nube más potente, Trillium, y también anuncia la integración de Blackwell de NVIDIA https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/ https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/#respond Thu, 16 May 2024 07:18:14 +0000 https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/

Google presentó sus nuevos TPU Trillium de «sexta generación» y también anunció la disponibilidad del servidor NVIDIA Blackwell AI a principios de 2025.

Google busca mejorar sus capacidades de inteligencia artificial agregando hardware de vanguardia a su arsenal, como Trillium TPU y servidores con tecnología NVIDIA Blackwell para principios de 2025

El I/O 2024 estuvo una vez más lleno de la palabra «IA» durante toda la exhibición, y no podemos debatir esto en absoluto, considerando lo inmensa que es la inteligencia artificial para Google y sus socios. Vimos la integración de funciones de IA en aplicaciones convencionales como Gmail y Google Photos y, junto con eso, la empresa nos dio un resumen de qué esperar con modelos de IA como Gemini y el recientemente revelado Veo. Para respaldar todo a nivel de hardware, Google también anunció sus nuevos TPU de sexta generación «Trilium».

Ampliando Trillium, Google reveló en una publicación de blog que los nuevos TPU podrían lograr un aumento de 4,7 veces en el rendimiento informático máximo en comparación con la generación anterior, duplicando tanto las capacidades de HBM como el ancho de banda de interconexión. Esto permite a Google operar sus modelos y actividades de IA de una manera mucho mejor. Además, se sabe que los TPU de sexta generación son un 67% más eficientes energéticamente, lo que permite su adopción masiva en los centros de datos.

Ya se ha anunciado que los Trillium TPU están integrados en las hipercomputadoras de inteligencia artificial de Google, y la compañía se ha asociado con la firma de tecnología Hugging Face para «entrenar y servir modelos optimizados».

Nuestra asociación con Google Cloud facilita a los usuarios de Hugging Face ajustar y ejecutar modelos abiertos en la infraestructura de inteligencia artificial de Google Cloud, incluidas las TPU.

Estamos entusiasmados de acelerar aún más la IA de código abierto con los próximos TPU Trillium de sexta generación, y esperamos que los modelos abiertos continúen brindando un rendimiento óptimo gracias al aumento de 4,7 veces en el rendimiento por chip en comparación con la generación anterior. Haremos que el rendimiento de Trillium esté fácilmente disponible para todos los desarrolladores de IA a través de nuestra nueva biblioteca Optimum-TPU.

– Jeff Boudier, jefe de producto, Hugging Face

Además de desarrollar TPU, Google también anunció que ha incluido la arquitectura Blackwell de NVIDIA en su arsenal de «armas de IA», afirmando que les permitirá llevar el rendimiento informático a un nivel completamente nuevo. Es importante señalar que pocas empresas han obtenido acceso a los productos Blackwell, lo que demuestra lo «raros» que son en los mercados, al menos por ahora. De hecho, NVIDIA está adoptando una relación exclusiva con los clientes, prefiriendo uno. Las GPU Blackwell impulsarán la solución de servidor en la nube de Google y estarán disponibles a principios de 2025.

Con sus TPU más potentes junto con la integración de la arquitectura Blackwell de NVIDIA, Google sin duda será testigo de un aumento en el rendimiento de la informática de IA. Ciertamente lo necesitan, considerando la escala de progreso que la empresa ha logrado en la integración de la IA generativa en las principales aplicaciones de consumo y el rápido progreso con modelos de IA nuevos y existentes.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/google-revela-su-tpu-en-la-nube-mas-potente-trillium-y-tambien-anuncia-la-integracion-de-blackwell-de-nvidia/feed/ 0
Exynos 2500 podría utilizar el TPU de Google para la aceleración de la IA, haciéndolo realmente eficiente con la IA generativa https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/ https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/#respond Wed, 03 Apr 2024 15:12:24 +0000 https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/

Ahora que la IA se ha convertido en un pilar del mundo de la tecnología, es seguro decir que cada vez más empresas siguen adelante e implementan su propia versión. Samsung realmente hizo un gran trabajo con el Exynos 2400 e implementó un montón de funciones relacionadas con la IA con Galaxy AI. Sin embargo, es evidente que la empresa no ha terminado, ya que ha surgido un nuevo consejo que sugiere cómo el Exynos 2500 podría utilizar el TPU de Google para la aceleración de la IA. Si eso sucede, nos espera un placer porque habrá varias mejoras de IA en los dispositivos Galaxy S25 en ese momento.

El Exynos 2500 de Samsung podría ser un verdadero ganador siempre que la compañía juegue bien sus cartas

Ahora, para aquellos que se preguntan, la TPU o Unidad de Procesamiento Tensor debutó por primera vez en el Pixel 6 con el lanzamiento de la primera generación del procesador Tensor, y en los últimos años solo ha mejorado. Los conjuntos de chips Tensor se fabrican en colaboración con Samsung, por lo que es seguro decir que Samsung puede utilizar de manera eficiente la misma unidad de procesamiento cuando se trata del Exynos 2500.

Si Samsung sigue ese camino y decide utilizar el TPU de Google para el Exynos 2500, esto significará que la serie Galaxy S25 tendrá API de aprendizaje automático puras que podrán ejecutar varios modelos en el dispositivo. Para aquellos que no lo saben, la IA del Galaxy, a pesar de ser poderosa, se basa en gran medida en la nube, pero con una TPU dedicada en el chipset, las capacidades de la IA serán aún más poderosas, y estoy totalmente a favor.

La publicación también sugiere que el Exynos 2500 tendrá dos unidades de procesamiento neuronal: una será G-NP y la otra será S-NPU. Ahora, para aquellos que se preguntan, el conjunto de chips debutará en la serie Galaxy S25 y Samsung usará una combinación como lo hizo este año con la serie Galaxy S24, por lo que si está esperando un teléfono con más destreza en IA, tal vez quieras esperar.

El Exynos 2500 se está probando actualmente y considerando cómo Samsung realmente se está enfocando en asegurarse de que su chipset interno tenga la destreza que los usuarios buscan, realmente espero que los resultados sean prometedores y que realmente obtengamos algo sólido del Empresa surcoreana en el futuro.

¿Crees que Samsung tiene lo necesario para luchar contra Qualcomm y realmente ganar? Realmente espero que el Exynos 2500 muestre cuánto trabajo ha puesto Samsung en él.

Fuente de noticias: orexda

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/feed/ 0
Un ingeniero de Google supuestamente robó 500 archivos confidenciales que contienen secretos comerciales de IA para China, incluidos datos sobre chips de TPU y más https://magazineoffice.com/un-ingeniero-de-google-supuestamente-robo-500-archivos-confidenciales-que-contienen-secretos-comerciales-de-ia-para-china-incluidos-datos-sobre-chips-de-tpu-y-mas/ https://magazineoffice.com/un-ingeniero-de-google-supuestamente-robo-500-archivos-confidenciales-que-contienen-secretos-comerciales-de-ia-para-china-incluidos-datos-sobre-chips-de-tpu-y-mas/#respond Thu, 07 Mar 2024 11:00:07 +0000 https://magazineoffice.com/un-ingeniero-de-google-supuestamente-robo-500-archivos-confidenciales-que-contienen-secretos-comerciales-de-ia-para-china-incluidos-datos-sobre-chips-de-tpu-y-mas/

La carrera armamentista de IA entre Estados Unidos y China ha escalado a un nuevo nivel, y habrá algunos desertores en la mezcla que intentarán robar archivos altamente secretos para darle una ventaja a la otra región. Da la casualidad de que un ingeniero de Google, Linwei Ding, también conocido como Leon Ding, fue acusado por un gran jurado federal de supuestamente robar secretos comerciales relacionados con el software y hardware del chip de inteligencia artificial de Google el 5 de marzo. En una declaración, la Fiscal General Adjunta Lisa Monaco dijo que Ding tenía 500 archivos confidenciales que contenían secretos comerciales de IA y estaba en connivencia secreta con empresas con sede en China que intentaban tomar ventaja en la carrera de la IA.

El ingeniero transfirió los archivos ultrasecretos a su cuenta personal de Google antes de intentar huir y utilizó otros métodos para evitar ser descubierto.

Según informó The Verge, la mayoría de los datos robados contenían información sobre los chips de la unidad de procesamiento tensorial (TPU) de Google. Para aquellos que no lo saben, los chips TPU de Google impulsan muchas cargas de trabajo de IA y pueden entrenar y ejecutar modelos de IA como Gemini. El gigante de la publicidad también ofrece chips a través de plataformas asociadas como Hugging Face. También había diseños de software para los chips TPU v4 y v6, especificaciones de hardware y software para las GPU utilizadas en los centros de datos de Google y diseños para las cargas de trabajo de aprendizaje automático de Google en los centros de datos que se incluyeron en los 500 archivos robados.

En cuanto a cómo Ding logró descargar un montón de contenido confidencial sin ser descubierto, probablemente lo hizo mediante intervenciones, ya que entre mayo de 2022 y mayo de 2023, los archivos continuaron transfiriéndose a su cuenta personal de Google Cloud. Por supuesto, Ding tenía que evitar cualquier descubrimiento, por lo que copió datos de los archivos fuente de Google en la aplicación Apple Notes en la MacBook que le entregó la empresa. A partir de ahí, convirtió las notas de Apple a archivos PDF para evitar ser detectado por los «sistemas de prevención de pérdida de datos» de Google.

El Departamento de Justicia declaró que menos de un mes después de que comenzó a robar esos archivos, una empresa china de aprendizaje automático llamada Rongshu se acercó a Ding y le ofreció el puesto de director de tecnología. Posteriormente, Ding voló a China durante cinco meses para recaudar fondos para la empresa y, durante el mismo período, fundó y dirigió una startup de aprendizaje automático llamada Zhisuan. Recuerde que todo esto lo hizo mientras todavía estaba empleado y trabajando para Google. En diciembre de 2023, renunció al gigante tecnológico y reservó un boleto de ida a Beijing después de que Google sospechara de sus actividades y comenzara a interrogarlo sobre esas cargas.

Ding también tuvo un colega que lo ayudó en diciembre de 2023 mientras no estaba presente en las oficinas de Google. Este empleado escaneaba la placa de Ding durante el check-in, lo que impedía que sus superiores se enteraran de que se encontraba en China. Por sus crímenes, Ding ha sido acusado de cuatro cargos de robo de secretos comerciales, lo que significa que podría enfrentar hasta 10 años de prisión y una multa de 250.000 dólares por cada cargo si es declarado culpable, lo que eleva ese total a un millón de dólares. Si desea obtener más información sobre este incidente, haga clic en el enlace a continuación.

Fuente de noticias: Oficina de Asuntos Públicos

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/un-ingeniero-de-google-supuestamente-robo-500-archivos-confidenciales-que-contienen-secretos-comerciales-de-ia-para-china-incluidos-datos-sobre-chips-de-tpu-y-mas/feed/ 0
Google anuncia sus chips aceleradores de IA e hipercomputadora de IA Cloud TPU v5p de próxima generación https://magazineoffice.com/google-anuncia-sus-chips-aceleradores-de-ia-e-hipercomputadora-de-ia-cloud-tpu-v5p-de-proxima-generacion/ https://magazineoffice.com/google-anuncia-sus-chips-aceleradores-de-ia-e-hipercomputadora-de-ia-cloud-tpu-v5p-de-proxima-generacion/#respond Fri, 08 Dec 2023 06:18:04 +0000 https://magazineoffice.com/google-anuncia-sus-chips-aceleradores-de-ia-e-hipercomputadora-de-ia-cloud-tpu-v5p-de-proxima-generacion/

Google ha anunciado el acelerador de IA flexible y escalable «más potente» de la compañía, denominado Cloud TPU v5p junto con un nuevo modelo de hipercomputadora de IA.

Google planea tomar las riendas del tren de la IA a través de su nuevo chip TPV v5p en la nube y soluciones de hipercomputadora de IA

Con el rápido progreso de los mercados de IA, las empresas están avanzando hacia sus soluciones cuando se trata de proporcionar potencia informática a los desarrollos en curso. Empresas como Microsoft con su Maia 100 AI Accelerator y Amazon con su Trainium2 pretenden sobresalir entre sí cuando se trata de hardware de rendimiento optimizado para abordar cargas de trabajo de IA, y Google de hecho se ha sumado a la lista.

Ahora Google ha presentado varios elementos interesantes, como su nuevo modelo Gemini para la industria de la inteligencia artificial, pero nuestra cobertura se centrará más en el lado del hardware. Cloud TPU v5p es la TPU (Unidad de procesamiento de tensor de nube) más capaz y rentable de Google hasta la fecha. Cada módulo TPU v5p consta de la friolera de 8960 chips interconectados utilizando la conexión entre chips de mayor ancho de banda a 4800 Gbps por chip, lo que garantiza velocidades de transferencia rápidas y un rendimiento óptimo. Google no parece detenerse, ya que las próximas cifras del salto generacional te sorprenderán.

Fuente de la imagen: Google Cloud

En comparación con el TPU v4, el v5p recién lanzado viene con dos veces más FLOPS (operaciones de punto flotante por segundo) y tres veces más ancho de banda de memoria alta, lo cual es sorprendente si se considera en el dominio de la inteligencia artificial.

Además, en cuanto al entrenamiento de modelos, el TPU v5p muestra un salto generacional de 2,8 veces en las velocidades de entrenamiento LLM. Google también ha creado espacio para exprimir más potencia informática, ya que el TPU v5p es «4 veces más escalable que el TPU v4 en términos de FLOP totales disponibles por pod».

1_próxima-generación_ai_workloads-max-2000x2000
2_próxima-generación_ai_workloads-max-2000x2000

Resumiendo cosas para el chip AI Google Cloud TPU v5p:

  • 2 veces más fracasos en comparación con TPU v4 (459 TFLOP Bf16 / 918 TOP INT8)
  • 3 veces más capacidad de memoria en comparación con TPU v4 (95 GB HBM)
  • Formación LLM 2,8 veces más rápida
  • Entrenamiento de modelos densos con incrustación 1,9 veces más rápido
  • 2,25 veces más ancho de banda en comparación con TPU v4 (2765 GB/s frente a 1228 GB/s)
  • Ancho de banda de interconexión de interchip 2X versus TPU v4 (4800 Gbps versus 2400 Gbps)

Google ha reconocido el aparente éxito a la hora de tener los mejores recursos de hardware y software a bordo, por lo que la empresa cuenta con una hipercomputadora de IA, que es un «conjunto» de elementos diseñados para trabajar en cooperación para permitir cargas de trabajo de IA modernas. Google ha integrado computación con rendimiento optimizado, almacenamiento óptimo y refrigeración líquida para aprovechar todas las inmensas capacidades y generar un rendimiento que de hecho es una maravilla de la industria en sí.

Fuente de la imagen: Google Cloud

En cuanto al software, Google ha intensificado el uso de software abierto para ajustar sus cargas de trabajo de IA y garantizar el mejor rendimiento de su hardware. A continuación se muestra un resumen de los recursos de software recién agregados en AI Hypercomputer:

  • Un amplio soporte para marcos de aprendizaje automático populares, como JAX, TensorFlow y PyTorch, está disponible desde el primer momento. Tanto JAX como PyTorch funcionan con el compilador OpenXLA para crear LLM sofisticados. XLA sirve como columna vertebral fundamental, permitiendo la creación de modelos complejos de múltiples capas (entrenamiento e inferencia de Llama 2 en Cloud TPU con PyTorch/XLA). Optimiza las arquitecturas distribuidas en una amplia gama de plataformas de hardware, lo que garantiza un desarrollo de modelos eficiente y fácil de usar para diversos casos de uso de IA (AssemblyAI aprovecha JAX/XLA y Cloud TPU para el habla de IA a gran escala).
  • El software abierto y exclusivo Multislice Training y Multihost Inferencing, respectivamente, hace que escalar, entrenar y atender cargas de trabajo sea fluido y sencillo. Los desarrolladores pueden escalar a decenas de miles de chips para soportar cargas de trabajo de IA exigentes.
  • Integración profunda con Google Kubernetes Engine (GKE) y Google Compute Engine, para brindar administración eficiente de recursos, entornos de operaciones consistentes, escalado automático, aprovisionamiento automático de grupos de nodos, puntos de verificación automáticos, reanudación automática y recuperación oportuna de fallas.

El enfoque revolucionario de Google hacia la inteligencia artificial es bastante evidente con su nuevo conjunto de elementos de hardware y software, todos listos para romper las barreras que limitan la industria. Será interesante ver cómo las nuevas unidades de procesamiento Cloud TPU v5p, junto con la hipercomputadora AI, ayudan en los desarrollos en curso, pero una cosa es segura: seguramente aumentarán la competencia.

Fuente de noticias: Google Cloud

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/google-anuncia-sus-chips-aceleradores-de-ia-e-hipercomputadora-de-ia-cloud-tpu-v5p-de-proxima-generacion/feed/ 0
Google anuncia Cloud TPU v5p, su acelerador de IA más potente hasta el momento https://magazineoffice.com/google-anuncia-cloud-tpu-v5p-su-acelerador-de-ia-mas-potente-hasta-el-momento/ https://magazineoffice.com/google-anuncia-cloud-tpu-v5p-su-acelerador-de-ia-mas-potente-hasta-el-momento/#respond Fri, 08 Dec 2023 01:41:17 +0000 https://magazineoffice.com/google-anuncia-cloud-tpu-v5p-su-acelerador-de-ia-mas-potente-hasta-el-momento/

Google anunció hoy el lanzamiento de su nuevo modelo de lenguaje grande (LLM) Gemini y con eso, la compañía también lanzó su nuevo Cloud TPU v5p, una versión actualizada de su Cloud TPU v5e, que se lanzó a disponibilidad general a principios de este año. Un pod v5p consta de un total de 8960 chips y está respaldado por la interconexión más rápida de Google hasta el momento, con hasta 4800 Gpbs por chip.

No sorprende que Google prometa que estos chips son significativamente más rápidos que los TPU v4. El equipo afirma que el v5p presenta una mejora de 2 veces en FLOPS y una mejora de 3 veces en memoria de gran ancho de banda. Sin embargo, eso es un poco como comparar el nuevo modelo Gemini con el modelo anterior OpenAI GPT 3.5. Después de todo, el propio Google ya ha llevado el estado del arte más allá del TPU v4. Sin embargo, en muchos sentidos, los pods v5e estaban un poco por debajo del pod v4, con solo 256 chips v5e por pod versus 4096 en los pods v4 y un total de 197 TFLOP de rendimiento de punto flotante de 16 bits por chip v5e versus 275 para los chips v4. Para el nuevo v5p, Google promete hasta 459 TFLOP de rendimiento de punto flotante de 16 bits, respaldado por una interconexión más rápida.

Créditos de imagen: Google

Google dice que todo esto significa que la TPU v5p puede entrenar un modelo de lenguaje grande como GPT3-175B 2,8 veces más rápido que la TPU v4, y también hacerlo de manera más rentable (aunque la TPU v5e, aunque es más lenta, en realidad ofrece un mayor rendimiento relativo). por dólar que el v5p).

Créditos de imagen: Google

En nuestra etapa inicial de uso, Google DeepMind y Google Research han observado aceleraciones 2 veces mayores para las cargas de trabajo de capacitación LLM utilizando chips TPU v5p en comparación con el rendimiento de nuestra generación TPU v4”, escribe Jeff Dean, científico jefe de Google DeepMind y Google Research. “El sólido soporte para ML Frameworks (JAX, PyTorch, TensorFlow) y herramientas de orquestación nos permite escalar aún más eficientemente en v5p. Con la segunda generación de SparseCores también vemos una mejora significativa en el rendimiento de cargas de trabajo con muchas incorporaciones. Los TPU son vitales para permitir nuestros esfuerzos de investigación e ingeniería a mayor escala en modelos de vanguardia como Gemini”.

El nuevo TPU v5p aún no está disponible de forma generalizada, por lo que los desarrolladores tendrán que comunicarse con su administrador de cuentas de Google para estar en la lista.



Source link-48

]]>
https://magazineoffice.com/google-anuncia-cloud-tpu-v5p-su-acelerador-de-ia-mas-potente-hasta-el-momento/feed/ 0
Tensor G3 detalla las especificaciones filtradas, con 9 núcleos de CPU en total, soporte de almacenamiento UFS 4.0 más rápido, TPU mejorado y más https://magazineoffice.com/tensor-g3-detalla-las-especificaciones-filtradas-con-9-nucleos-de-cpu-en-total-soporte-de-almacenamiento-ufs-4-0-mas-rapido-tpu-mejorado-y-mas/ https://magazineoffice.com/tensor-g3-detalla-las-especificaciones-filtradas-con-9-nucleos-de-cpu-en-total-soporte-de-almacenamiento-ufs-4-0-mas-rapido-tpu-mejorado-y-mas/#respond Mon, 05 Jun 2023 02:44:38 +0000 https://magazineoffice.com/tensor-g3-detalla-las-especificaciones-filtradas-con-9-nucleos-de-cpu-en-total-soporte-de-almacenamiento-ufs-4-0-mas-rapido-tpu-mejorado-y-mas/

Google no mostró una vista previa del Tensor G3 en su presentación principal de E/S, pero el conjunto de chips que eventualmente alimentará a la familia Pixel 8 tiene sus especificaciones proporcionadas, gracias a una filtración completa. En cuanto a la cantidad de núcleos de CPU que tendrá, la información reciente indica que serán nueve en total, pero una vez más, Google no tiene intenciones de competir con Snapdragon 8 Gen 3 o Dimensity 9300, como lo hará pronto. descubrir.

Dejando a un lado las mejoras, también se dice que el Tensor G3 es el primer SoC de teléfono inteligente compatible con la codificación AV1.

Comencemos con la configuración de la CPU primero, y Android Authority ha publicado una tonelada de información, cortesía de Kamila Wojciechowska, quien ha compartido filtraciones similares anteriormente, que incluyen el próximo Snapdragon 8 Gen 3. En cuanto al Tensor G3, es sorprendente que No se mencionó el proceso de fabricación, aunque creemos que en este caso se utilizará la tecnología de 4nm de tercera generación de Samsung. El Tensor G3 también se basa en el Exynos 2300 inédito.

La CPU de 9 núcleos se divide en una núcleo único Cortex-X3 corriendo a 3.00GHz, cuatro núcleos Cortex-A715 con una frecuencia predeterminada de 2,45 GHz, y cuatro núcleos de eficiencia Cortex-A510. La GPU probablemente será la ARM Mali-G715 con 10 núcleos, una frecuencia de 890 MHz y, por supuesto, soporte de trazado de rayos. Como puede ver, el Tensor G3 está toda una generación detrás del próximo Snapdragon 8 Gen 3 y Dimensity 9300, pero es obvio que los chips de Google no están enfocados en ser los más rápidos o los más eficientes.

El G3 también será el primer SoC de teléfono inteligente en obtener compatibilidad con la codificación AV1, con el códec multifunción (MFC) que ahora admite la decodificación y codificación de video 8K30. Esto puede significar que, si bien el hardware de Pixel 8 puede admitir la resolución y la velocidad de fotogramas antes mencionadas al grabar video, Kamila cree que este no será el caso debido a problemas de sobrecalentamiento y consumo de almacenamiento. Según los informes, una nueva TPU con el nombre en código ‘Rio’ funciona a 1,10 GHz en el Tensor G3 y se considera una mejora importante con respecto a la TPU del Tensor G2.

Sin embargo, aunque deberíamos esperar mejoras como una compatibilidad más rápida con UFS 4.0 para velocidades de lectura y escritura más rápidas, sin mencionar que las aplicaciones se abren mucho más rápido y todo el dispositivo se siente significativamente más fluido, el Tensor G3 no verá mejoras significativas en comparación con su predecesor en otros áreas No se esperan actualizaciones importantes del módem, ya que se informa que el G3 luce el mismo chip que el G2, aunque se dice que debería haber diferencias menores aquí.

Estamos decepcionados de que Google una vez más haya optado por no adoptar los últimos núcleos Cortex-X4 y Cortex-A720 de ARM para el Tensor G3, y contemplamos cuándo la empresa finalmente cambiará a TSMC para futuros conjuntos de chips. Independientemente del rendimiento del conjunto de chips, si el Pixel 8 y el Pixel 8 Pro pueden ofrecer una experiencia impecable sin tener demasiados problemas de sobrecalentamiento, Google podría tener una buena recepción con sus productos estrella este año.

Fuente de noticias: Autoridad de Android

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/tensor-g3-detalla-las-especificaciones-filtradas-con-9-nucleos-de-cpu-en-total-soporte-de-almacenamiento-ufs-4-0-mas-rapido-tpu-mejorado-y-mas/feed/ 0