eficiente – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Fri, 10 May 2024 17:49:56 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Según se informa, el M4 de Apple ha adoptado la arquitectura ARMv9, lo que le permite ejecutar cargas de trabajo complejas de manera más eficiente, lo que resulta en mayores ganancias de uno y varios núcleos. https://magazineoffice.com/segun-se-informa-el-m4-de-apple-ha-adoptado-la-arquitectura-armv9-lo-que-le-permite-ejecutar-cargas-de-trabajo-complejas-de-manera-mas-eficiente-lo-que-resulta-en-mayores-ganancias-de-uno-y-varios/ https://magazineoffice.com/segun-se-informa-el-m4-de-apple-ha-adoptado-la-arquitectura-armv9-lo-que-le-permite-ejecutar-cargas-de-trabajo-complejas-de-manera-mas-eficiente-lo-que-resulta-en-mayores-ganancias-de-uno-y-varios/#respond Fri, 10 May 2024 17:49:53 +0000 https://magazineoffice.com/segun-se-informa-el-m4-de-apple-ha-adoptado-la-arquitectura-armv9-lo-que-le-permite-ejecutar-cargas-de-trabajo-complejas-de-manera-mas-eficiente-lo-que-resulta-en-mayores-ganancias-de-uno-y-varios/

El M4 se anunció oficialmente durante el evento ‘Let Loose’ de Apple, y la compañía elogió en masa la versión de CPU de 10 núcleos. Lo que nos impresionó mucho fue cuando informamos que el último chipset superó ampliamente al M3 y al M2 y al mismo tiempo logró una buena ventaja frente al M3 Pro y el Snapdragon X Elite.

Si bien algunos podrían atribuir estas mejoras de rendimiento a que Apple cambió al proceso de 3 nm de segunda generación de TSMC para el M4, varios hallazgos revelan que la compañía ha cambiado a la arquitectura ARMv9 con esta versión. En resumen, el nuevo Apple Silicon ahora puede ejecutar tareas más complejas de manera eficiente, lo que también puede explicar sus altas puntuaciones de un solo núcleo y de múltiples núcleos en Geekbench 6.

La mayor ventaja que tiene M4 frente a la competencia es la compatibilidad con Scalable Matrix Extension (SME), que ayuda a aumentar el rendimiento en todos los ámbitos.

Con una ventaja del 45 por ciento en múltiples núcleos frente al M2, aumentar la frecuencia de los núcleos de rendimiento a 4,40 GHz y aumentar el número total de núcleos de la CPU no es el único cambio que Apple tuvo que implementar para alcanzar una nueva puntuación en Geekbench 6. Según YouTuber Vadim Yúrievel M4 ahora se fabrica utilizando el conjunto de instrucciones ARMv9, que es superior a NEON y permite que el conjunto de chips ejecute cargas de trabajo complejas de manera eficiente.

El creador de contenido no es el único que compartió hallazgos similares en X porque un informante se hizo pasar por el identificador. @negativoonehero También se reveló a través de un rumor externo que el M4 tiene soporte para SME o Scalable Matrix Extension. Se está produciendo una discusión en el hilo del informante, que contempla si SME realmente ha beneficiado al M4 en las ejecuciones de rendimiento de un solo núcleo y de múltiples núcleos de Geekbench 6.

Las respuestas dadas parecen indicar que este es el caso y al mismo tiempo mencionan que el Snapdragon 8 Gen 4 carecerá de SME ya que está basado en el Snapdragon X Elite. Esta afirmación sugiere que el próximo SoC de Qualcomm podría ser potencialmente más lento que el A18 Pro, ya que también se dice que este último cambia a la arquitectura ARMv9, otorgándole atributos de rendimiento similares a los del M4.

Lo interesante de estos hallazgos es que Apple no mencionó que el M4 es compatible con la nueva arquitectura ARMv9. Exponer este intrincado detalle mientras se ofrecen algunas comparaciones de referencia podría haber entusiasmado a más personas con la última versión. Es posible que la compañía divulgue esta información cuando presente el A18 y el A18 Pro para la familia iPhone 16 a finales de este año, ya que eso podría obligar a los consumidores a actualizar a los últimos modelos. Veremos más hallazgos para estar absolutamente seguros de que la adopción de la arquitectura ARMv9 por parte del M4 es la razón de sus enormes ganancias de rendimiento, así que estad atentos para más actualizaciones.

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/segun-se-informa-el-m4-de-apple-ha-adoptado-la-arquitectura-armv9-lo-que-le-permite-ejecutar-cargas-de-trabajo-complejas-de-manera-mas-eficiente-lo-que-resulta-en-mayores-ganancias-de-uno-y-varios/feed/ 0
La RAM para portátiles montada por compresión es rápida, eficiente y actualizable https://magazineoffice.com/la-ram-para-portatiles-montada-por-compresion-es-rapida-eficiente-y-actualizable/ https://magazineoffice.com/la-ram-para-portatiles-montada-por-compresion-es-rapida-eficiente-y-actualizable/#respond Wed, 08 May 2024 09:35:48 +0000 https://magazineoffice.com/la-ram-para-portatiles-montada-por-compresion-es-rapida-eficiente-y-actualizable/

El primer portátil con memoria LPCAMM2 por fin está aquí. El gente de iFixit consiguió el Lenovo ThinkPad P1 (Gen 7), que utiliza memoria LPDDR5X en un módulo LPCAMM2 que puede actualizar o reemplazar simplemente desenroscándolo de la placa base de la computadora portátil.

Este es un cambio importante con respecto a la memoria LPDDR existente en la mayoría de las computadoras portátiles modernas. Este tipo de memoria suele estar soldada a la placa base, lo que dificulta mucho su actualización. LPCAMM2, o módulo de memoria conectado por compresión de bajo consumo, ofrece modularidad sin perder la eficiencia energética de LPDDR.

La RAM DDR tradicional utiliza unidades SODIMM que se insertan en la placa base, al igual que en las PC de escritorio. Como señala iFixit, LPDDR es mucho más eficiente energéticamente, pero debe soldarse directamente a la placa base, lo más cerca posible del procesador. Hasta ahora, los fabricantes han tenido que elegir entre RAM actualizable y RAM de bajo consumo. LPCAMM2 intenta dividir la diferencia acoplándose a la placa base con tornillos, en lugar de soldarlos. Y a diferencia de los dispositivos SODIMM, cada módulo LPCAMM2 es de doble canal, por lo que solo necesita uno, no dos.

Como se muestra en el video práctico publicado por iFixit, puede reemplazar el LPCAMM2 en el nuevo ThinkPad P1 de Lenovo quitando el respaldo de la computadora portátil y luego sacando la batería. Desde allí, puede sacar el LPCAMM2 quitando tres tornillos de cabeza Phillips.

Además de Micron, Samsung y ADATA también se están sumando a LPCAMM2. Con suerte, eso significará que podrás actualizar tu memoria si viene con un miserable 8 GB de RAMpero probablemente no podamos contar con que todos los fabricantes hagan el cambio.



Source link-37

]]> https://magazineoffice.com/la-ram-para-portatiles-montada-por-compresion-es-rapida-eficiente-y-actualizable/feed/ 0 5 nm, 128 GB HBM2e, hasta 900 W, 50 % más rápido que NVIDIA H100 y 40 % más eficiente https://magazineoffice.com/5-nm-128-gb-hbm2e-hasta-900-w-50-mas-rapido-que-nvidia-h100-y-40-mas-eficiente/ https://magazineoffice.com/5-nm-128-gb-hbm2e-hasta-900-w-50-mas-rapido-que-nvidia-h100-y-40-mas-eficiente/#respond Tue, 09 Apr 2024 23:12:58 +0000 https://magazineoffice.com/5-nm-128-gb-hbm2e-hasta-900-w-50-mas-rapido-que-nvidia-h100-y-40-mas-eficiente/

Intel finalmente ha revelado su acelerador de IA de próxima generación, el Gaudi 3, basado en un nodo de proceso de 5 nm y que compite directamente con las GPU H100 de NVIDIA.

Los aceleradores de IA Intel Gaudi 3 luchan contra NVIDIA y ofrecen un rendimiento de IA un 50 % más rápido en promedio y un 40 % de eficiencia

Los aceleradores de IA Gaudí de Intel han sido un gran competidor y la única alternativa a las GPU de NVIDIA en el segmento de IA. Recientemente vimos algunas comparaciones acaloradas entre las GPU Gaudi 2 y NVIDIA A100/H100, con Intel mostrando su fuerte liderazgo en rendimiento/$, mientras que NVIDIA se mantuvo como líder general en IA en términos de rendimiento. Ahora comienza el tercer capítulo en el viaje de Intel a la IA con su acelerador Gaudi 3, que se ha detallado completamente.

Intel presentó el acelerador de IA Intel Gaudi 3 el 9 de abril de 2024 en el evento Intel Vision en Phoenix, Arizona. Está diseñado para brindar a las empresas globales opciones para la IA generativa, basándose en el rendimiento y la escalabilidad de su predecesor Gaudi 2. (Crédito: Corporación Intel)

La compañía anunció el acelerador Gaudi 3, que presenta la última arquitectura Tensor Core (quinta generación) con un total de 64 núcleos tensoriales empaquetados en dos matrices de cómputo. La GPU en sí tiene un grupo de caché de 96 MB que se comparte entre ambas matrices y hay ocho sitios HBM, cada uno con pilas de 8 hi de 16 Gb HBM2e DRAM para capacidades de hasta 128 GB y ancho de banda de hasta 3,7 TB/s. Todo el chip se fabrica utilizando la tecnología de nodo de proceso TSMC de 5 nm y hay un total de 24 enlaces de interconexión de 200 GbE.

En términos de ofertas de productos, los aceleradores Intel Gaudi 3 AI vendrán en formato Mezzanine OAM (HL-325L) con variantes estándar de hasta 900 W y más de 900 W con refrigeración líquida y PCIe AIC con altura completa, doble ancho y Diseño de 10,5″ de longitud. Las tarjetas PCIe Gaudi 3 HL-338 vendrán con refrigeración pasiva y admitirán hasta 600 W TDP con las mismas especificaciones que la variante OAM.

La compañía también anunció su propia placa base HLB-325 y su subsistema integrado HLFB-325L que puede transportar hasta 8 aceleradores Gaudi 3. Este sistema tiene un TDP combinado de 7,6 kilovatios y mide 19″.

La continuación de Gaudi 3 vendrá en forma de Falcon Shores, que se espera para 2025 y combinará las IP Gaudi y Xe en una única interfaz de programación de GPU construida en torno a la especificación Intel oneAPI.

Presione soltar: En Intel Vision, Intel presenta el acelerador de IA Intel Gaudi 3, que ofrece 4 veces computación de IA para BF16, 1,5 veces más ancho de banda de memoria y 2 veces más ancho de banda de red para una ampliación masiva del sistema en comparación con su predecesor: un salto significativo en rendimiento y productividad. para entrenamiento e inferencia de IA en modelos de lenguaje grande (LLM) y modelos multimodales populares.

El acelerador Intel Gaudi 3 cumplirá con estos requisitos y ofrecerá versatilidad a través de software abierto basado en la comunidad y Ethernet abierto estándar de la industria, ayudando a las empresas a escalar de manera flexible sus sistemas y aplicaciones de IA.

Cómo la arquitectura personalizada ofrece rendimiento y eficiencia GenAI: El acelerador Intel Gaudi 3, diseñado para una computación eficiente de IA a gran escala, se fabrica en un proceso de 5 nanómetros (nm) y ofrece avances significativos con respecto a su predecesor. Está diseñado para permitir la activación de todos los motores en paralelo, con Matrix Multiplication Engine (MME), Tensor Processor Cores (TPC) y Networking Interface Cards (NIC), lo que permite la aceleración necesaria para una computación y escala de aprendizaje profundo rápidas y eficientes. Las características clave incluyen:

  • Motor informático dedicado a la IA: El acelerador Intel Gaudi 3 fue diseñado específicamente para computación GenAI de alto rendimiento y alta eficiencia. Cada acelerador presenta de forma única un motor informático heterogéneo compuesto por 64 TPC programables y personalizados con IA y ocho MME. Cada Intel Gaudi 3 MME es capaz de realizar la impresionante cifra de 64.000 operaciones paralelas, lo que permite un alto grado de eficiencia computacional, lo que los hace expertos en el manejo de operaciones matriciales complejas, un tipo de cálculo que es fundamental para los algoritmos de aprendizaje profundo. Este diseño único acelera la velocidad y la eficiencia de las operaciones paralelas de IA y admite múltiples tipos de datos, incluidos FP8 y BF16.
  • Aumento de memoria para requisitos de capacidad de LLM: 128 gigabytes (GB) de capacidad de memoria HBMe2, 3,7 terabytes (TB) de ancho de banda de memoria y 96 megabytes (MB) de memoria estática de acceso aleatorio (SRAM) integrada proporcionan amplia memoria para procesar grandes conjuntos de datos GenAI en menos Intel Gaudi 3. particularmente útil para servir modelos multimodales y de lenguaje grande, lo que resulta en un mayor rendimiento de la carga de trabajo y rentabilidad del centro de datos.
  • Escalado eficiente del sistema para GenAI empresarial: Veinticuatro puertos Ethernet de 200 gigabit (Gb) están integrados en cada acelerador Intel Gaudi 3, lo que proporciona una red flexible y de estándar abierto. Permiten un escalamiento eficiente para admitir grandes clústeres de computación y eliminar la dependencia de proveedores de estructuras de redes patentadas. El acelerador Intel Gaudi 3 está diseñado para escalar y escalar de manera eficiente desde un solo nodo a miles para cumplir con los amplios requisitos de los modelos GenAI.
  • Software de industria abierta para la productividad de los desarrolladores: El software Intel Gaudi integra el marco PyTorch y proporciona modelos optimizados basados ​​en la comunidad Hugging Face, el marco de IA más común para los desarrolladores de GenAI en la actualidad. Esto permite a los desarrolladores de GenAI operar a un alto nivel de abstracción para facilitar el uso, la productividad y la facilidad de transferencia de modelos entre tipos de hardware.
  • Gaudí 3 PCIe: Una novedad en la línea de productos es la tarjeta complementaria PCIe (interconexión rápida de componentes periféricos) Gaudi 3. Diseñado para brindar alta eficiencia con menor consumo de energía, este nuevo factor de forma es ideal para cargas de trabajo como ajuste fino, inferencia y generación aumentada de recuperación (RAG). Está equipado con un factor de forma de altura completa de 600 vatios, con una capacidad de memoria de 128 GB y un ancho de banda de 3,7 TB por segundo.
Intel presentó el acelerador de IA Gaudi 3 el 9 de abril de 2024 en el evento Intel Vision en Phoenix, Arizona. El acelerador ofrece cómputo de IA 4 veces mayor para BF16 y un aumento de 1,5 veces el ancho de banda de la memoria en comparación con su predecesor. (Crédito: Corporación Intel)

El acelerador Intel Gaudi 3 ofrecerá importantes mejoras de rendimiento para tareas de capacitación e inferencia en los principales modelos GenAI. Específicamente, se prevé que el acelerador Intel Gaudi 3 ofrezca un rendimiento promedio en comparación con NVIDIA H100:

  • Tiempo de entrenamiento un 50% más rápido en los parámetros Llama2 7B y 13B, y en los modelos de parámetros GPT-3 175B.
  • Rendimiento de inferencia un 50 % más rápido y 40 % más de eficiencia energética de inferencia en los parámetros Llama 7B y 70B, y en los modelos de parámetros Falcon 180B. Una ventaja de rendimiento de inferencia aún mayor en secuencias de entrada y salida más largas.
  • Inferencia un 30 % más rápida en los parámetros Llama 7B y 70B, y los modelos de parámetros Falcon 180B contra NVIDIA H200.

Acerca de la adopción y disponibilidad del mercado: El acelerador Intel Gaudi 3 estará disponible para los fabricantes de equipos originales (OEM) en el segundo trimestre de 2024 en configuraciones estándar de la industria de placa base universal y módulo de acelerador abierto (OAM). Entre los adoptantes OEM notables que llevarán Gaudi 3 al mercado se encuentran Dell Technologies, HPE, Lenovo y Supermicro. Se prevé la disponibilidad general de los aceleradores Intel Gaudi 3 para el tercer trimestre de 2024, y se prevé que la tarjeta complementaria Intel Gaudi 3 PCIe esté disponible en el último trimestre de 2024.

Intel presentó el acelerador de IA Intel Gaudi 3 el 9 de abril de 2024 en el evento Intel Vision en Phoenix, Arizona. El acelerador de IA está diseñado para derribar barreras patentadas y brindar opciones al mercado de IA generativa empresarial. (Crédito: Corporación Intel)

El acelerador Intel Gaudi 3 también impulsará varias infraestructuras LLM en la nube rentables para capacitación e inferencia, ofreciendo ventajas y opciones de precio-rendimiento a las organizaciones que ahora incluyen NAVER.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/5-nm-128-gb-hbm2e-hasta-900-w-50-mas-rapido-que-nvidia-h100-y-40-mas-eficiente/feed/ 0
Exynos 2500 podría utilizar el TPU de Google para la aceleración de la IA, haciéndolo realmente eficiente con la IA generativa https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/ https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/#respond Wed, 03 Apr 2024 15:12:24 +0000 https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/

Ahora que la IA se ha convertido en un pilar del mundo de la tecnología, es seguro decir que cada vez más empresas siguen adelante e implementan su propia versión. Samsung realmente hizo un gran trabajo con el Exynos 2400 e implementó un montón de funciones relacionadas con la IA con Galaxy AI. Sin embargo, es evidente que la empresa no ha terminado, ya que ha surgido un nuevo consejo que sugiere cómo el Exynos 2500 podría utilizar el TPU de Google para la aceleración de la IA. Si eso sucede, nos espera un placer porque habrá varias mejoras de IA en los dispositivos Galaxy S25 en ese momento.

El Exynos 2500 de Samsung podría ser un verdadero ganador siempre que la compañía juegue bien sus cartas

Ahora, para aquellos que se preguntan, la TPU o Unidad de Procesamiento Tensor debutó por primera vez en el Pixel 6 con el lanzamiento de la primera generación del procesador Tensor, y en los últimos años solo ha mejorado. Los conjuntos de chips Tensor se fabrican en colaboración con Samsung, por lo que es seguro decir que Samsung puede utilizar de manera eficiente la misma unidad de procesamiento cuando se trata del Exynos 2500.

Si Samsung sigue ese camino y decide utilizar el TPU de Google para el Exynos 2500, esto significará que la serie Galaxy S25 tendrá API de aprendizaje automático puras que podrán ejecutar varios modelos en el dispositivo. Para aquellos que no lo saben, la IA del Galaxy, a pesar de ser poderosa, se basa en gran medida en la nube, pero con una TPU dedicada en el chipset, las capacidades de la IA serán aún más poderosas, y estoy totalmente a favor.

La publicación también sugiere que el Exynos 2500 tendrá dos unidades de procesamiento neuronal: una será G-NP y la otra será S-NPU. Ahora, para aquellos que se preguntan, el conjunto de chips debutará en la serie Galaxy S25 y Samsung usará una combinación como lo hizo este año con la serie Galaxy S24, por lo que si está esperando un teléfono con más destreza en IA, tal vez quieras esperar.

El Exynos 2500 se está probando actualmente y considerando cómo Samsung realmente se está enfocando en asegurarse de que su chipset interno tenga la destreza que los usuarios buscan, realmente espero que los resultados sean prometedores y que realmente obtengamos algo sólido del Empresa surcoreana en el futuro.

¿Crees que Samsung tiene lo necesario para luchar contra Qualcomm y realmente ganar? Realmente espero que el Exynos 2500 muestre cuánto trabajo ha puesto Samsung en él.

Fuente de noticias: orexda

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/exynos-2500-podria-utilizar-el-tpu-de-google-para-la-aceleracion-de-la-ia-haciendolo-realmente-eficiente-con-la-ia-generativa/feed/ 0
El gigante de la inteligencia artificial Nvidia anuncia un chip mucho más eficiente https://magazineoffice.com/el-gigante-de-la-inteligencia-artificial-nvidia-anuncia-un-chip-mucho-mas-eficiente/ https://magazineoffice.com/el-gigante-de-la-inteligencia-artificial-nvidia-anuncia-un-chip-mucho-mas-eficiente/#respond Mon, 18 Mar 2024 23:23:50 +0000 https://magazineoffice.com/el-gigante-de-la-inteligencia-artificial-nvidia-anuncia-un-chip-mucho-mas-eficiente/

Europa 1

con AFP // Créditos: METIN AKTAS / ANADOLU / ANADOLU VIA AFP

El grupo estadounidense Nvidia presentó el lunes su chip electrónico destinado a apoyar la revolución de la inteligencia artificial (IA), llamado Blackwell. Estos dispositivos tienen una capacidad informática mucho mayor que los microprocesadores tradicionales y constituyen uno de los principales ingredientes de la IA generativa.

El grupo estadounidense Nvidia presentó el lunes su último chip electrónico destinado a apoyar la revolución del inteligencia artificial (IA), llamó Blackwell, durante una presentación en San José (California). «Necesitamos GPU más grandes. Así que, señoras y señores, me gustaría presentarles una GPU muy, muy grande», anunció Jensen Huang, jefe del grupo, durante una conferencia para desarrolladores que tuvo lugar en el Centro SAP, un sala con 18.000 asientos.

Las GPU (unidades de procesamiento de gráficos) son chips con una capacidad informática mucho mayor que los microprocesadores (CPU) tradicionales. Constituyen uno de los principales ingredientes de la IA generativa. El evento, apodado el «Woodstock de la IA» por el analista de Wedbush Dan Ives, se ha convertido en una cita obligada en el calendario de los principales actores de las nuevas tecnologías debido al papel único de Nvidia en la revolución de la inteligencia artificial que el mundo conoce desde la aparición de ChatGPT a finales de 2022.

Picos del mercado de valores

Esta posición de liderazgo dentro de la revolución de la IA ha impulsado la acción de Nvidia a máximos bursátiles: +267% en un año y +80% desde principios de 2024. El grupo Santa Clara ha superado a Amazon en materia de capitalización bursátil. El 23 de febrero superó incluso el umbral simbólico de los 2 billones de dólares de valoración, una altitud que sólo Microsoft, Apple y la petrolera Saudi Aramco han conocido.



Source link-59

]]>
https://magazineoffice.com/el-gigante-de-la-inteligencia-artificial-nvidia-anuncia-un-chip-mucho-mas-eficiente/feed/ 0
Galaxy Watch 7 podría lanzarse en tres variantes y también traerá un conjunto de chips más eficiente que antes https://magazineoffice.com/galaxy-watch-7-podria-lanzarse-en-tres-variantes-y-tambien-traera-un-conjunto-de-chips-mas-eficiente-que-antes/ https://magazineoffice.com/galaxy-watch-7-podria-lanzarse-en-tres-variantes-y-tambien-traera-un-conjunto-de-chips-mas-eficiente-que-antes/#respond Fri, 15 Mar 2024 16:21:49 +0000 https://magazineoffice.com/galaxy-watch-7-podria-lanzarse-en-tres-variantes-y-tambien-traera-un-conjunto-de-chips-mas-eficiente-que-antes/

Todos sabemos que Samsung se está preparando para varios lanzamientos este julio. Además de los nuevos teléfonos plegables, la compañía presentará nuevos dispositivos portátiles. Hemos pasado bastante tiempo hablando sobre el Galaxy Ring y ahora es el momento de arrojar luz sobre la serie Galaxy Watch 7, que también debutará en julio.

Galaxy Watch 7 podría estar disponible en las variantes Classic, Pro y Ultra con el chipset Exynos W940 debajo del capó

Múltiple rumores Han surgido hoy sobre la serie Galaxy Watch 7, y parece que Samsung se está preparando para realizar más cambios en su amado reloj inteligente. Desde hace algún tiempo, Samsung ha estado anunciando dos relojes de la serie: la variante Pro y la variante Classic, pero nuestro nuevo consejo sugiere que habrá tres variantes en total. Pro y Classic estarán ahí, pero habrá otro del que aún no estamos seguros. Sin embargo, según los rumores anteriores, Samsung podría lanzar una variante Ultra.

Al mismo tiempo, otro rumor eso sugiere que la serie Galaxy Watch 7 tendrá un chipset mucho más eficiente. Se prevé que la serie de relojes utilice el Exynos W940, y este conjunto de chips permitirá un aumento de eficiencia del 50% y un aumento de rendimiento del 30% en comparación con los modelos más antiguos. La nueva serie de relojes Samsung es una de las mejores en términos de experiencia.

El Galaxy Watch 7 Pro, Classic y Ultra debutarán en julio. Entonces será cuando Samsung presentará los teléfonos plegables y el Galaxy Ring. Puede esperar muchos más detalles en el futuro y nos aseguraremos de informar todo lo que encontremos, incluidos renderizados oficiales, especificaciones y más.

¿Qué es lo que más te entusiasma de la serie Galaxy Watch 7? En los comentarios a continuación, asegúrese de enumerar todo lo que busca en el nuevo reloj inteligente.

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/galaxy-watch-7-podria-lanzarse-en-tres-variantes-y-tambien-traera-un-conjunto-de-chips-mas-eficiente-que-antes/feed/ 0
Polar Signals quiere ayudar a las empresas a reducir los costos de la nube con un código más eficiente https://magazineoffice.com/polar-signals-quiere-ayudar-a-las-empresas-a-reducir-los-costos-de-la-nube-con-un-codigo-mas-eficiente/ https://magazineoffice.com/polar-signals-quiere-ayudar-a-las-empresas-a-reducir-los-costos-de-la-nube-con-un-codigo-mas-eficiente/#respond Thu, 14 Mar 2024 10:05:57 +0000 https://magazineoffice.com/polar-signals-quiere-ayudar-a-las-empresas-a-reducir-los-costos-de-la-nube-con-un-codigo-mas-eficiente/

Una joven startup se propone ayudar a las empresas a reducir sus costos en la nube escribiendo código «más eficiente» y ha conseguido 6,8 millones de dólares en nuevos fondos de patrocinadores notables, incluidos Alphabet’s GV, Spark Capital y Lightspeed.

Polar Signals, como se llama la empresa, inició su ronda inicial en 2021 con 4 millones de dólares de GV y Lightspeed, y ahora está cerrando la ronda en 10,8 millones de dólares.

El problema que Polar Signals busca resolver es el siguiente: las aplicaciones consumen recursos del sistema como CPU o memoria, y cuantos más recursos consumen, más cuesta la factura de la nube de una empresa, porque los principales proveedores de plataformas cobran en función del consumo. Una de las áreas que impacta el consumo de recursos es el código en sí, por lo que cuanto más estructuralmente sólido sea el código, con menos líneas y operaciones redundantes, más eficiente será su ejecución. Y cuanto más eficiente sea su funcionamiento, menores deberían ser, en teoría, los costos de la nube.

“Perfiles continuos”

Aquí es donde entra en juego la “elaboración de perfiles continuos”, un concepto que forma parte de una disciplina más amplia de monitoreo de software conocida como “observabilidad”, que consiste en medir el estado interno de un sistema para optimizar el rendimiento. La creación de perfiles continuos surgió en un artículo de investigación de Google de 2010 titulado: Google-Wide Profiling: A Continuous Profiling Infrastructure for Data Centers.

En esencia, la creación de perfiles continuos consiste en monitorear el consumo de recursos, incluso hasta números de línea específicos en una base de código determinada, identificando cuellos de botella que podrían estar causando un gasto excesivo de recursos.

Vista de toda la infraestructura de Polar Signals sobre muestras de CPU. Créditos de imagen: Señales polares

Polar Signals es el desarrollador principal detrás de Parca, un proyecto de código abierto de creación de perfiles continuos que rastrea sistemáticamente el uso de CPU y memoria, creando perfiles de estos datos que se pueden consultar a lo largo del tiempo. Parca es el corazón de Polar Signals, sobre el cual la compañía está construyendo servicios comerciales, incluida la oferta alojada recientemente lanzada Polar Signals Cloud, que elimina el trabajo innecesario de configuración y administración e introduce las funciones habituales que se incluyen con la mayoría de las herramientas SaaS empresariales, como inicio de sesión (SSO), aprovisionamiento de equipos y gestión de permisos.

«Nuestra misión es hacer que los centros de datos del mundo sean 10 veces más eficientes de lo que son hoy», dijo a TechCrunch el fundador y director ejecutivo de Polar Signals, Frederic Branczyk.

Además de las noticias sobre financiación de hoy, la compañía también presenta sugerencias basadas en IA para mejorar el código: el usuario selecciona una sección, toca «optimizar con IA» y revisa las modificaciones sugeridas. Esto está disponible a través de un programa de acceso temprano a partir de hoy.

Polar Signals: sugerencias de códigos impulsadas por IA

Señales polares: sugerencias de códigos impulsadas por IA. Créditos de imagen: Señales polares

Si bien la reducción de costos es uno de los principales beneficios que promete Polar Signals, la tecnología también ofrece otros beneficios, como los esfuerzos de respuesta a incidentes en torno a un ataque DDoS, por ejemplo, ya que Polar Signals puede proporcionar información sobre el impacto del ataque e identificar qué partes de un sistema están bajo estrés.

“[The number one problem we solve] está ayudando a las organizaciones a comprender y mejorar los cuellos de botella de recursos; sin embargo, lo que hemos aprendido es que la motivación más fuerte tiende a ser diferente de la que pensábamos inicialmente”, dijo Branczyk. “Inicialmente, pensamos que el ahorro de costos sería la motivación más fuerte, pero hemos aprendido que [companies are also using it for] respuesta a incidentes (por ejemplo, ‘por qué ocurrió esta latencia o pico de CPU’), y podemos responder hasta el número de línea del código fuente; es un motivador mucho más fuerte».

La historia hasta ahora

El fundador y director ejecutivo Frederic Branczyk (cuarto desde la derecha) flanqueado por colegas de Polar Signals

El fundador y director ejecutivo Frederic Branczyk (cuarto desde la derecha) flanqueado por colegas de Polar Signals. Créditos de imagen: Señales polares

Polar Signals fue fundada en 2020 por Branczyk, un ex ingeniero de Red Hat y figura líder en los ecosistemas de Prometheus y Kubernetes, una experiencia que posiciona bien a Polar Signals para apuntar al segmento de la nube empresarial.

Desde su lanzamiento comercial formal en octubre, la compañía ha acumulado más de una docena de clientes de pago, incluidos Vercel, Materialize, Canonical y Weaviate, y esto es algo que su nueva inyección de efectivo le ayudará a duplicar, mientras busca una mayor escala. en los próximos meses y años.

“Nuestro oleoducto es tan grande que ni siquiera podemos cerrarlo. [new customers] bastante rápido, por lo que también planeamos hacer crecer el equipo en esta dirección de manera significativa”, afirmó Branczyk.

Al momento de escribir este artículo, Polar Signals cuenta con 11 empleados con experiencia en empresas como AWS, Meta, Red Hat y HashiCorp. Y aunque la empresa está constituida en Estados Unidos, sólo dos de sus empleados tienen su base allí: la mayor parte de su fuerza laboral está empleada por una filial en Alemania, donde tiene su sede el propio Branczyk, y a través de la firma global de recursos humanos Remote.com en España, la Reino Unido, Polonia e India.

Además del inversor principal Spark Capital, GV y Lightspeed, la última inyección de efectivo de la compañía incluyó contribuciones de una variedad de inversores institucionales y ángeles como Haystack, Lorimer y Guillermo Rauch, director ejecutivo del cliente Vercel de Polar Signals.



Source link-48

]]>
https://magazineoffice.com/polar-signals-quiere-ayudar-a-las-empresas-a-reducir-los-costos-de-la-nube-con-un-codigo-mas-eficiente/feed/ 0
Las computadoras eficientes en el inicio de chips reciben una financiación masiva y presentan una arquitectura 100 veces más eficiente que las ofertas modernas https://magazineoffice.com/las-computadoras-eficientes-en-el-inicio-de-chips-reciben-una-financiacion-masiva-y-presentan-una-arquitectura-100-veces-mas-eficiente-que-las-ofertas-modernas/ https://magazineoffice.com/las-computadoras-eficientes-en-el-inicio-de-chips-reciben-una-financiacion-masiva-y-presentan-una-arquitectura-100-veces-mas-eficiente-que-las-ofertas-modernas/#respond Sun, 10 Mar 2024 01:04:55 +0000 https://magazineoffice.com/las-computadoras-eficientes-en-el-inicio-de-chips-reciben-una-financiacion-masiva-y-presentan-una-arquitectura-100-veces-mas-eficiente-que-las-ofertas-modernas/

La startup de chips Efficient Computers ha recibido 16 millones de dólares en financiación de la firma de capital de riesgo Eclipse mientras trabajan para crear arquitecturas de CPU 100 veces más eficientes que las modernas.

La «arquitectura textil» de computadoras eficientes tiene como objetivo revolucionar el segmento de computación de bajo consumo

Bueno, la industria de las CPU está progresando en cuanto a saltos generacionales en rendimiento y eficiencia energética, pero en el futuro, este segmento necesita urgentemente innovación, especialmente cuando se trata de reemplazar arquitecturas de CPU propietarias; Para ello, Efficient Computers ha ideado una solución única. Están ganando terreno entre múltiples inversores, principalmente debido a su innovadora arquitectura de procesador de flujo de datos reconfigurable, conocida como arquitectura Fabric. La nueva arquitectura promete reemplazar las capacidades tradicionales de la arquitectura de conjunto de instrucciones (ISA); describiremos esto más adelante.

Esta nueva arquitectura nos permite apuntar al software de una manera más eficiente. Es una forma más eficiente de ejecutar programas.

– CEO Brandon Lucía

Efficient Computers ya ha creado un chip de prueba llamado «Monza», que planea utilizar en industrias como dispositivos de salud, monitoreo de infraestructura civil, satélites, defensa y seguridad, principalmente porque su chip es el más adecuado para aplicaciones de bajo consumo. incluso sin la necesidad de agregar energía de reemplazo, lo que significa que Efficient Computers, como su nombre indica, pronto podría tomar la delantera en este segmento de computación de bajo consumo, dado que su arquitectura realmente resulta como se esperaba. Efficient Computers dice que su arquitectura Fabric es 100 veces más eficiente que las unidades de microcontrolador (MCU) y 1000 veces más eficiente que las GPU, aunque no han mencionado cuáles.

Ahora, pasando a cómo funciona realmente la arquitectura de la estructura, la arquitectura se centra principalmente en el flujo de datos, ya que la estructura de procesamiento se puede reconfigurar sobre la marcha para adaptarse a las necesidades específicas de la carga de trabajo. Esto permite la ejecución eficiente de algoritmos o tareas especializados. Al eliminar la sobrecarga de instrucciones y permitir un flujo de datos eficiente, la arquitectura Fabric tiene el potencial de superar a las CPU tradicionales para cargas de trabajo específicas, además de proporcionar un consumo de energía mucho menor en comparación con las opciones existentes.

Hay una gran cantidad de software (desarrollo) innovador que están haciendo, pero también pueden aprovechar gran parte del trabajo que ya se ha realizado en el ecosistema a través de proyectos de desarrollo de código abierto.

– Greg Reichow, socio de Eclipse

Bueno, las soluciones de CPU de bajo consumo han comenzado a ganar terreno en la industria, y un ejemplo reciente es la adopción masiva de las APU Phoenix de AMD, que se anuncian como soluciones eficientes para los mercados. Si bien no estamos seguros de si la arquitectura Efficient Computers Fabric llegará alguna vez a la industria, según cómo se está moviendo la empresa, es probable que pronto veamos CPU basadas en ella.

Fuente de noticias: Reuters

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/las-computadoras-eficientes-en-el-inicio-de-chips-reciben-una-financiacion-masiva-y-presentan-una-arquitectura-100-veces-mas-eficiente-que-las-ofertas-modernas/feed/ 0
Snapdragon 8 Gen para Galaxy tiene la GPU más rápida en 3DMark Solar Bay; Puntuación un 4 por ciento más alta que el M2 de Apple y al mismo tiempo un 35 por ciento más eficiente https://magazineoffice.com/snapdragon-8-gen-para-galaxy-tiene-la-gpu-mas-rapida-en-3dmark-solar-bay-puntuacion-un-4-por-ciento-mas-alta-que-el-m2-de-apple-y-al-mismo-tiempo-un-35-por-ciento-mas-eficiente/ https://magazineoffice.com/snapdragon-8-gen-para-galaxy-tiene-la-gpu-mas-rapida-en-3dmark-solar-bay-puntuacion-un-4-por-ciento-mas-alta-que-el-m2-de-apple-y-al-mismo-tiempo-un-35-por-ciento-mas-eficiente/#respond Sat, 10 Feb 2024 12:37:00 +0000 https://magazineoffice.com/snapdragon-8-gen-para-galaxy-tiene-la-gpu-mas-rapida-en-3dmark-solar-bay-puntuacion-un-4-por-ciento-mas-alta-que-el-m2-de-apple-y-al-mismo-tiempo-un-35-por-ciento-mas-eficiente/

El Snapdragon 8 Gen 3 de Qualcomm para Galaxy es una versión superior del Snapdragon 8 Gen 3 diseñada exclusivamente para Samsung y su última serie Galaxy S24. Para aquellos que no lo saben, el SoC ligeramente modificado presenta un núcleo Cortex-X4 ligeramente overclockeado y una GPU Adreno 750. Estas mejoras se probaron en la prueba Solar Bay de 3DMark, donde el Snapdragon 8 Gen 3 para Galaxy superó al M2 de Apple y consumió significativamente menos energía, lo que lo convierte en el primer SoC de teléfono inteligente en completar esta hazaña.

Lamentablemente, los mismos resultados no se repiten en otros benchmarks como GFXBench, donde el Snapdragon 8 Gen 3 para Galaxy no consigue resultados impresionantes.

La prueba exhaustiva fue realizada por Golden Reviewer, quien elogia el Snapdragon 8 Gen 3 para Galaxy porque supera a la competencia en 3DMark Solay Bay, obteniendo una puntuación final de 9,165 FPS, en comparación con los 8,781 FPS del M2, lo que resulta en una diferencia de rendimiento del 4 por ciento. . Lo que es aún más impresionante de estos resultados es que el Snapdragon 8 Gen 3 para Galaxy logra esto mientras consume menos energía que el M2, siendo un 35 por ciento más eficiente que el silicio de 5 nm de Apple. Lamentablemente, los resultados no se pueden replicar en 3DMark Wild Life Extreme, donde el M2 toma la delantera.

Dado que el M2 es líder en este punto de referencia en particular, podemos suponer inmediatamente que el M3 obtendría una puntuación aún mayor. 3DMark Wild Life Extreme está diseñado para poner de rodillas a los conjuntos de chips, y dado que el Snapdragon 8 Gen 3 para Galaxy tiene una superficie de enfriamiento más pequeña en comparación con el M2 y se encuentra en los modelos MacBooks y iPad Pro de Apple, es obvio qué SoC era va a ser el vencedor aquí. Lamentablemente, la misma historia se repite en GFXBench, pero en esta ocasión, el informante publica información valiosa.

Dado que probó una gran cantidad de conjuntos de chips en el pasado ejecutando GFXBench, el informante cree que la razón por la cual el Snapdragon 8 Gen 3 para Galaxy no logró una puntuación más alta fue debido a un cuello de botella en el ancho de banda. Sin embargo, no menciona si esta limitación proviene del programa de evaluación comparativa o del propio hardware, por lo que es algo que tendremos que confirmar en el futuro. Como referencia, el Snapdragon 8 Gen 3 para Galaxy puede alcanzar un máximo de 1 GHz, lo que permite que el SoC alcance los resultados antes mencionados, aunque no puede repetir el mismo comportamiento en todas las pruebas.

Fuente de noticias: Crítico dorado

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/snapdragon-8-gen-para-galaxy-tiene-la-gpu-mas-rapida-en-3dmark-solar-bay-puntuacion-un-4-por-ciento-mas-alta-que-el-m2-de-apple-y-al-mismo-tiempo-un-35-por-ciento-mas-eficiente/feed/ 0
Rivian presentará el R2 más económico y eficiente el 7 de marzo https://magazineoffice.com/rivian-presentara-el-r2-mas-economico-y-eficiente-el-7-de-marzo/ https://magazineoffice.com/rivian-presentara-el-r2-mas-economico-y-eficiente-el-7-de-marzo/#respond Tue, 06 Feb 2024 09:15:22 +0000 https://magazineoffice.com/rivian-presentara-el-r2-mas-economico-y-eficiente-el-7-de-marzo/

Rivian revelará el R2 el 7 de marzo. La compañía confirmado el lunes en una publicación en X (Twitter) que los clientes deberían «prepararse para reunirse con R2 el 7 de marzo». El director ejecutivo de Rivian, RJ Scaringe, dijo anteriormente que la plataforma de próxima generación sería más pequeña y más barata que la línea R1.

El fabricante de automóviles aún no ha dicho dónde se llevará a cabo el evento, pero seguramente será en Laguna Beach, CA. El mes pasado, su ayuntamiento publicó públicamente una solicitud aprobada en sus actas para un “Lanzamiento de Rivian R2”, parte de un “evento de lanzamiento mundial de producto en el Teatro Rivian” en la misma fecha. Si eso no fuera una pista suficiente, el avance X de Rivian incluía audio de olas rompiendo, bañistas jugando y gaviotas graznando.

Según los informes, los representantes de Rivian planean realizar el evento en el Teatro Rivian South Coast en Laguna Beach. El fabricante de automóviles compró el cine (que abrió en 1937 y cerró en 2015) en 2021 antes de renovarlo y reabrirlo en diciembre pasado. La compañía pidió permiso al consejo para exhibir seis vehículos en un área pública con césped cerca del teatro, lo que suena ideal para un área práctica con los medios después de una presentación formal en el interior.

Se espera que la plataforma R2 comience con un SUV más pequeño (al parecer del tamaño de un Jeep Grand Cherokee) con un precio de entre 40.000 y 60.000 dólares. Los vehículos con plataforma R1 cuestan alrededor de $80,000, aunque algunos modelos están disponibles para arrendamiento, lo que los hace elegibles para un crédito fiscal completo de $7,500.

Cuando Scaringe realizó una sesión de preguntas y respuestas en Instagram el año pasado, dijo que la fecha de entrega esperada del vehículo había pasado de 2025 a 2026. Entonces, a menos que los planes de Rivian hayan cambiado dramáticamente desde entonces, espere que el evento de marzo preceda a un largo período de lista de espera antes de poder llevarse uno a casa. . Rivian aún no ha comenzado la construcción de una próxima fábrica en Georgia que producirá la línea R2.

Rivian pierde alrededor de 31.000 dólares por cada vehículo con plataforma R1 que fabrica, mientras el fabricante de vehículos eléctricos posiciona su marca para un futuro totalmente eléctrico. Se espera que el R2 sea más eficiente (con precios más accesibles) a medida que el fabricante de automóviles intenta girar hacia la rentabilidad. El director ejecutivo de la compañía dijo a finales de 2023 que estaba charlando con una “canalización” de clientes comerciales para sus furgonetas eléctricas después de que finalizara su acuerdo de exclusividad de cuatro años con Amazon. Sin embargo, todavía tiene previsto cumplir su contrato con Amazon, que prevé la entrega de 100.000 furgonetas al minorista online hasta 2030.





Source link-47

]]>
https://magazineoffice.com/rivian-presentara-el-r2-mas-economico-y-eficiente-el-7-de-marzo/feed/ 0