utilizarán – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Mon, 22 Apr 2024 07:10:04 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Las funciones de IA generativa de Apple en iOS 18 utilizarán procesamiento en el dispositivo en lugar de basado en la nube para operaciones más rápidas https://magazineoffice.com/las-funciones-de-ia-generativa-de-apple-en-ios-18-utilizaran-procesamiento-en-el-dispositivo-en-lugar-de-basado-en-la-nube-para-operaciones-mas-rapidas/ https://magazineoffice.com/las-funciones-de-ia-generativa-de-apple-en-ios-18-utilizaran-procesamiento-en-el-dispositivo-en-lugar-de-basado-en-la-nube-para-operaciones-mas-rapidas/#respond Mon, 22 Apr 2024 07:10:00 +0000 https://magazineoffice.com/las-funciones-de-ia-generativa-de-apple-en-ios-18-utilizaran-procesamiento-en-el-dispositivo-en-lugar-de-basado-en-la-nube-para-operaciones-mas-rapidas/

Apple no ha ofrecido al público ninguna de sus funciones de IA generativa hasta el momento, ya que está por detrás de Google y OpenAI en muchos aspectos. Sin embargo, la compañía está trabajando en su mayor actualización para iPhone que traerá IA al ecosistema de la compañía y ofrecerá una amplia gama de utilidades a nivel de sistema. Anteriormente informamos que la compañía planea ofrecer su tecnología de inteligencia artificial en todos los modelos de iPhone que serán compatibles con iOS 18. Ahora se informa que Apple planea implementar su LLM o modelos de lenguaje grande para ejecutarse en el dispositivo para una variedad de Beneficios sobre el procesamiento basado en la nube.

Apple está desarrollando LLM para el procesamiento en el dispositivo del iPhone para operaciones más rápidas y seguras

Hace unas semanas, informamos que las próximas funciones de inteligencia artificial de iOS 18 podrán realizar operaciones con procesamiento en el dispositivo. Esto significa que las próximas utilidades no se limitarán a ciertos requisitos de hardware, sino que la compañía podría distribuir funciones de alta gama en modelos premium o más nuevos. En una nueva versión del Boletín de encendidoMark Gurman reafirma que el LLM de Apple con adiciones de IA generativa utilizará el procesamiento en el dispositivo en iOS 18.

Gurman afirma que, según todos los indicadores, los grandes modelos de lenguaje de Apple funcionarán en el dispositivo en lugar del procesamiento basado en la nube. Si bien es una buena noticia para los usuarios que poseen modelos de iPhone más antiguos, tiene ciertos inconvenientes. Por ejemplo, el procesamiento en el dispositivo hará que la tecnología sea menos capaz que la solución basada en la nube. Sin embargo, la empresa podría compensar la capacidad con una mayor privacidad y seguridad, ya que todas las operaciones se realizan en el dispositivo.

Otro beneficio importante es la velocidad de las operaciones, ya que los modelos LLM podrán responder en tiempo real, en lugar de mostrar una señal de espera para que el dispositivo pueda recuperar información de la nube antes de presentársela al usuario. Si bien queda por ver cómo funcionan los grandes modelos de lenguaje en el iPhone, se informó que Apple no incluirá un chatbot con el lanzamiento de iOS 18. La compañía planeaba cerrar la brecha otorgando licencias de tecnología a Google, OpenAI y Baidu. , pero no hay más detalles disponibles sobre si alguna empresa llegó a un acuerdo con Apple.

Dado que se espera que Siri venga con integración de IA generativa, queda por ver en qué se diferenciará la oferta de la compañía de la competencia, pero podría darle al asistente virtual un gran impulso frente a Google Assistant y Amazon Alexa. Además, sospechamos que la tecnología de IA en el dispositivo se utilizará dentro de las aplicaciones para lograr un rendimiento más rápido que desempeña un papel vital para una experiencia de usuario perfecta. Sin embargo, para funciones abiertas, como un chatbot dedicado tipo ChatGPT, suponemos que la empresa dependerá de soluciones basadas en la nube.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/las-funciones-de-ia-generativa-de-apple-en-ios-18-utilizaran-procesamiento-en-el-dispositivo-en-lugar-de-basado-en-la-nube-para-operaciones-mas-rapidas/feed/ 0
Todos los modelos de iPhone utilizarán procesamiento en el dispositivo para la primera ola de funciones de inteligencia artificial en iOS 18, ya que Apple no dependerá de servidores en la nube https://magazineoffice.com/todos-los-modelos-de-iphone-utilizaran-procesamiento-en-el-dispositivo-para-la-primera-ola-de-funciones-de-inteligencia-artificial-en-ios-18-ya-que-apple-no-dependera-de-servidores-en-la-nube/ https://magazineoffice.com/todos-los-modelos-de-iphone-utilizaran-procesamiento-en-el-dispositivo-para-la-primera-ola-de-funciones-de-inteligencia-artificial-en-ios-18-ya-que-apple-no-dependera-de-servidores-en-la-nube/#respond Mon, 15 Apr 2024 07:53:27 +0000 https://magazineoffice.com/todos-los-modelos-de-iphone-utilizaran-procesamiento-en-el-dispositivo-para-la-primera-ola-de-funciones-de-inteligencia-artificial-en-ios-18-ya-que-apple-no-dependera-de-servidores-en-la-nube/

Se informa que iOS 18 es la mayor actualización de Apple para el iPhone, ya que la compañía está planeando una serie de nuevas utilidades relacionadas con la inteligencia artificial a nivel del sistema. Ha habido numerosos informes que destacan cómo el iPhone podría beneficiarse de la IA generativa y qué avances podría aportar a Siri y Spotlight Search. Si bien la compañía está ampliando gradualmente sus esfuerzos para llevar la tecnología a los modelos más antiguos y más nuevos de iPhone, un destacado analista afirma que la primera ola de funciones de IA no dependerá de los servidores de nube de IA en el iPhone.

Se espera que las utilidades de IA de iOS 18 se manejen en el dispositivo, pero algunas funciones podrían reservarse para el futuro

En la sección de preguntas y respuestas de su último Encendido En el boletín informativo, Mark Gurman de Bloomberg afirma que las funciones iniciales de IA de Apple para el iPhone no dependerán de servidores en la nube, lo que significa que el iPhone será responsable del procesamiento en el dispositivo de las utilidades que se lanzarán próximamente. Está previsto que la compañía organice su evento WWDC 2024 el 10 de junio, donde considerará oportuno anunciar iOS 18, watchOS 11, macOS 15 y actualizaciones de software adicionales para desarrolladores y público en general con una gran cantidad de nuevas integraciones de IA.

Gurman afirma que la ola inicial de propiedades de IA en iOS 18 será manejada únicamente por el software del iPhone. Esto significa que la línea iPhone 15 y los modelos compatibles más antiguos podrán utilizar la nueva tecnología sin restricciones de hardware. Sin embargo, dado que Apple estrenará la línea iPhone 16 con un motor neuronal más potente, podríamos ver cierta dependencia del nuevo chip para las próximas capacidades de inteligencia artificial de iOS 18. Desde la WWDC en junio hasta el lanzamiento de la línea iPhone 16 en septiembre, los desarrolladores tendrían tiempo suficiente para probar la nueva tecnología y cómo se puede mejorar aún más con una integración más profunda.

El informe reciente destaca que no hay ningún componente de nube involucrado en el manejo del próximo modelo de lenguaje grande de Apple. Tenga en cuenta que la compañía está trabajando para asegurar acuerdos para comprar servidores de IA, y la tecnología podría cambiar su enfoque en el futuro, como informaron anteriormente los analistas de la industria Ming-Chi Kuo y Jeff Pu.

Como se mencionó, Apple anunciará iOS 18 junto con algunas actualizaciones de software adicionales para toda su línea de productos el 10 de junio en su evento anual WWDC. Si bien se esperan nuevas utilidades importantes, la compañía no incluirá su chatbot con tecnología de inteligencia artificial en la combinación, pero una vez que la tecnología esté lista, la compañía podría ofrecer su producto en el mercado, que competirá contra ChatGPT y Google Gemini. ¿Crees que Apple ofrecerá diferentes mejoras de IA según el modelo de iPhone?

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/todos-los-modelos-de-iphone-utilizaran-procesamiento-en-el-dispositivo-para-la-primera-ola-de-funciones-de-inteligencia-artificial-en-ios-18-ya-que-apple-no-dependera-de-servidores-en-la-nube/feed/ 0
Las GPU para juegos NVIDIA Blackwell GB202 utilizarán el nodo TSMC 4NP y mejorarán significativamente el rendimiento de caché y SM https://magazineoffice.com/las-gpu-para-juegos-nvidia-blackwell-gb202-utilizaran-el-nodo-tsmc-4np-y-mejoraran-significativamente-el-rendimiento-de-cache-y-sm/ https://magazineoffice.com/las-gpu-para-juegos-nvidia-blackwell-gb202-utilizaran-el-nodo-tsmc-4np-y-mejoraran-significativamente-el-rendimiento-de-cache-y-sm/#respond Wed, 20 Mar 2024 00:42:18 +0000 https://magazineoffice.com/las-gpu-para-juegos-nvidia-blackwell-gb202-utilizaran-el-nodo-tsmc-4np-y-mejoraran-significativamente-el-rendimiento-de-cache-y-sm/

NVIDIA acaba de anunciar sus GPU Blackwell para IA y ahora todos los ojos están puestos en sus piezas de juego, que se rumorea que cuentan con el mismo nodo TSMC 4NP.

Las GPU NVIDIA Blackwell AI Tensor Core y Gaming podrían compartir el mismo nodo de proceso TSMC 4NP, se esperan grandes mejoras de caché y rendimiento

Anteriormente se esperaba que NVIDIA aprovechara el nodo de proceso TSMC de 3 nm para el chip de juegos, pero ese plan aparentemente ha cambiado a medida que avanza. Kopite7kimi ahora indica que tanto Blackwell AI Tensor Core como las GPU para juegos se fabricarán en un nodo de proceso muy similar. Hace apenas unas horas supimos que NVIDIA utilizará el nodo 4NP de TSMC, una variación del nodo de 5 nm que ya se usaba para las GPU Ada Lovelace y Hopper.

Se afirma que el nuevo nodo de proceso permitirá un aumento del 30% en la densidad del transistor, lo que puede conducir a mayores ganancias de rendimiento, pero las ventajas reales de eficiencia aún no se han explicado. TSMC no indica explícitamente el nodo del proceso 4NP en ninguna parte de su página web. Solo mencionan N4P &, que también se menciona como una extensión de la plataforma N5 con un aumento de rendimiento del 11 % sobre N5 y un aumento del 6 % sobre N4.

Sabemos que el nodo de proceso 4N utilizado anteriormente para las GPU Ada era simplemente N5 (5 nm) disfrazado con algunas optimizaciones exclusivas de NVIDIA. NVIDIA también reveló que ha trabajado con TSMC y Synopsys para aprovechar la revolucionaria tecnología CuLitho para garantizar que la producción y fabricación de estas GPU Blackwell AI Tensor & Gaming de nueva generación se realicen sin problemas para que puedan entregarse a los clientes a tiempo. .

Además del nodo de proceso, también se espera que NVIDIA proporcione grandes mejoras en el lado de la caché L1. Se afirma que GB202, la GPU insignia de Blackwell Gaming, tendrá mejoras significativas en comparación con AD102 y GA102, lo que permitirá aumentar el rendimiento de SM. Kopite7kimi también arrojó algo de luz sobre la configuración de la GPU para juegos Blackwell GB202 anteriormente.

Afirmó que el chip ofrecerá 12 GPC, cada uno con 8 TPC para un total de 96 TPC y si tomamos en cuenta la estructura de Ada, podemos esperar hasta 192 SM o 24,567 núcleos CUDA asumiendo que habrá 128 FP32. núcleos por SM. Serán un 33% más de núcleos CUDA que la GPU AD102 completa que hasta ahora no se ha lanzado.

Especificaciones de la GPU NVIDIA Blackwell ‘GB202’ ‘preliminares’:

Nombre de la GPU GB202 AD102
GPC 12 (por GPU)? 12 (por GPU)
TPC 8 (por GPC)? 6 (por GPC)
SM 2 (por TPC)? 2 (por TPC)
Total de SM 192? 144
Subnúcleo Por determinar 4 (por SM)
FP32 128 (por SM)? 128 (por SM)
FP32+INT32 Por determinar 128 (por SM)
Núcleos CUDA 24.567? 18.432
Deformaciones Por determinar 64 (por SM)
Hilos Por determinar 2048 (por SM)
Caché L1 Por determinar 192 KB (por SM)
Caché L2 Por determinar 96 MB (por GPU)
ROP Por determinar 32 (por GPC)
Estándar de memoria GDDR7 GDDR6X
Bus de memoria máxima 512 bits 384 bits
Límite máximo de memoria ¿48 GB? 24GB

También menciona que la GPU GB203, la siguiente en la línea de GPU Blackwell Gaming, será la mitad de la GB202, similar a las GPU AD102 y AD103. Esto conducirá a una enorme disparidad en el rendimiento si NVIDIA equipa las próximas tarjetas de la serie 90 con GB202 y las tarjetas de la serie 80 con GB203. La pregunta más importante es si NVIDIA utilizará el paquete MCM (Multi-Chip-Module) para sus GPU Blackwell Gaming o las mantendrá monolíticas por ahora. Dados los crecientes costos y los problemas de rendimiento asociados con el desarrollo de GPU/chips, la ruta de los chiplets es de hecho el camino del futuro y la división Radeon de AMD ya la ha adoptado.

Las GPU Blackwell Gaming de NVIDIA se lanzarán bajo la familia GeForce RTX 50 con el soporte de tecnologías de próxima generación como la memoria GDDR7, DisplayPort 2.1 y más. Podemos esperar escuchar más sobre ellos a finales de este año.

SKU de GPU NVIDIA GeForce:

Generación Blackwell Ada Lovelace Amperio Turing Pascal
Nodo de proceso ¿TSMC de 3 nm? TSMC 5nm Samsung 8nm TSMC 12nm TSMC 16nm
Año de lanzamiento 2024 2022 2020 2018 2016
SKU ultra entusiasta GB202 AD102 GA102 TU102 GP102
SKU entusiasta GB203 AD103 GA102 TU104 GP104
SKU de alta gama GB205 AD104 GA104 TU106 GP104
SKU principal GB206 AD106 GA106 TU106 GP106
SKU de nivel básico GB207 AD107 GA107 TU116/117 GP107

¿Qué quiero ver en la serie RTX 50 de próxima generación de NVIDIA?

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/las-gpu-para-juegos-nvidia-blackwell-gb202-utilizaran-el-nodo-tsmc-4np-y-mejoraran-significativamente-el-rendimiento-de-cache-y-sm/feed/ 0
NVIDIA y AMD utilizarán matrices de 16 Gb en GPU GDDR7 de primera generación, capacidad de memoria de 2 GB y velocidades de 32 Gbps https://magazineoffice.com/nvidia-y-amd-utilizaran-matrices-de-16-gb-en-gpu-gddr7-de-primera-generacion-capacidad-de-memoria-de-2-gb-y-velocidades-de-32-gbps/ https://magazineoffice.com/nvidia-y-amd-utilizaran-matrices-de-16-gb-en-gpu-gddr7-de-primera-generacion-capacidad-de-memoria-de-2-gb-y-velocidades-de-32-gbps/#respond Fri, 08 Mar 2024 04:32:55 +0000 https://magazineoffice.com/nvidia-y-amd-utilizaran-matrices-de-16-gb-en-gpu-gddr7-de-primera-generacion-capacidad-de-memoria-de-2-gb-y-velocidades-de-32-gbps/

Lo más probable es que la primera generación de GPU NVIDIA y AMD que utilice memoria GDDR7 se quede con matrices de 16 Gb para capacidades de VRAM de 2 GB.

Primera ola de GPU con memoria GDDR7 de NVIDIA y AMD que utilizarán matrices de 16 Gb, ofreciendo 2 GB de capacidad y velocidades de pin de 32 Gbps por módulo

La noticia viene de kopite7kimi, quien desveló que la primera iteración de GPU de NVIDIA y AMD con memoria GDDR7 vendrá con una densidad de 16 Gb, lo que significa que la capacidad mínima que veremos para el estándar de próxima generación es de 2 GB de VRAM. A modo de comparación, la era GDDR6 comenzó con matrices de 8 Gb que ofrecían 1 GB de capacidad de VRAM por módulo. Reiteramos esto en una publicación anterior, donde JEDEC definió el estándar GDDR7 en su conjunto.

Para un resumen rápido de GDDR7, hasta ahora hemos visto soluciones de Samsung y Micron, y ambos apuntan a velocidades de pin de 32 Gbps y matrices de 16 Gb. Micron también ha adelantado matrices de 24 Gb y 24 Gb+ para el futuro. Con módulos de 24 Gb, puede obtener un máximo de 3 GB de VRAM por unidad, y con 24 Gb+ (32 Gb o más), puede obtener capacidades de VRAM de 4 GB+. Es probable que estos troqueles de mayor densidad no lleguen tan pronto, ya que GDDR7 aún no se ha implementado y tomará tiempo hasta que el estándar alcance el nivel de madurez que permita tales capacidades, pero eventualmente, para 2026-2028, veremos el lanzamiento de matrices de mayor densidad. Ofertas de VRAM para GPU.

A continuación se muestra el ancho de banda máximo y la capacidad de memoria que las matrices de 16 Gb + velocidades de pin de 32 Gbps ofrecerían en múltiples configuraciones de bus:

  • 128 bits a 32 Gbps: 512 GB/s (8 GB)
  • 192 bits a 32 Gbps: 768 GB/s (12 GB)
  • 256 bits a 32 Gbps: 1024 GB/s (16 GB)
  • 320 bits a 32 Gbps: 1280 GB/s (20 GB)
  • 384 bits a 32 Gbps: 1536 GB/s (24 GB)
  • 512 bits a 32 Gbps: 2048 GB/s (32 GB)

Las densidades de memoria de 2 Gb significarían que la primera versión de las GPU GDDR7 de NVIDIA y AMD probablemente mantendrán las mismas capacidades de memoria que tenemos en los chips de la generación actual. Para aquellos que esperaban mayores capacidades, tendríamos que esperar futuras revisiones o actualizaciones. Todavía es posible que cada nivel reciba un impulso, como el RTX 4060 Ti, que tiene un bus de 128 bits y está disponible en 8 y 16 GB de VRAM. La variante de mayor VRAM puede convertirse en el estándar para las ofertas de próxima generación.

Ahora bien, en términos de quién obtendrá la adopción masiva en los mercados, no es difícil decirlo ahora. Aún así, Micron tiene un gran historial con NVIDIA, ya que la empresa desarrolló conjuntamente el estándar GDDR5X con Micron con sus tarjetas de la serie GeForce 10 y actualmente utiliza los módulos GDDR6X más rápidos para sus últimas tarjetas gráficas RTX 40.

Es probable que Micron continúe enviando versiones optimizadas del estándar de memoria G7 de próxima generación con GPU NVIDIA. Samsung, por otro lado, se inclina más por AMD y ahí es donde veremos que se ofrece la mayor parte de sus módulos de memoria.

Fuente de la imagen: Micron

En cuanto a cuándo podríamos esperar que los productos GDDR7 lleguen a los mercados, se insinúa que las GPU GeForce RTX 50 «Blackwell» de NVIDIA se lanzarán a finales de 2024, aunque no hay nada escrito en piedra en este momento. En el campamento del Equipo Rojo, también se espera que las GPU RDNA 4 de próxima generación de AMD debuten este año, pero hasta ahora no se ha confirmado si veremos la introducción de GDDR7 en dichas GPU o si los fabricantes de GPU se quedarán con GDDR6 (X) por una vez más. redondo. Entonces, con esto, no estamos lejos de los lanzamientos, lo que sugiere que podríamos ver más información sobre la presentación estándar en el próximo período.

Evolución de la memoria gráfica GDDR:

MEMORIA DE GRÁFICOS GDDR7 GDDR6X GDDR6 GDDR5X
Carga de trabajo Juegos / IA Juegos / IA Juegos / IA Juego de azar
Plataforma (Ejemplo) ¿GeForce RTX 5090? GeForce RTX 4090 GeForce RTX 2080 Ti GeForce GTX 1080Ti
Capacidad de matriz (Gb) 16-64 8-32 8-32 8-16
Número de ubicaciones 12? 12 12 12
Gb/s/pin 32-37 19-24 14-16 11.4
GB/s/ubicación 128-144 76-96 56-64 45
GB/s/sistema 1536-1728 912-1152 672-768 547
Configuración (Ejemplo) ¿384 IO (paquete de 12 piezas x 32 IO)? 384 IO (paquete de 12 piezas x 32 IO) 384 IO (paquete de 12 piezas x 32 IO) 384 IO (paquete de 12 piezas x 32 IO)
Búfer de trama del sistema típico ¿24 GB? 24GB 12GB 12GB
Paquete de módulos 266 (BGA) 180 (BGA) 180 (BGA) 190 (BGA)
Potencia promedio del dispositivo (pJ/bit) Por determinar 7.25 7.5 8.0
Canal IO típico Placa de circuito impreso (P2P SM) Placa de circuito impreso (P2P SM) Placa de circuito impreso (P2P SM) Placa de circuito impreso (P2P SM)

¿Cuánta VRAM tiene tu tarjeta gráfica actual?

Fuente de noticias: Kopite7kimi

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/nvidia-y-amd-utilizaran-matrices-de-16-gb-en-gpu-gddr7-de-primera-generacion-capacidad-de-memoria-de-2-gb-y-velocidades-de-32-gbps/feed/ 0
Según se informa, las publicaciones de Tumblr y WordPress se utilizarán para la capacitación en OpenAI y Midjourney https://magazineoffice.com/segun-se-informa-las-publicaciones-de-tumblr-y-wordpress-se-utilizaran-para-la-capacitacion-en-openai-y-midjourney/ https://magazineoffice.com/segun-se-informa-las-publicaciones-de-tumblr-y-wordpress-se-utilizaran-para-la-capacitacion-en-openai-y-midjourney/#respond Wed, 28 Feb 2024 06:46:15 +0000 https://magazineoffice.com/segun-se-informa-las-publicaciones-de-tumblr-y-wordpress-se-utilizaran-para-la-capacitacion-en-openai-y-midjourney/

Según se informa, Tumblr y WordPress están listos para llegar a acuerdos para vender datos de usuarios a las empresas de inteligencia artificial OpenAI y Midjourney. 404 Medios informa que la empresa matriz de las plataformas, Automattic, está a punto de cerrar un acuerdo para proporcionar datos que ayuden a entrenar los modelos de las empresas de IA.

No está claro qué datos se incluirán, pero el informe sugiere que Automattic puede haberse extralimitado inicialmente. Una supuesta publicación interna del gerente de producto de Tumblr, Cyle Gage, sugiere que Automattic se preparó para enviar datos privados o relacionados con socios que no debían estar incluidos en el acuerdo. El contenido cuestionable supuestamente incluía publicaciones privadas en publicaciones de blogs públicos, blogs eliminados o suspendidos, preguntas sin respuesta (por lo tanto, no publicadas públicamente), respuestas privadas, publicaciones marcadas como explícitas y contenido de blogs de socios premium (como el antiguo sitio de música de Apple).

La publicación interna sugiere que los ingenieros de Automattic están preparando una lista de ID de publicaciones que deberían haberse excluido. No está claro si los datos ya se habían enviado a las empresas de inteligencia artificial.

Engadget envió un correo electrónico a Automattic para solicitar comentarios sobre el informe. La compañía respondió con una declaración publicada, afirmando: «Compartiremos sólo contenido público alojado en WordPress.com y Tumblr de sitios que no han optado por no participar». La declaración señala que las regulaciones legales actualmente no exigen que los rastreadores web de las empresas de inteligencia artificial respeten las preferencias de exclusión voluntaria de los usuarios.

La última línea de la declaración de Automattic parece alinearse con los acuerdos reportados. «También estamos trabajando directamente con empresas selectas de IA siempre que sus planes se alineen con lo que le importa a nuestra comunidad: atribución, exclusión voluntaria y control», escribió Automattic. “Nuestras asociaciones respetarán todas las configuraciones de exclusión voluntaria. También planeamos ir un paso más allá y actualizar periódicamente a los socios sobre las personas que recientemente optan por no participar y solicitan que su contenido se elimine de fuentes anteriores y de capacitaciones futuras”.

NUEVA YORK, NUEVA YORK - 12 DE DICIEMBRE: Sam Altman habla en el escenario durante Un año en el TIEMPO en el Hotel Plaza el 12 de diciembre de 2023 en la ciudad de Nueva York.  (Foto de Mike Coppola/Getty Images para TIME)

Sam Altman, director ejecutivo de OpenAI (Mike Coppola a través de Getty Images)

Según se informa, la compañía planea lanzar una nueva herramienta de exclusión voluntaria el miércoles que pretende permitir a los usuarios bloquear a terceros, incluidas empresas de inteligencia artificial, para que no puedan capacitarse con sus datos. 404 Medios revisó una supuesta pregunta interna de preguntas frecuentes que Automattic preparó para la herramienta, que incluye la respuesta: “Si opta por no participar desde el principio, bloquearemos el acceso de los rastreadores a su contenido agregando su sitio a una lista de no permitidos. Si cambia de opinión más adelante, también planeamos informar a los socios sobre las personas que recientemente optan por no participar y solicitar que su contenido se elimine de fuentes anteriores y capacitaciones futuras”.

La frase, que lo describe como “pedir” a las empresas de inteligencia artificial que eliminen los datos, puede ser relevante.

Un supuesto documento interno del director de IA de Automattic, Andrew Spittle, en respuesta a una pregunta del personal sobre las garantías de eliminación de datos al utilizar la herramienta, explica: «Notificaremos periódicamente a los socios existentes sobre cualquiera que haya optado por no participar desde la última vez que proporcionamos una lista. Quiero que este sea un proceso continuo en el que defendemos regularmente que se excluya el contenido anterior según las preferencias actuales. Solicitaremos que el contenido se elimine de cualquier ejecución futura de capacitación. Creo que los socios respetarán esto basándose en nuestras conversaciones con ellos hasta este momento. No creo que ganen mucho en general manteniéndolo”.

Por lo tanto, si un usuario de Tumblr o WordPress solicita optar por no participar en la capacitación en IA, Automattic supuestamente «pedirá» y «abogará por» su eliminación. Y el jefe de IA de la empresa «cree» que a las empresas de IA les convendrá cumplir «según nuestras conversaciones». (¡Qué te parece eso para tranquilizarte!)

Los acuerdos de capacitación en datos de IA se han convertido en una oportunidad lucrativa para los sitios web que se mantienen a flote en el resbaladizo panorama editorial en línea actual. (Según se informa, el personal de Tumblr se redujo a un equipo mínimo a fines de 2023). La semana pasada, Google llegó a un acuerdo con Reddit (antes de la oferta pública inicial de este último) para capacitarse en la amplia base de conocimiento de la plataforma sobre contenido creado por usuarios. Mientras tanto, OpenAI lanzó un programa de asociación el año pasado para recopilar conjuntos de datos de terceros para ayudar a entrenar sus modelos de IA.

Actualización, 27 de febrero de 2024, 3:56 p.m. ET: Esta historia se actualizó para agregar una declaración publicada por Automattic, la empresa matriz de WordPress y Tumblr.



Source link-47

]]>
https://magazineoffice.com/segun-se-informa-las-publicaciones-de-tumblr-y-wordpress-se-utilizaran-para-la-capacitacion-en-openai-y-midjourney/feed/ 0
Juez: Amazon “no puede alegar sorpresa” por el hecho de que las cámaras espía en los baños se utilizaran como se anuncia https://magazineoffice.com/juez-amazon-no-puede-alegar-sorpresa-por-el-hecho-de-que-las-camaras-espia-en-los-banos-se-utilizaran-como-se-anuncia/ https://magazineoffice.com/juez-amazon-no-puede-alegar-sorpresa-por-el-hecho-de-que-las-camaras-espia-en-los-banos-se-utilizaran-como-se-anuncia/#respond Wed, 06 Dec 2023 07:04:28 +0000 https://magazineoffice.com/juez-amazon-no-puede-alegar-sorpresa-por-el-hecho-de-que-las-camaras-espia-en-los-banos-se-utilizaran-como-se-anuncia/

Después de que se comprara en Amazon una cámara espía diseñada para parecerse a un gancho para toallas y se usara ilegalmente durante meses para capturar fotografías de una menor en su baño privado, Amazon fue demandada.

La demandante, una ex estudiante de intercambio brasileña que entonces vivía en Virginia Occidental, argumentó que Amazon había inspeccionado la cámara tres veces y que su equipo de seguridad no había podido evitar daños supuestamente graves y previsibles que todavía la afectan hoy.

Amazon esperaba que el tribunal desestimara la demanda, argumentando que la plataforma no era responsable de la supuesta conducta criminal que perjudicaba al menor. Pero después de casi ocho meses deliberando, un juez recientemente denegó en gran medida la moción de desestimación del gigante tecnológico.

El mayor problema de Amazon para persuadir al juez aparentemente fueron las descripciones de los productos que aprobó la plataforma. Una queja enmendada incluía una foto de la lista de productos de Amazon que mostraba toallas de baño colgadas de ganchos que ocultaban la cámara oculta. El texto en la imagen del producto promocionaba las cámaras espía, alardeando de que «no llamarán la atención» porque cada gancho parece ser «un gancho muy común y corriente».

Listado de Amazon para la cámara espía, incluido en la denuncia enmendada.
Agrandar / Listado de Amazon para la cámara espía, incluido en la denuncia enmendada.

Debido a que «Amazon aprobó descripciones de productos que sugieren que los consumidores usan» la cámara espía «para grabar momentos privados en un baño», escribió el juez de distrito estadounidense Robert Chambers, «Amazon no puede pretender sorprenderse cuando un consumidor hace precisamente eso».

«Estas acusaciones plantean una inferencia razonable que Amazon vendió una cámara sabiendo que sería utilizada para grabar a un tercero en un baño sin su consentimiento», escribió Chambers.

Quizás lo más alarmante para el demandante fue que el equipo de seguridad de productos de Amazon inspeccionó específicamente la cámara para «asegurarse» de que Amazon no estaba utilizando un producto para «infringir la privacidad», «grabar subrepticiamente a otros con fines sexuales» o «crear y almacenar información infantil». material de abuso sexual”. Esa revisión supuestamente no impidió que la cámara espía se usara para hacer precisamente eso, alega la demanda, poniendo a los consumidores en riesgo de sufrir los supuestos daños sufridos por el demandante, incluidos «temblores crónicos, insomnio, dolores de cabeza, náuseas, hipotensión con visión borrosa asociada, mareos, comer en exceso compulsivamente, conductas de evitación y paranoia».

Además de rechazar la culpa, Amazon argumentó sin éxito que ninguno de esos daños podía considerarse lesión física. Por el contrario, Chambers escribió que «si se prueban», los daños físicos del demandante se consideran «graves» porque «el trauma emocional infligido durante los ‘tiernos años’ de un niño tiene un ‘efecto indeleble’ del que ‘tal vez nunca se recupere'».

Un abogado del demandante, Lee Javins, dijo a Ars que cree que este es un tema importante que el tribunal debe explorar. Elogió al tribunal por tomar la decisión correcta después de tomarse su tiempo «para proporcionar un análisis legal exhaustivo» sobre teorías legales que, según dijo, «no han surgido mucho con la tecnología actual».

Una “sentencia potencialmente peligrosa” para la industria de las cámaras espía

El demandante espera que un jurado decida que Amazon «tuvo una indiferencia desenfrenada, consciente, imprudente e indignante hacia la salud, la seguridad y el bienestar de los niños».

También ha alegado que Amazon «conspiró» con el vendedor de cámaras espía para «comercializar y distribuir un producto defectuoso que ambos sabían que estaba destinado y utilizado con fines ilegales y delictivos». Amazon supuestamente no sólo «dio forma» al «mercadeo y promoción de la cámara» al controlar «cómo se representan los productos y el contenido de las listas y descripciones de los productos», sino que también «impulsó las ventas de la cámara» con sus «algoritmos especializados». alega la demanda.

Una pérdida para Amazon podría poner al minorista en línea en apuros por daños punitivos. También se podría ordenar a Amazon que deje de vender la cámara espía utilizada para dañar al demandante y cualquier producto considerado «idéntico» a esa cámara espía. Chambers escribió que demostrar la «previsibilidad» de los daños «es clave» para derrotar la defensa de Amazon.

El experto legal en tecnología Eric Goldman escribió que una victoria para el demandante podría considerarse «un fallo peligroso para la industria de las cámaras espía y para Amazon», porque «el análisis del tribunal podría indicar que es categóricamente ilegal vender todas las cámaras de gancho subrepticias». Eso podría evitar usos completamente legales de cámaras diseñadas para parecerse a ganchos para ropa, escribió Goldman, como usos hipotéticos de vigilancia en el hogar.

Ahora, el descubrimiento procederá mientras la demandante puede defender su caso en el juicio. La prueba podría arrojar más luz sobre «lo que pensó el equipo de seguridad de productos de Amazon cuando evaluó este artículo», escribió Goldman.

Actualmente, Amazon anuncia varios productos de «cámara oculta con gancho para ropa» cuando los usuarios buscan «cámara espía para baño», según una búsqueda de Ars, pero no está claro si la cámara espía en el centro de esta demanda todavía está disponible en Amazon.

En su blog, Goldman señaló un listado en línea de Amazon que parecía ser la cámara espía en cuestión. Sin embargo, Javins le dijo a Ars que si bien ese listado en particular parecía el «mismo tipo de cámara», tenía una descripción de producto diferente a la cámara espía vendida en el caso, donde «toda la vibra» del listado «era un poco espeluznante». «

Ars intentó sin éxito ponerse en contacto con Amazon para comentar sobre la orden del juez y el listado en línea que encontró Goldman. Poco después de enviar esa solicitud, Amazon parece haber eliminado el listado en línea, pero aún no le ha ofrecido a Ars ninguna explicación.



Source link-49

]]>
https://magazineoffice.com/juez-amazon-no-puede-alegar-sorpresa-por-el-hecho-de-que-las-camaras-espia-en-los-banos-se-utilizaran-como-se-anuncia/feed/ 0
PCI-SIG confirma que PCIe Gen 5.0 y Gen 6.0 utilizarán nuevos cables CopprLink https://magazineoffice.com/pci-sig-confirma-que-pcie-gen-5-0-y-gen-6-0-utilizaran-nuevos-cables-copprlink/ https://magazineoffice.com/pci-sig-confirma-que-pcie-gen-5-0-y-gen-6-0-utilizaran-nuevos-cables-copprlink/#respond Fri, 17 Nov 2023 04:52:11 +0000 https://magazineoffice.com/pci-sig-confirma-que-pcie-gen-5-0-y-gen-6-0-utilizaran-nuevos-cables-copprlink/

PCI-SIG ha anunciado el desarrollo de sus estándares PCIe Gen 5.0 y Gen 6.0 de próxima generación utilizando un nuevo diseño de cable CopprLink.

PCI-SIG utilizará un nuevo cable conocido como «CopprLink» para hardware PCIe Gen 5.0 y Gen 6.0

Aunque PCI-SIG no detalla las especificaciones o cambios de diseño con el nuevo cable CopprLink, sí confirma el esquema de nombres. Los cables CopprLink vendrán en soluciones internas y externas basadas en hardware PCIe Gen 5.0 y Gen 6.0. Según PCI-SIG, las especificaciones de los cables externos e internos son actualmente un trabajo en progreso y su lanzamiento está previsto para este año. A continuación se muestra el comunicado de prensa completo:

PCI-SI destaca la tecnología PCIe como la interconexión preferida para HPC en SC23

Miembros que presentan demostraciones de tecnología PCIe y se anuncia el nuevo esquema de denominación de cables PCI Express

PCI-SIG anunció que el nuevo esquema de nombres para cables internos y externos PCIe será CopprLink. Las especificaciones de cables internos y externos PCIe 5.0 y PCIe 6.0 están actualmente en desarrollo y su lanzamiento está previsto para 2024.

Vea las demostraciones de tecnología PCIe en SC23

CUÁNDO: lunes 13 de noviembre – jueves 16 de noviembre de 2023

DÓNDE: SC23 – Centro de Convenciones de Colorado, Denver, CO • PCI-SIG Stand #1401

QUIÉN: Los miembros de PCI-SIG, el consorcio que posee y administra las especificaciones PCI como estándares industriales abiertos, realizarán demostraciones de la tecnología PCI Express (PCIe) en SC23, en el stand 1401.

QUÉ: PCI-SIG invita a los asistentes a SC23 a visitar el stand n.° 1401 para ver las demostraciones y aprender más sobre el ecosistema de tecnología PCIe. Las demostraciones destacan el papel de la tecnología PCIe como la interconexión de E/S de alta velocidad preferida para aplicaciones de informática de alto rendimiento (HPC). Las empresas participantes incluyen Astera Labs, Dolphin Interconnect Solutions, Synopsys y Tektronix.

La demostración destaca las aplicaciones HPC, por lo que CopprLink debería centrarse en las soluciones de interfaz, ya que probablemente estemos analizando cables de interfaz en lugar de cables de alimentación para ofrecer un ancho de banda de transferencia óptimo a varios dispositivos integrados en plataformas de próxima generación. La plataforma PCIe 6.0 marcará una duplicación de las tasas de transferencia de 32 GT/s (Gen 5.0) a 64 GT/s (Gen 6.0). También se espera que el nuevo estándar proporcione hasta 256 GB/s de ancho de banda a través de un enlace de 16 carriles.

En cualquier caso, si CopprLink está relacionado con los cables de interfaz de alimentación, entonces la empresa intentará solucionar algunos de los problemas que encontró al diseñar el estándar actual 12VHPWR Gen 5.0. Aunque el diseño se optimizó gradualmente con el lanzamiento del estándar 12V-2×6, todavía parece haber margen de mejora, especialmente cuando se piensa en el futuro hardware PCIe Gen 6.0.

Pero antes de profundizar más en ese aspecto, conviene aclarar una vez más que este anuncio es específicamente para cables de interfaz que proporcionan interconexión PCIe a través de varios puertos. Espere más detalles sobre los cables CopprLink PCIe Gen 5.0 y Gen 6.0 en los próximos meses.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/pci-sig-confirma-que-pcie-gen-5-0-y-gen-6-0-utilizaran-nuevos-cables-copprlink/feed/ 0
Los modelos iPhone 16 y iPhone 16 Pro utilizarán un diseño de sensor de cámara apilado mejorado para un rendimiento mejorado con poca luz https://magazineoffice.com/los-modelos-iphone-16-y-iphone-16-pro-utilizaran-un-diseno-de-sensor-de-camara-apilado-mejorado-para-un-rendimiento-mejorado-con-poca-luz/ https://magazineoffice.com/los-modelos-iphone-16-y-iphone-16-pro-utilizaran-un-diseno-de-sensor-de-camara-apilado-mejorado-para-un-rendimiento-mejorado-con-poca-luz/#respond Sat, 05 Aug 2023 23:45:39 +0000 https://magazineoffice.com/los-modelos-iphone-16-y-iphone-16-pro-utilizaran-un-diseno-de-sensor-de-camara-apilado-mejorado-para-un-rendimiento-mejorado-con-poca-luz/

Apple lanzará los modelos iPhone 15 y iPhone 15 Pro el próximo mes, posiblemente el 13 de septiembre, junto con el nuevo Apple Watch Series 9. Sin embargo, nunca es demasiado pronto para comenzar a especular sobre lo que la compañía podría ofrecer el próximo año. Ya hemos compartido numerosos detalles sobre el iPhone 16 Pro y cómo podría ser una actualización aún mayor que los próximos modelos de iPhone 15 Pro. Según un destacado analista, Apple busca mejorar aún más el sistema de cámara en los modelos iPhone 16 Pro utilizando un diseño de sensor apilado.

El analista sugiere que los modelos de iPhone 16 Pro recibirán una importante actualización de la cámara, programada para usar un diseño de cámara apilada en los cuatro modelos

Tenga en cuenta que los modelos de iPhone 15 también vendrán con un sensor de cámara apilado, pero los modelos ‘Pro’ se perderán la actualización de hardware. El próximo año, se espera que los cuatro modelos cuenten con la tecnología para capacidades mejoradas de toma de imágenes y videos. La noticia fue compartida por el analista Ming-Chi Kuo en un blog medianolo que sugiere que debido a los dilemas de rendimiento de producción, los próximos modelos estándar de iPhone 15 se perderán la actualización.

Tenga en cuenta que el iPhone 15 y el iPhone 15 Plus contarán con una buena cantidad de actualizaciones de cámara este año. Se espera que ambos dispositivos se lancen con una cámara de 48MP con un sensor CMOS apilado para fotografía con poca luz. El sensor permitirá que entre más luz a través de la lente, lo que jugará un papel crucial para agregar más detalles a las fotos y se mejoraría para escenarios con poca luz.

El analista también menciona que Sony jugará un papel importante en la provisión de sensores de imagen CMOS o CIS para los modelos de iPhone 15 de este año y el próximo. Apple ha asegurado los pedidos por adelantado para evitar la escasez antes del lanzamiento del iPhone 16 y el iPhone 16 Pro. Esta no es la primera vez que escuchamos detalles sobre la actualización de la cámara del iPhone 16 Pro. Anteriormente se informó que el iPhone 16 Pro Max albergará un sensor mejorado de 48MP, un teleobjetivo mejorado y una lente ultra ancha.

Si bien falta más de un año para el lanzamiento del iPhone 16 y el iPhone 16 Pro, se espera que los modelos iPhone 15 Pro también incluyan cambios importantes, que se extenderán desde el diseño del dispositivo hasta el interior. Por primera vez, Apple presentará los modelos de iPhone con una construcción de titanio, ofreciendo un diseño más liviano pero más fuerte. Además, también se espera que los modelos ‘Pro’ cuenten con el chip A17 Bionic fabricado en el proceso de 3nm de TSMC para mejorar el rendimiento de la CPU y la GPU junto con una eficiencia mejorada para una duración máxima de la batería.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/los-modelos-iphone-16-y-iphone-16-pro-utilizaran-un-diseno-de-sensor-de-camara-apilado-mejorado-para-un-rendimiento-mejorado-con-poca-luz/feed/ 0
Se rumorea que las CPU Intel Arrow Lake eliminarán el nodo 20A y utilizarán TSMC 3nm en su lugar https://magazineoffice.com/se-rumorea-que-las-cpu-intel-arrow-lake-eliminaran-el-nodo-20a-y-utilizaran-tsmc-3nm-en-su-lugar/ https://magazineoffice.com/se-rumorea-que-las-cpu-intel-arrow-lake-eliminaran-el-nodo-20a-y-utilizaran-tsmc-3nm-en-su-lugar/#respond Thu, 06 Jul 2023 09:43:07 +0000 https://magazineoffice.com/se-rumorea-que-las-cpu-intel-arrow-lake-eliminaran-el-nodo-20a-y-utilizaran-tsmc-3nm-en-su-lugar/

Las CPU Arrow Lake de próxima generación de Intel iban a ser las primeras en construirse sobre el nodo de proceso 20A, pero esos planes supuestamente han cambiado ya que la compañía ahora se enfoca en usar el nodo de 3nm de TSMC.

Intel supuestamente abandona su propio nodo 20A y pasa a 3nm de TSMC para las CPU Arrow Lake de próxima generación

Circulaban algunos rumores de que Intel podría haber eliminado su nodo de proceso 20A, que iba a desempeñar un papel importante en el desarrollo de las CPU Arrow Lake de próxima generación. Los primeros rumores vinieron del compañero de Twitter, @Xinoasesino1, quien afirmó que Intel podría dejar caer 20A a favor del nodo de 3nm de TSMC. Se señaló que el nodo N3B de TSMC estaba en discusión para ser el candidato potencial para Arrow Lake, que es la versión de referencia del nodo de proceso de 3nm de TSMC que entró en producción en el segundo semestre de 2022.

La hoja de ruta del producto TSMC 3nm también incluía N3P y N3P, que ofrecen un mayor rendimiento y también una menor potencia. Mientras tanto, Intel 20A buscaba ser un competidor muy fuerte para las ofertas de 3nm de TSMC, pero parece que Arrow Lake podría estar perdiéndoselo ya que otra filtración ha señalado este posible cambio de diseño.

Créditos de imagen: Actualización de Golden Pig

Según Golden Pig Upgrade, que es muy preciso con sus filtraciones, parece que este rumor podría ser cierto, ya que él mismo ha dicho lo mismo. Se revela que la hoja de ruta más reciente de Intel ya no incluye 20A y la compañía se ha ido a una fundición externa (refiriéndose a TSMC y 3nm) para la producción de CPU Arrow Lake.

Sabemos por la propia presentación de Intel que la CPU «Compute Tile» estaba destinada a utilizar el nodo de proceso Intel 20A, mientras que la GPU se basaría en el nodo TSMC de 3 nm. Además, se iban a utilizar otros nodos para el resto de los títulos que incluyen el mosaico IO y SOC. Por lo tanto, parece que veremos el mosaico Arrow Lake Compute al menos en Intel 3, pero el resto debería usar principalmente el nodo de 3 nm de TSMC.

  • Intel Arrow Lake «Oficial» – 20A Compute Tile / TSMC 3nm GPU Tile / TSMC 3nm IO & SOC
  • «Rumor» de Intel Arrow Lake – Intel 3 Compute Tile / TSMC 3nm GPU Tile / TSMC 3nm IO y SOC

Sin embargo, no está confirmado si este cambio se aplica solo a un segmento específico o a todos los segmentos. Intel se está saltando las CPU de escritorio Meteor Lake-S a favor de las CPU Arrow Lake-S que se supone que se lanzarán en el cuarto trimestre de 2024 o el primer trimestre de 2025. La compañía también reemplazará su línea de movilidad con la familia Core Ultra de segunda generación basada en Arrow Lake. arquitectura.

Hasta el momento, no hay una confirmación oficial de Intel sobre este asunto, pero dudo que respondan a tales rumores por ahora dado que uno de estos filtradores tiene un historial muy preciso, parece muy probable que 20A haya sido retrasado y Chipzilla tiene que confiar. en TSMC para uno de sus principales lanzamientos de CPU de última generación.

Línea de CPU Intel Mobility:

Familia de CPU lago flecha Lago Meteoro Lago rapaz Lago de aliso
Nodo de proceso (mosaico de CPU) Intel 20A ‘5nm EUV» Intel 4 ‘7nm EUV’ Intel 7 ‘ESF de 10 nm’ Intel 7 ‘ESF de 10 nm’
Nodo de proceso (mosaico GPU) TSMC3nm TSMC 5nm Intel 7 ‘ESF de 10 nm’ Intel 7 ‘ESF de 10 nm’
Arquitectura de CPU Híbrido (cuatro núcleos) Híbrido (triple núcleo) Híbrido (doble núcleo) Híbrido (doble núcleo)
Arquitectura de núcleo P Cala del león cala secoya Cala rapaz cala dorada
Arquitectura de núcleo electrónico Skymont Crestmont Gracemont Gracemont
Configuración superior Por determinar 6+8 (serie H) 6+8 (serie H)
8+16 (serie HX)
6+8 (serie H)
8+8 (serie HX)
Máximo de núcleos/hilos Por determinar 14/20 14/20 14/20
Alineación planificada Serie H/P/U Serie H/P/U Serie H/P/U Serie H/P/U
Arquitectura GPU Mago de batalla Xe2 ‘Xe-LPG’
o
Xe3 Celestial «Xe-LPG»
Xe-GLP ‘Xe-MTL’ Iris Xe (Gen 12) Iris Xe (Gen 12)
Unidades de ejecución de GPU 192 UE (1024 núcleos)? 128 UE (1024 núcleos) 96 UE (768 núcleos) 96 UE (768 núcleos)
Soporte de memoria Por determinar DDR5-5600
LPDDR5-7400
LPDDR5X – 7400+
DDR5-5200
LPDDR5-5200
LPDDR5-6400
DDR5-4800
LPDDR5-5200
LPDDR5X-4267
Capacidad de memoria (máx.) Por determinar 96 GB 64 GB 64 GB
Puertos Thunderbolt 4 Por determinar 4 4 4
Capacidad Wi-Fi Por determinar Wi-Fi 6E Wi-Fi 6E Wi-Fi 6E
TDP Por determinar 15-45W 15-55W 15-55W
Lanzamiento 2H 2024? 2H 2023 1S 2023 1S 2022

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/se-rumorea-que-las-cpu-intel-arrow-lake-eliminaran-el-nodo-20a-y-utilizaran-tsmc-3nm-en-su-lugar/feed/ 0
Las reuniones de Webex utilizarán herramientas de inteligencia artificial para ayudar a los usuarios con problemas del habla a comunicarse https://magazineoffice.com/las-reuniones-de-webex-utilizaran-herramientas-de-inteligencia-artificial-para-ayudar-a-los-usuarios-con-problemas-del-habla-a-comunicarse/ https://magazineoffice.com/las-reuniones-de-webex-utilizaran-herramientas-de-inteligencia-artificial-para-ayudar-a-los-usuarios-con-problemas-del-habla-a-comunicarse/#respond Wed, 17 May 2023 05:48:35 +0000 https://magazineoffice.com/las-reuniones-de-webex-utilizaran-herramientas-de-inteligencia-artificial-para-ayudar-a-los-usuarios-con-problemas-del-habla-a-comunicarse/

La empresa de reconocimiento de voz Voiceitt ha anunciado que está integrando su tecnología en Webex Meetings. Sobre la base de las traducciones en vivo existentes de Webex, la IA de Voiceitt establece y transcribe lo que dicen las personas con un habla no estándar en las llamadas. Su tecnología de aprendizaje automático funciona familiarizándose con los patrones de habla de una persona para comprender mejor lo que quiere comunicar, prediciendo frases y elaborando atajos elegidos por el usuario.

Voiceitt está disponible como una aplicación independiente, pero la nueva asociación significa que Webex Meetings tendrá una barra de chat emergente con transcripciones en vivo. «La integración con Webex cambia las reglas del juego porque crea más independencia para los usuarios con discapacidades, al tiempo que aumenta el potencial de entornos de trabajo más colaborativos e inclusivos», dijo Sara Smolley, cofundadora y vicepresidenta de asociaciones estratégicas de Voiceitt, en un comunicado. declaración. «La verdadera colaboración significa que todos en la mesa tienen voz».

Esta asociación es una de las muchas interacciones entre Voiceitt y Cisco, la empresa matriz de Webex. Cisco Investments proporcionó capital en la última ronda de financiación de Voiceitt. El patrón sigue la inversión de Amazon en Voiceitt y la posterior integración de la tecnología en su asistente inteligente para el hogar, Alexa.

Cisco dice que Voiceitt debería estar disponible para descargar desde Webex App Hub para reuniones a partir de junio y planea que esté disponible en toda la plataforma de Webex para fines de año.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47

]]>
https://magazineoffice.com/las-reuniones-de-webex-utilizaran-herramientas-de-inteligencia-artificial-para-ayudar-a-los-usuarios-con-problemas-del-habla-a-comunicarse/feed/ 0