¿Dónde estaba toda la IA en la WWDC 2023?


Con su sello roto por el lanzamiento de ChatGPT en noviembre pasado, la IA generativa irrumpió en la sociedad en general con una ferocidad que no se había visto desde la famosa desventura de Pandora con la caja de la miseria. De repente, la tecnología está en todas partes, con empresas emergentes y líderes de la industria que se esfuerzan por incorporar esta característica inteligente del día en sus pilas de código existentes y calzar la promesa transformadora del contenido generado por máquinas en cada una de sus aplicaciones. En este punto del ciclo de publicidad serías un tonto no para gritar sus logros genAI desde los tejados; rápidamente se ha convertido en la única forma de ser escuchado por encima del estrépito de todos los chatbots personalizables y vendedores de diapositivas de Powerpoint de producción propia que inundan el mercado.

Si la última conferencia I/O de Google o el nuevo equipo de desarrollo dedicado de Meta fueron una indicación, los jugadores más importantes de la industria tecnológica también se están preparando para participar en genAI. El evento de Google se centró en las ambiciones de IA de la compañía en torno a Bard y PaLM 2, quizás incluso en detrimento del hardware anunciado, incluidos los teléfonos Pixel Fold y 7a, y Pixel Tablet. Desde las funciones Smart Compose de Gmail hasta Real Tone y Magic Editor de Camera, Project Tailwind y los fondos de pantalla generativos de 7a, la IA fue la primera en los labios de todos los ejecutivos de Alphabet en subir al escenario de Shoreline.

Sin embargo, si hubiera estado bebiendo dos dedos cada vez que Apple lo mencionó durante su discurso de apertura de WWDC 2023, estaría completamente sobrio.

Cero: esa es la cantidad de veces que un presentador en el escenario pronunció la frase «inteligencia artificial» en la WWDC 2023. Lo más cerca que llegamos a la IA fue «Aire» y el término «aprendizaje automático» se dijo exactamente siete veces.

Eso no quiere decir que Apple no esté invirtiendo mucho en investigación y desarrollo de IA. Los productos que se exhibieron durante el discurso de apertura del martes estaban repletos de tecnología. Las funciones de «autocorrección de atenuación» están potenciadas por el aprendizaje automático en el dispositivo, al igual que el video en vivo de la pantalla de bloqueo (que lo usa para sintetizar marcos intersticiales) y las indicaciones de escritura personalizadas e inspiradoras de la nueva aplicación Journal. Las funciones de autocompletado de PDF se basan en sistemas de visión artificial para comprender qué campos van a dónde; la nueva prueba de miopía de Health Apps también lo hace, solo con la distancia de la pantalla de su hijo, mientras que AirPods ahora adapta su configuración de reproducción según sus preferencias. y condiciones ambientales predominantes. Todo gracias a los sistemas de aprendizaje automático.

Es solo que Apple no habló de eso. Al menos, no directamente.

Incluso cuando se habla de las características de vanguardia en los nuevos auriculares Vision Pro, ya sea el procesamiento del lenguaje natural que se incluye en sus entradas de voz, el trazado de rayos de audio, la magia negra de la visión artificial o el seguimiento de gestos manuales en tiempo real y la identificación óptica implican — la discusión permaneció centrada en lo que las funciones de los auriculares pueden hacer por los usuarios. No es lo que los auriculares podrían hacer por el estado del arte o la carrera por la superioridad en el mercado.

Lo más cerca que estuvo Apple durante el evento de describir abiertamente los aspectos básicos digitales que constituyen sus sistemas de aprendizaje automático fue su descripción de la función Persona de Vision Pro. Dado que las aplicaciones del dispositivo se inclinan mucho hacia los juegos, el entretenimiento y la comunicación, nunca hubo una posibilidad de que superáramos esto sin tener que hacer llamadas FaceTime con estos atados a la cabeza. Dado que una llamada de FaceTime en la que todos estén escondidos detrás de un auricular anularía el propósito de tener una videollamada, Apple está aprovechando un complejo sistema de aprendizaje automático para recrear digitalmente la cabeza, el torso, los brazos y las manos del usuario de Vision Pro, también conocido como su » Persona.»

“Después de un rápido proceso de inscripción usando los sensores frontales en vision pro, el sistema usa un codificador decodificador avanzado, una red neuronal para crear su personalidad digital”, dijo Mike Rockwell, vicepresidente del Grupo de Desarrollo de Tecnología de Apple, durante el evento. «Esta red se entrenó en un grupo diverso de miles de personas, ofrece una representación natural que se adapta dinámicamente a su movimiento facial y manual».

La IA se trató en gran medida como una ocurrencia tardía durante todo el evento en lugar de un punto de venta, en beneficio de Apple. Al romper con la atmósfera de carnaval que actualmente rodea los desarrollos de IA generativa, Apple no solo mantiene su marca distante y de élite, sino que también se distancia de la promoción agresiva de la tecnología por parte de Google, y también facilita a los compradores potenciales asustadizos las alegrías de la cara. hardware montado.

Steve Jobs a menudo usaba la frase «simplemente funciona» para describir los productos de la compañía, lo que implica que estaban destinados a resolver problemas, no a crear molestias adicionales para los usuarios, y parece que Apple ha reavivado esa filosofía de diseño en los albores de la tecnología espacial. era de la informática. En nuestra sociedad cada vez más disfuncional, volátil y errática, la promesa de simplicidad y confiabilidad, de algo, cualquier cosa, trabajando como se anuncia, podría ser justo lo que Apple necesita para que los compradores se traguen el precio inicial de $ 3,500 del Vision Pro.



Source link-47