Google se prepara para un futuro en el que la búsqueda no sea el rey


El director ejecutivo de Google, Sundar Pichai, todavía ama la web. Se despierta cada mañana y lee Techmeme, un agregador de noticias repleto de enlaces, al que sólo se puede acceder a través de la web. La Web es dinámica y resistente, afirma, y ​​aún puede (con la ayuda de un motor de búsqueda) proporcionar cualquier información que una persona esté buscando.

Sin embargo, la web y su capa de búsqueda crítica están cambiando. Todos podemos verlo suceder: las aplicaciones de redes sociales, los videos de formato corto y la IA generativa están desafiando nuestros ideales obsoletos de lo que significa encontrar información en línea. Calidad información en línea. Pichai también lo ve. Pero tiene más poder que la mayoría para dirigirlo.

La forma en que Pichai está implementando Gemini, el modelo de inteligencia artificial más poderoso de Google hasta el momento, sugiere que por mucho que le guste la buena web, está mucho más interesado en una versión futurista de la misma. Tiene que serlo: los chatbots vienen por él.

Hoy Google anunció que el chatbot que lanzó para contrarrestar ChatGPT de OpenAI, Bard, recibirá un nuevo nombre: Gemini, como el modelo de IA en el que se basa y que se presentó por primera vez en diciembre. El chatbot Gemini también se está volviendo móvil y se está alejando poco a poco de su fase «experimental» y acercándose a la disponibilidad general. Tendrá su propia aplicación en Android y una ubicación privilegiada en la aplicación de búsqueda de Google en iOS. Y la versión más avanzada de Gemini también se ofrecerá como parte de un paquete de suscripción a Google One de 20 dólares al mes.

Al lanzar la versión más poderosa de Gemini con un muro de pago, Google apunta directamente al ChatGPT en rápido ascenso y al servicio de suscripción ChatGPT Plus. Pichai también está experimentando con una nueva visión de lo que ofrece Google, no reemplazando buscar, todavía no, pero construir una alternativa para ver qué se mantiene.

«Así es como siempre hemos abordado la búsqueda, en el sentido de que a medida que la búsqueda evolucionó, que aparecieron los dispositivos móviles y cambiaron las interacciones de los usuarios, nos adaptamos a ello», dice Pichai, hablando con WIRED antes del lanzamiento de Gemini. “En algunos casos somos usuarios líderes, como lo somos con la IA multimodal. Pero quiero ser flexible con respecto al futuro, porque de lo contrario nos equivocaremos”.

Sobrecarga sensorial

«Multimodal» es una de las cosas favoritas de Pichai sobre el modelo Gemini AI, uno de los elementos que, según Google, lo distingue de los asistentes ChatGPT de OpenAI y Copilot AI de Microsoft, que también funcionan con tecnología OpenAI. Significa que Gemini fue entrenado con datos en múltiples formatos: no solo texto, sino también imágenes, audio y código. Como resultado, el modal terminado también domina todos esos modos y se le puede solicitar que responda usando texto o voz o tomando y compartiendo una foto.

«Así es como funciona la mente humana, donde estás constantemente buscando cosas y tienes un deseo real de conectarte con el mundo que ves», se entusiasma Pichai, diciendo que durante mucho tiempo ha buscado agregar esa capacidad a la tecnología de Google. «Por eso en la Búsqueda de Google agregamos búsqueda múltiple, por eso hicimos Google Lens [for visual search]. Entonces, con Gemini, que es multimodal de forma nativa, puedes ponerle imágenes y luego comenzar a hacerle preguntas. Ese vistazo al futuro es lo que realmente brilla”.



Source link-46