La búsqueda estilo ChatGPT representa un aumento de costos de 10 veces para Google, Microsoft


¿Es una buena idea un motor de búsqueda al estilo ChatGPT? El mercado de valores ciertamente parece pensar que sí, borrando $ 100 mil millones del valor de mercado de Google después de la mala actuación de la compañía en su reciente evento de búsqueda de IA. Sin embargo, en realidad, convertir un chatbot en un negocio viable será un desafío. Además de ese hecho, Google ha tenido una interfaz de búsqueda de chat durante siete años, el Asistente de Google, y la compañía de publicidad más grande del mundo no ha podido monetizarla. Y un nuevo informe de Reuters señala otro problema monetario con la generación de una sesión de chat para cada búsqueda: va a costar mucho más ejecutarlo en comparación con un motor de búsqueda tradicional.

Hoy en día, la búsqueda de Google funciona mediante la creación de un gran índice de la web, y cuando busca algo, esas entradas del índice se escanean, clasifican y clasifican, y las entradas más relevantes aparecen en los resultados de búsqueda. La página de resultados de Google en realidad te dice cuánto tiempo toma todo esto cuando buscas algo, y generalmente es menos de un segundo. Un motor de búsqueda al estilo de ChatGPT implicaría activar una enorme red neuronal modelada en el cerebro humano cada vez que ejecuta una búsqueda, generando un montón de texto y probablemente también consultando ese gran índice de búsqueda para obtener información objetiva. La naturaleza de ida y vuelta de ChatGPT también significa que probablemente estarás interactuando con él durante mucho más de una fracción de segundo.

Todo ese procesamiento adicional costará mucho más dinero. Después de hablar con el presidente de Alphabet, John Hennessy (Alphabet es la empresa matriz de Google) y varios analistas, Reuters escribe que «un intercambio con IA conocido como modelo de lenguaje grande probablemente cueste 10 veces más que una búsqueda de palabra clave estándar» y que podría representar «varios mil millones de dólares de costos adicionales».

Exactamente cuántos miles de millones de los $ 60 mil millones en ingresos netos anuales de Google serán absorbidos por un chatbot es un tema de debate. Una estimación en el informe de Reuters es de Morgan Stanley, que agrega un aumento de costos anual de $ 6 mil millones para Google si una «IA similar a ChatGPT manejara la mitad de las consultas que recibe con respuestas de 50 palabras». Otra estimación de la consultora SemiAnalysis afirma que costaría $ 3 mil millones.

Google insinuó que el tiempo del servidor es un problema en su publicación inicial en su chatbot «Bard», diciendo que comenzaría con una «versión modelo liviana» del modelo de lenguaje de Google, y que «este modelo mucho más pequeño requiere significativamente menos poder de cómputo, permitiéndonos para escalar a más usuarios, lo que permite más comentarios». Escuchar que Google está siendo cauteloso con la escala es interesante. Google es Google— ya opera a una escala que empequeñecerá a la mayoría de las empresas y podría maneje cualquier carga informática que desee arrojarle. La «escala» es solo una cuestión de lo que Google quiere pagar.

El costo de la búsqueda es definitivamente un problema mayor para Google que para Microsoft. Parte de la razón por la que Microsoft está tan ansioso por sacudir el barco del motor de búsqueda es que la mayoría de las estimaciones de participación de mercado colocan a Bing en solo alrededor del 3 por ciento del mercado de búsqueda mundial, mientras que Google tiene alrededor del 93 por ciento. La búsqueda es un negocio principal para Google de una manera por la que Microsoft no tiene que preocuparse, y dado que necesita procesar 8.500 millones de búsquedas todos los días, los costos por búsqueda de Google pueden acumularse muy rápidamente.

Hennessy de Alphabet dijo a Reuters que Google está buscando reducir los costos, calificándolo de «un problema de un par de años en el peor de los casos». Google ha abordado problemas como este en el pasado, como cuando compró YouTube y pudo reducir los costos lo suficiente como para convertirlo en una máquina de hacer dinero, y continúa hoy con innovaciones como la construcción de sus propios chips de transcodificación de video. La compañía también construye chips de servidor personalizados para el aprendizaje automático, llamados Unidades de procesamiento de tensores. Aún así, con Google pasando por un baño de sangre de reducción de costos en los últimos meses, no es lo ideal mirar de repente hacia su principal producto de consumo con costos vertiginosos durante «unos pocos años».

Todavía no está claro cuánto dinero ganará alguien con los chatbots que se supone que deben dar una respuesta directamente. Los asistentes de voz de Google y Amazon no han logrado generar ganancias después de años de esta línea de pensamiento de monetización de «lo resolveremos más tarde», y esos son solo chatbots más limitados. OpenAI, el creador de ChatGPT, cobra dinero por palabra generada, lo que no funciona para los motores de búsqueda (también está montando una ola de entusiasmo de los inversores que puede aguantar durante años). Otro informe de Reuters dice que Microsoft ya se ha reunido con anunciantes para detallar su plan de «insertar [ads] en las respuestas generadas por el chatbot de Bing», pero no está claro qué tan incómodo sería o si los consumidores reaccionarán cuando un chatbot repentinamente entre en una pausa publicitaria.

Para Google, nuevamente se trata de comparar este nuevo estilo de motor de búsqueda de chat con el antiguo, y no está claro si una interfaz de chatbot generaría más o menos ingresos publicitarios. Podría imaginar un futuro en el que obtener una buena respuesta al instante daría como resultado menos tiempo en Google en comparación con tener que buscar en una lista de 10 enlaces azules. Si eso es cierto, entonces ninguna de las matemáticas de dinero en estos nuevos motores de búsqueda se ve bien.



Source link-49