La carrera para construir un motor de búsqueda impulsado por ChatGPT


Otro problema con un sistema como ChatGPT es que sus respuestas se basan únicamente en los datos en los que se entrenó. Volver a entrenar el modelo en su totalidad puede costar millones de dólares debido a su tamaño y la escala de los datos. You Chat se confunde cuando se le pregunta por los últimos resultados deportivos, pero sabe cómo está el tiempo en Nueva York en este momento. Socher no quiere revelar cómo se incorpora la información actualizada, ya que lo ve como una ventaja competitiva.

“Creo que en este momento muchas de estas interfaces de chat son muy superiores a la experiencia de búsqueda en algunos aspectos, pero en otros claramente son mucho peores”, dice Socher. “Estamos trabajando para reducir todos estos problemas”.

Aravind Srinivas, fundador y director ejecutivo de la empresa de búsqueda Perplexity AI, que trabajó anteriormente en OpenAI, dice que el desafío de actualizar un sistema similar a ChatGPT con información reciente significa que deben combinarse con algo más. “Solos nunca podrán ser buenos motores de búsqueda”, dice.

Saam Motamedi, un capitalista de riesgo de Greylock Partners que ha invertido en la empresa de búsqueda Neeva basada en IA, dice que tampoco está claro qué tan compatibles son las interfaces de chat con el principal modelo de ingresos para los motores de búsqueda: la publicidad. Google y Bing usan consultas de búsqueda para seleccionar anuncios que aparecen en la parte superior de la lista de enlaces que se muestran como respuesta. Motamedi sospecha que es posible que deban surgir nuevas formas de publicidad para que las interfaces de búsqueda de estilo chat sean viables, pero no está del todo claro cuáles serán. Neeva cobra una tarifa de suscripción para búsquedas ilimitadas sin publicidad.

El costo de ejecutar un modelo como ChatGPT en la escala de Google también podría resultar problemático. Luis Ceze, cofundador y director ejecutivo de OctoML, una empresa que ayuda a las empresas a reducir el costo de implementación de algoritmos de aprendizaje automático, estima que puede ser 10 veces más costoso ejecutar una búsqueda de ChatGPT que una búsqueda de Google, porque cada respuesta requiere ejecutar una gran cantidad de modelo complejo de IA.

La escala de la manía de ChatGPT ha tomado por sorpresa a algunos codificadores e investigadores de IA familiarizados con la tecnología subyacente. El algoritmo en el núcleo del bot, llamado GPT, fue desarrollado por primera vez por OpenAI en 2018, y una versión más potente, GPT-2, se reveló en 2019. Es un modelo de aprendizaje automático diseñado para tomar texto y luego predecir qué viene a continuación, que OpenAI demostró que puede funcionar de manera impresionante si se entrena con grandes volúmenes de texto. La primera versión comercial de la tecnología, GPT-3, ha estado disponible para que la usen los desarrolladores desde junio de 2020 y puede lograr muchas de las cosas por las que ChatGPT ha sido agasajado recientemente.

ChatGPT utiliza una versión mejorada del algoritmo subyacente, pero el mayor salto en sus capacidades proviene de OpenAI, ya que los humanos brindan comentarios al sistema sobre qué es una respuesta satisfactoria. Pero al igual que los sistemas de generación de texto anteriores, ChatGPT todavía es propenso a reproducir sesgos de sus datos de entrenamiento, así como a «alucinar» resultados plausibles pero incorrectos.

Gary Marcus, profesor emérito de la Universidad de Nueva York y crítico vocal de la exageración de la IA, cree que ChatGPT no es adecuado para realizar búsquedas porque no comprende realmente lo que dice. Agrega que herramientas como ChatGPT pueden causar otros problemas para las empresas de búsqueda al inundar Internet con texto optimizado para motores de búsqueda generado por IA. “Todos los motores de búsqueda están a punto de tener un problema”, dice.

Alex Ratner, profesor asistente de la Universidad de Washington y cofundador de Snorkel AI, que trabaja en el entrenamiento de modelos de IA de manera más eficiente, llama a ChatGPT «legítimamente una inflexión» en lo que puede hacer el software. Pero también dice que puede tomar un tiempo descubrir cómo evitar que los modelos de lenguaje como GPT inventen cosas. Él cree que encontrar una manera de mantenerlos actualizados con nueva información para mantener la búsqueda fresca probablemente implicará nuevos enfoques para entrenar los modelos de IA subyacentes.

No está claro cuánto tiempo llevará inventar y probar esas correcciones. Puede pasar algún tiempo antes de que la tecnología pueda cambiar radicalmente la forma en que las personas buscan respuestas, incluso si se dan otros casos de uso, como inventar nuevas recetas o servir como compañero de estudio o de programación. “Es asombroso, y le dije a mi equipo que la gente verá años como antes y después de ChatGPT”, dice Chen de Moveworks. “Pero si reemplazará la búsqueda es una cuestión diferente”.



Source link-46