Google no lanzará su rival ChatGPT debido al «riesgo reputacional»


El lanzamiento de ChatGPT ha llevado a algunos a especular que los chatbots de IA pronto podrían tomar el relevo de los motores de búsqueda tradicionales. Pero los ejecutivos de Google dicen que la tecnología aún es demasiado inmadura para presentarla a los usuarios, con problemas que incluyen el sesgo de los chatbots, la toxicidad y su propensión a simplemente inventar información.

De acuerdo a un informe de CNBC, el CEO de Alphabet, Sundar Pichai, y el jefe de inteligencia artificial de Google, Jeff Dean, abordaron el auge de ChatGPT en una reunión reciente. Un empleado preguntó si el lanzamiento del bot, creado por OpenAI, una empresa con fuertes vínculos con el rival de Google, Microsoft, representaba una «oportunidad perdida» para el gigante de las búsquedas. Según los informes, Pichai y Dean respondieron diciendo que los modelos de lenguaje de IA de Google son tan capaces como los de OpenAI, pero que la empresa tuvo que moverse «de manera más conservadora que una pequeña empresa emergente» debido al «riesgo de reputación» que plantea la tecnología.

“Estamos absolutamente buscando convertir estas cosas en productos reales”.

“Estamos absolutamente buscando convertir estas cosas en productos reales y en cosas que presenten de manera más prominente el modelo de lenguaje en lugar de debajo de las cubiertas, que es donde las hemos estado usando hasta la fecha”, dijo Dean. “Pero es muy importante que lo hagamos bien”. Pichai agregó que Google tiene «mucho» planeado para las funciones de lenguaje de IA en 2023, y que «esta es un área en la que debemos ser audaces y responsables, por lo que debemos equilibrar eso».

Google ha desarrollado una serie de grandes modelos de lenguaje de IA (LLM) de igual capacidad que ChatGPT de OpenAI. Estos incluyen BERT, MUM y LaMDA, todos los cuales se han utilizado para mejorar el motor de búsqueda de Google. Sin embargo, estas mejoras son sutiles y se centran en analizar las consultas de los usuarios para comprender mejor su intención. Google dice que MUM lo ayuda a comprender cuándo una búsqueda sugiere que un usuario es pasando por una crisis personal, por ejemplo, y dirige a estas personas a líneas de ayuda e información de grupos como los samaritanos. Google también ha lanzó aplicaciones como AI Test Kitchen para dar a los usuarios una muestra de su tecnología de chatbot de IA, pero ha restringido las interacciones con los usuarios de varias maneras.

OpenAI también fue relativamente cauteloso en el desarrollo de su tecnología LLM, pero cambió de táctica con el lanzamiento de ChatGPT, lo que abrió el acceso al público. El resultado ha sido una tormenta de publicidad beneficiosa y exageración para OpenAI, incluso cuando la empresa incurre en enormes costos para mantener el sistema de uso gratuito.

Aunque los LLM como ChatGPT muestran una notable flexibilidad en la generación de lenguaje, también tienen problemas bien conocidos. ellos amplifican sesgos sociales encontrado en sus datos de entrenamiento, a menudo denigrando a las mujeres y personas de color; son fáciles de engañar (los usuarios descubrieron que podían eludir las pautas de seguridad de ChatGPT, que se supone que deben evitar que proporcione información peligrosa, pidiéndole que simplemente imagina que es una mala IA); y, quizás lo más pertinente para Google, ofrecen regularmente información falsa y engañosa en respuesta a las consultas. Los usuarios han descubierto que ChatGPT «miente» sobre una amplia gama de cuestiones, desde inventar datos históricos y biográficos hasta justificar afirmaciones falsas y peligrosas como decirles a los usuarios que agregar porcelana triturada a la leche materna «puede apoyar el sistema digestivo infantil.”

En la reunión general de Google, Dean reconoció estos muchos desafíos. Dijo que «se puede imaginar que para aplicaciones similares a búsquedas, los problemas de factualidad son realmente importantes y para otras aplicaciones, el sesgo, la toxicidad y los problemas de seguridad también son primordiales». Dijo que los chatbots de IA “pueden inventar cosas […] Si no están realmente seguros de algo, simplemente te dirán que los elefantes son los animales que ponen los huevos más grandes o lo que sea”.

Aunque el lanzamiento de ChatGPT ha desencadenado nuevas conversaciones sobre el potencial de los chatbots para reemplazar los motores de búsqueda tradicionales, Google ha estado considerando la cuestión durante mucho tiempo, lo que a veces ha causado controversia. investigadores de IA Timnit Gebru y margaret mitchell fueron despedidos de Google después de publicar un documento que describe los desafíos técnicos y éticos asociados con los LLM (los mismos desafíos que Pichai y Dean ahora explican al personal). Y en mayo del año pasado, un cuarteto de investigadores de Google exploró la misma cuestión de la IA en la búsqueday detalló numerosos problemas potenciales. Como señalaron los investigadores en su artículo, uno de los mayores problemas es que los LLM «no tienen una verdadera comprensión del mundo, son propensos a las alucinaciones y, lo que es más importante, son incapaces de justificar sus declaraciones al referirse a documentos de respaldo en el corpus». fueron entrenados”.

“Es un error confiar en él para algo importante en este momento”.

Hay formas de mitigar estos problemas, por supuesto, y las empresas tecnológicas rivales sin duda calcularán si vale la pena lanzar un motor de búsqueda impulsado por IA, incluso uno peligroso, solo para robarle la delantera a Google. Después de todo, si eres nuevo en la escena, el «daño reputacional» no es un gran problema.

Por su parte, OpenAI parece estar intentando reducir las expectativas. Como CEO Sam Altman tuiteado recientemente: “ChatGPT es increíblemente limitado, pero lo suficientemente bueno en algunas cosas como para crear una impresión engañosa de grandeza. es un error confiar en él para algo importante en este momento. es una vista previa del progreso; tenemos mucho trabajo por hacer en cuanto a solidez y veracidad”.





Source link-37