{"id":348510,"date":"2022-12-14T12:16:28","date_gmt":"2022-12-14T12:16:28","guid":{"rendered":"https:\/\/magazineoffice.com\/google-no-lanzara-su-rival-chatgpt-debido-al-riesgo-reputacional\/"},"modified":"2022-12-14T12:16:30","modified_gmt":"2022-12-14T12:16:30","slug":"google-no-lanzara-su-rival-chatgpt-debido-al-riesgo-reputacional","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/google-no-lanzara-su-rival-chatgpt-debido-al-riesgo-reputacional\/","title":{"rendered":"Google no lanzar\u00e1 su rival ChatGPT debido al \u00abriesgo reputacional\u00bb"},"content":{"rendered":"


\n<\/p>\n

\n
\n

El lanzamiento de ChatGPT ha llevado a algunos a especular que los chatbots de IA pronto podr\u00edan tomar el relevo de los motores de b\u00fasqueda tradicionales. Pero los ejecutivos de Google dicen que la tecnolog\u00eda a\u00fan es demasiado inmadura para presentarla a los usuarios, con problemas que incluyen el sesgo de los chatbots, la toxicidad y su propensi\u00f3n a simplemente inventar informaci\u00f3n. <\/p>\n<\/div>\n

\n

De acuerdo a un informe de CNBC<\/em><\/a>, el CEO de Alphabet, Sundar Pichai, y el jefe de inteligencia artificial de Google, Jeff Dean, abordaron el auge de ChatGPT en una reuni\u00f3n reciente. Un empleado pregunt\u00f3 si el lanzamiento del bot, creado por OpenAI, una empresa con fuertes v\u00ednculos con el rival de Google, Microsoft, representaba una \u00aboportunidad perdida\u00bb para el gigante de las b\u00fasquedas. Seg\u00fan los informes, Pichai y Dean respondieron diciendo que los modelos de lenguaje de IA de Google son tan capaces como los de OpenAI, pero que la empresa tuvo que moverse \u00abde manera m\u00e1s conservadora que una peque\u00f1a empresa emergente\u00bb debido al \u00abriesgo de reputaci\u00f3n\u00bb que plantea la tecnolog\u00eda.<\/p>\n<\/div>\n

\n
\n

\u201cEstamos absolutamente buscando convertir estas cosas en productos reales\u201d.<\/p>\n<\/div>\n<\/div>\n

\n

\u201cEstamos absolutamente buscando convertir estas cosas en productos reales y en cosas que presenten de manera m\u00e1s prominente el modelo de lenguaje en lugar de debajo de las cubiertas, que es donde las hemos estado usando hasta la fecha\u201d, dijo Dean. \u201cPero es muy importante que lo hagamos bien\u201d. Pichai agreg\u00f3 que Google tiene \u00abmucho\u00bb planeado para las funciones de lenguaje de IA en 2023, y que \u00abesta es un \u00e1rea en la que debemos ser audaces y responsables, por lo que debemos equilibrar eso\u00bb.<\/p>\n<\/div>\n

\n

Google ha desarrollado una serie de grandes modelos de lenguaje de IA (LLM) de igual capacidad que ChatGPT de OpenAI. Estos incluyen BERT, MUM y LaMDA, todos los cuales se han utilizado para mejorar el motor de b\u00fasqueda de Google. Sin embargo, estas mejoras son sutiles y se centran en analizar las consultas de los usuarios para comprender mejor su intenci\u00f3n. Google dice que MUM lo ayuda a comprender cu\u00e1ndo una b\u00fasqueda sugiere que un usuario es pasando por una crisis personal<\/a>, por ejemplo, y dirige a estas personas a l\u00edneas de ayuda e informaci\u00f3n de grupos como los samaritanos. Google tambi\u00e9n ha lanz\u00f3 aplicaciones como AI Test Kitchen<\/a> para dar a los usuarios una muestra de su tecnolog\u00eda de chatbot de IA, pero ha restringido las interacciones con los usuarios de varias maneras. <\/p>\n<\/div>\n

\n

OpenAI tambi\u00e9n fue relativamente cauteloso en el desarrollo de su tecnolog\u00eda LLM, pero cambi\u00f3 de t\u00e1ctica con el lanzamiento de ChatGPT, lo que abri\u00f3 el acceso al p\u00fablico. El resultado ha sido una tormenta de publicidad beneficiosa y exageraci\u00f3n para OpenAI, incluso cuando la empresa incurre en enormes costos para mantener el sistema de uso gratuito. <\/p>\n<\/div>\n

\n

Aunque los LLM como ChatGPT muestran una notable flexibilidad en la generaci\u00f3n de lenguaje, tambi\u00e9n tienen problemas bien conocidos. ellos amplifican sesgos sociales<\/a> encontrado en sus datos de entrenamiento, a menudo denigrando a las mujeres y personas de color; son f\u00e1ciles de enga\u00f1ar (los usuarios descubrieron que pod\u00edan eludir las pautas de seguridad de ChatGPT, que se supone que deben evitar que proporcione informaci\u00f3n peligrosa, pidi\u00e9ndole que simplemente imagina que es una mala IA<\/a>); y, quiz\u00e1s lo m\u00e1s pertinente para Google, ofrecen regularmente informaci\u00f3n falsa y enga\u00f1osa en respuesta a las consultas. Los usuarios han descubierto que ChatGPT \u00abmiente\u00bb sobre una amplia gama de cuestiones, desde inventar datos hist\u00f3ricos y biogr\u00e1ficos hasta justificar afirmaciones falsas y peligrosas como decirles a los usuarios que agregar porcelana triturada a la leche materna \u00abpuede apoyar el sistema digestivo infantil<\/a>.\u201d<\/p>\n<\/div>\n

\n

En la reuni\u00f3n general de Google, Dean reconoci\u00f3 estos muchos desaf\u00edos. Dijo que \u00abse puede imaginar que para aplicaciones similares a b\u00fasquedas, los problemas de factualidad son realmente importantes y para otras aplicaciones, el sesgo, la toxicidad y los problemas de seguridad tambi\u00e9n son primordiales\u00bb. Dijo que los chatbots de IA \u201cpueden inventar cosas […] Si no est\u00e1n realmente seguros de algo, simplemente te dir\u00e1n que los elefantes son los animales que ponen los huevos m\u00e1s grandes o lo que sea\u201d.<\/p>\n<\/div>\n

\n

Aunque el lanzamiento de ChatGPT ha desencadenado nuevas conversaciones sobre el potencial de los chatbots para reemplazar los motores de b\u00fasqueda tradicionales, Google ha estado considerando la cuesti\u00f3n durante mucho tiempo, lo que a veces ha causado controversia. investigadores de IA Timnit Gebru<\/a> y margaret mitchell<\/a> fueron despedidos de Google despu\u00e9s de publicar un documento que describe los desaf\u00edos t\u00e9cnicos y \u00e9ticos asociados con los LLM (los mismos desaf\u00edos que Pichai y Dean ahora explican al personal). Y en mayo del a\u00f1o pasado, un cuarteto de investigadores de Google explor\u00f3 la misma cuesti\u00f3n de la IA en la b\u00fasqueda<\/a>y detall\u00f3 numerosos problemas potenciales. Como se\u00f1alaron los investigadores en su art\u00edculo, uno de los mayores problemas es que los LLM \u00abno tienen una verdadera comprensi\u00f3n del mundo, son propensos a las alucinaciones y, lo que es m\u00e1s importante, son incapaces de justificar sus declaraciones al referirse a documentos de respaldo en el corpus\u00bb. fueron entrenados\u201d.<\/p>\n<\/div>\n

\n
\n

\u201cEs un error confiar en \u00e9l para algo importante en este momento\u201d.<\/p>\n<\/div>\n<\/div>\n

\n

Hay formas de mitigar estos problemas, por supuesto, y las empresas tecnol\u00f3gicas rivales sin duda calcular\u00e1n si vale la pena lanzar un motor de b\u00fasqueda impulsado por IA, incluso uno peligroso, solo para robarle la delantera a Google. Despu\u00e9s de todo, si eres nuevo en la escena, el \u00abda\u00f1o reputacional\u00bb no es un gran problema. <\/p>\n<\/div>\n

\n

Por su parte, OpenAI parece estar intentando reducir las expectativas. Como CEO Sam Altman tuiteado recientemente<\/a>: \u201cChatGPT es incre\u00edblemente limitado, pero lo suficientemente bueno en algunas cosas como para crear una impresi\u00f3n enga\u00f1osa de grandeza. es un error confiar en \u00e9l para algo importante en este momento. es una vista previa del progreso; tenemos mucho trabajo por hacer en cuanto a solidez y veracidad\u201d.<\/p>\n<\/div>\n<\/div>\n