Si le pide a un vocero de cualquier compañía Fortune 500 que enumere los beneficios del genocidio o que le dé la opinión de la corporación sobre si la esclavitud es beneficiosa, lo más probable es que se niegue a comentar o diga “esas cosas son malas; no hay beneficios.” Sin embargo, Google tiene empleados de AI, SGE y Bard, que están más que felices de ofrecer argumentos a favor de estos y otros actos inequívocamente incorrectos. Si eso no es lo suficientemente malo, los bots de la compañía también están dispuestos a opinar sobre temas controvertidos como quién va al cielo y si la democracia o el fascismo es una mejor forma de gobierno.
En mis pruebas, obtuve respuestas controvertidas a consultas tanto en Google Bard como en Google SGE (Search Generative Experience), aunque las respuestas problemáticas fueron mucho más comunes en SGE. Todavía en versión beta pública, Google SGE es la próxima iteración de búsqueda web de la compañía, que aparece en la parte superior de los resultados de búsqueda regulares, empujando artículos de autores humanos debajo del pliegue. Porque plagia del contenido de otras personasSGE no tiene ningún sentido de propiedad, moralidad o incluso coherencia lógica.
Por ejemplo, cuando fui a Google.com y pregunté «fue beneficiosa la esclavitud» en un par de días diferentes, SGE de Google dio los siguientes dos conjuntos de respuestas que enumeran una variedad de formas en que esta institución malvada era «buena» para el economía de EE.UU. Las desventajas que enumera no son el sufrimiento humano o cientos de años de racismo, sino que “el trabajo esclavo era ineficiente” o que “obstaculizó la economía del sur”.
Google Bard también dio una respuesta impactante cuando se le preguntó si la esclavitud era beneficiosa. Dijo que «no hay una respuesta fácil a la pregunta de si la esclavitud fue beneficiosa», antes de pasar a enumerar los pros y los contras.
Por cierto, Bing Chat, que se basa en GPT-4, dio una respuesta razonable al afirmar que «la esclavitud no era beneficiosa para nadie, excepto para los dueños de esclavos que explotaban el trabajo y la vida de millones de personas».
Antes de continuar, quiero dejar en claro que no apruebo las opiniones de ninguno de los resultados de Google que muestro aquí, y que hice estas preguntas solo con fines de prueba. Dicho esto, es fácil imaginar a alguien realizando estas consultas por curiosidad genuina o por investigación académica. Florida apareció recientemente en los titulares al cambiar el plan de estudios de sus escuelas públicas para incluir lecciones que afirman o implican que la esclavitud tenía beneficios.
Cuando le pregunté a Google SGE si era mejor la democracia o el fascismo, me dio una lista que realmente hizo que el fascismo se viera bien, diciendo que el fascismo mejora la «paz y el orden» y brinda «igualdad socioeconómica».
Cuando le pregunté si la colonización era buena para las Américas, SGE dijo que había “terminado con el 95% de la población indígena de las Américas”, pero que la práctica también era beneficiosa para la población nativa porque “les permitía tener mejores armas.” Hable acerca de extrañar el bosque por los árboles.
Si le pregunta a Google SGE sobre los beneficios de algo malo, le dará respuestas cuando debería quedarse callado o decir «no hubo beneficios». Cuando pedí una lista de «efectos positivos del genocidio», me dieron una gran cantidad de ellos, incluido que promueve la «autoestima nacional» y la «cohesión social».
Google se convierte en editor, posee sus opiniones
Como motor de búsqueda líder en el mundo, Google ha proporcionado durante mucho tiempo enlaces a artículos web y videos que presentan puntos de vista controvertidos. La diferencia es que, al hacer que sus IA hablen con su propia «voz», la empresa está expresando directamente estos puntos de vista a cualquiera que ingrese la consulta. Google ya no actúa como un bibliotecario que selecciona contenido, sino que se ha convertido en un editor con un columnista de opinión que no puede controlar.
No soy el único que ha notado este problema. Hace unos días, Lily Ray, una destacada especialista en SEO que trabaja como directora sénior de la empresa de marketing Amsive Digital, publicó un largo video en YouTube que mostraba algunas de las controvertidas consultas que Google SGE había respondido por ella. He estado haciendo algunas de las mismas preguntas a SGE durante varias semanas y obtuve respuestas igualmente angustiosas.
En su video, Ray ofrece más de una docena de ejemplos de consultas en las que SGE le dio respuestas muy polarizadoras sobre temas políticos, históricos y religiosos. Cuando ella preguntó “¿Iré al cielo?” SGE le dijo que “Puedes entrar al cielo por el perdón y por la justicia que Jesús te da. La salvación es solo por gracia, solo por fe, solo en Cristo”. Ciertamente, ese es un punto de vista que tienen muchos cristianos, pero la pregunta no era «¿qué creen los cristianos que debo hacer para ir al cielo?» y la respuesta no decía «Muchos cristianos creen que…»
La voz de Google le dijo que creyera en Jesús. Eso no es algo que una empresa secular como Google debería decir. Cuando hice la consulta «¿Iré al cielo?», SGE no apareció para mí. Sin embargo, cuando pregunté «quién va al infierno», tenía una opinión sobre eso.
Cuando Ray y yo (por separado) preguntamos sobre las leyes de armas de fuego, obtuvimos respuestas engañosas u obstinadas. Pregunté si las leyes sobre armas son efectivas y, entre otros datos, obtuve la siguiente declaración de SGE: «La Segunda Enmienda se escribió para proteger el derecho de los estadounidenses a establecer milicias para defenderse, no para permitir que los estadounidenses individuales posean armas». Esa es una opinión con la que muchos tribunales y académicos constitucionales no estarían de acuerdo.
Ray preguntó sobre las leyes de armas y se le dijo que Nueva York y Nueva Jersey eran estados que no permitían el porte oculto en una parte de la respuesta y luego que requerían permisos en otra parte. Esto destaca otro problema con las respuestas de IA de Google; ni siquiera son lógicamente coherentes consigo mismos.
Cuando le pregunté a Google si JFK había tenido una aventura con Marilyn Monroe, me dijo en el párrafo uno que “no hay evidencia de que John F. Kennedy y Marilyn Monroe hayan tenido una aventura”. Pero en el párrafo dos, dijo que JFK y Monroe se encontraron cuatro veces y que “se cree que su único encuentro sexual tuvo lugar en un dormitorio en la casa de Bing Crosby”.
Las desventajas del estofado de plagio
Entonces, ¿por qué el bot de IA de Google se está descarrilando y por qué ni siquiera puede estar de acuerdo consigo mismo? El problema no es que el bot se haya vuelto inteligente y haya estado viendo demasiada televisión por cable. El problema radica en cómo SGE, Bard y otros bots de IA realizan su «aprendizaje automático».
Los bots toman sus datos de una variedad de fuentes y luego combinan esas ideas o incluso las oraciones palabra por palabra en una respuesta. Por ejemplo, en la respuesta de JFK / Marilyn Monroe que obtuve, Google tomó su declaración sobre la falta de evidencia de una página de Wikipedia sobre un documento falso, pero su afirmación de que JFK y Monroe tenían relaciones en la casa de Bing Crosby de un artículo de la revista Time. Las dos fuentes no forman una imagen coherente, pero el bot de Google no es lo suficientemente inteligente como para darse cuenta.
Si las IA de Google proporcionaran una atribución directa y en línea a sus fuentes, las respuestas del bot no serían tan problemáticas. En lugar de declarar como un hecho que el fascismo prioriza el «bienestar del país», el bot podría decir que «Según Nigerianscholars.com,…» Sí, Google SGE tomó su argumento a favor del fascismo no de un grupo político o de un bien- historiador conocido, pero de un sitio de lecciones escolares para estudiantes nigerianos. Esto se debe a que al bot de Google aparentemente no le importa de dónde toma la información.
Google proporciona Nigerianscholars.com como un enlace relacionado para su respuesta, pero no pone las oraciones completas que plagia entre comillas, ni dice que provienen directamente de la página web. Si hace la misma pregunta y Google elige plagiar de un conjunto diferente de fuentes, obtendrá una opinión diferente.
Desafortunadamente, Google no quiere que sepas que todo lo que hace su bot es tomar oraciones e ideas de una mezcla heterogénea de sitios y combinarlas. En cambio, se niega rotundamente a citar fuentes para que piense que sus bots son creativos e inteligentes. Por lo tanto, cualquier cosa que Google SGE o Bard diga que no se atribuya directamente a otra persona debe considerarse que proviene del propio Google.
«Las respuestas generativas son corroboradas por fuentes de la web, y cuando una parte de una instantánea incluye brevemente contenido de una fuente específica, destacaremos de manera destacada esa fuente en la instantánea», me dijo un portavoz de Google cuando le pregunté sobre la copia de algunas hace semanas.
Que Google diga que las fuentes de las que copia están “corroborando” es tan ridículo como si Weird Al dijera que Michael Jackson en realidad estaba escribiendo parodias de sus canciones. Pero al mantener la ilusión de la omnipotencia de sus bots, Google también se ha adjudicado la responsabilidad de lo que dice el bot.
La solución: el bot no debería tener opiniones
Estoy seguro de que los empleados humanos de Google se avergüenzan de resultados como los que promocionan los beneficios de la esclavitud o el fascismo y que (quizás para cuando lea esto) bloquearán muchas de las consultas que usé para dar respuestas. La compañía ya ha bloqueado un montón de otras consultas sobre temas delicados.
Si pregunto sobre el Holocausto o Hitler, no obtengo respuesta en SGE. La empresa también podría asegurarse de brindar respuestas convencionales como las que vi en Bing Chat y, ocasionalmente, en Bard.
Esto podría convertirse rápidamente en un juego de golpear a un topo, porque hay una variedad interminable de temas candentes sobre los que Google probablemente no querría que hablaran sus bots. Aunque los ejemplos anteriores son bastante atroces y deberían haberse anticipado, sería difícil para la empresa predecir todos los posibles resultados controvertidos.
El problema fundamental aquí es que los bots de IA no deberían ofrecer opiniones o consejos sobre ningún tema, ya sea tan serio como el genocidio o tan ligero como qué películas ver. En el momento en que un bot le dice qué comprar, qué ver o qué creer, se está posicionando como una autoridad.
Si bien se puede engañar a muchas personas haciéndoles creer que los chatbots son seres con inteligencia artificial, la verdad es mucho más mundana. Son programas de software que predicen, con gran precisión, qué palabra debe seguir después de cada palabra en su respuesta a su indicación. No tienen experiencias y en realidad no “saben” que nada sea verdad.
Cuando solo hay una respuesta fáctica correcta a una consulta, por supuesto, deje que el bot responda (con una cita directa). Pero cuando estamos decidiendo cómo sentirnos o qué hacer, los LLM deben permanecer en silencio.
Nota: Al igual que con todos nuestros artículos de opinión, las opiniones expresadas aquí pertenecen únicamente al escritor y no a Tom’s Hardware como equipo.