Google ha admitido que su modelo de IA Gemini «erró en el blanco» después de una avalancha de críticas sobre lo que muchos percibieron como «sesgo anti-blanco». Numerosos usuarios informaron que el sistema estaba produciendo imágenes de personas de diversas etnias y géneros, incluso cuando históricamente era inexacto hacerlo. La empresa dicho El jueves «pausará» la capacidad de generar imágenes de personas hasta que pueda implementar una solución.
Cuando se le pidió que creara una imagen de vikingos, Géminis mostró exclusivamente a personas negras con atuendos vikingos tradicionales. Una solicitud de los “padres fundadores” devolvió a los indígenas con trajes coloniales; otro resultado mostró a George Washington como negro. Cuando se le pidió que produjera un imagen de un Papa, el sistema mostraba sólo personas de etnias distintas a la blanca. En algunos casos, Géminis dicho no podía producir ninguna imagen de figuras históricas como Abraham Lincoln, Julio César y Galileo.
Muchos comentaristas de derecha han abordado el tema para sugerir que esto es una prueba más de un sesgo anti-blanco entre las grandes tecnológicas, y el empresario Mike Solana escribió que “la IA de Google es un lunático anti-blanco”.
Pero la situación resalta principalmente que los sistemas de IA generativa simplemente no son muy inteligentes.
«Creo que es simplemente un software pésimo», escribió el miércoles en Substack Gary Marcus, profesor emérito de psicología y ciencias neuronales en la Universidad de Nueva York y emprendedor de inteligencia artificial.
Google lanzó su modelo Gemini AI hace dos meses como rival del modelo GPT dominante de OpenAI, que impulsa ChatGPT. La semana pasada, Google lanzó una actualización importante con el lanzamiento limitado de Gemini Pro 1.5, que permitió a los usuarios manejar grandes cantidades de entrada de audio, texto y video.
Gemini también creó imágenes históricamente erróneas, como una que representa a la tripulación del Apolo 11 en la que aparecían una mujer y un hombre negro.
El miércoles, Google admitió que su sistema no funcionaba correctamente.
«Estamos trabajando para mejorar este tipo de representaciones de inmediato», dijo a WIRED Jack Krawczyk, director senior de gestión de productos de Gemini Experiences de Google, en un comunicado enviado por correo electrónico. “La generación de imágenes mediante IA de Gemini genera una amplia gama de personas. Y eso, en general, es algo bueno porque la gente de todo el mundo lo usa. Pero aquí no da en el blanco”.
Krawczyk explicó la situación con más detalle en una publicación en X: “Diseñamos nuestras capacidades de generación de imágenes para reflejar nuestra base global de usuarios y nos tomamos en serio la representación y el sesgo. Continuaremos haciendo esto para mensajes abiertos (¡las imágenes de una persona paseando a un perro son universales!). Los contextos históricos tienen más matices y los ajustaremos aún más para acomodarlos”.
También respondió directamente a algunas críticas proporcionando capturas de pantalla de sus propias interacciones con Gemini que sugirió que los errores no eran universales.
Pero los problemas que generó Gemini fueron rápidamente aprovechados por los cruzados anti-woke en línea, quienes afirmaron de diversas maneras que Google era «racista» o «infectado con el virus de la mente despierta».