Google espera solucionar el problema de diversidad de imágenes históricas de Gemini en unas semanas


Google tiene la esperanza de poder pronto «reanudar» la capacidad de su herramienta de inteligencia artificial generativa multimodal, Gemini, para representar personas, según el fundador de DeepMind, Demis Hassabis. La capacidad de responder a solicitudes de imágenes de humanos debería volver a estar disponible en las “próximas semanas”, dijo hoy.

Google suspendió la capacidad de Gemini la semana pasada después de que los usuarios señalaran que la herramienta estaba produciendo imágenes históricamente incongruentes, como representar a los Padres Fundadores de Estados Unidos como un grupo diverso de personas, en lugar de solo hombres blancos.

Hassabis respondió hoy a las preguntas sobre el problema del producto durante una entrevista en el escenario del Mobile World Congress en Barcelona.

Cuando un moderador, Steven Levy de Wired, le pidió que explicara qué salió mal con la función de generación de imágenes, Hassabis eludió una explicación técnica detallada. En cambio, sugirió que el problema se debió a que Google no pudo identificar casos en los que los usuarios básicamente buscan lo que describió como una «representación universal». El ejemplo apunta a los “matices que vienen con la IA avanzada”, dijo también.

“Este es un campo con el que todos estamos luchando. Entonces, si, por ejemplo, incluyes un mensaje que pide: «dame una foto de una persona paseando a un perro o de una enfermera en un hospital», claro, en esos casos, claramente quieres una especie de «representación universal». ‘ Especialmente si consideras que, como Google, atendemos a más de 200 países, ya sabes, a todos los países del mundo, por lo que no sabes de dónde viene el usuario ni cuáles serán sus antecedentes ni en qué contexto se encuentra. Así que quieres mostrar una especie de rango universal de posibilidades allí”.

Hassabis dijo que el problema se reducía a una «característica bien intencionada» (fomentar una diversidad en las imágenes de personas de Gemini) que se había aplicado «demasiado sin rodeos, en todo ello».

Las indicaciones que solicitan contenido sobre personajes históricos deberían “por supuesto” dar como resultado “una distribución mucho más estrecha que se puede devolver”, añadió, insinuando cómo Gemini podría abordar las indicaciones para las personas en el futuro.

“Por supuesto, nos preocupamos por la precisión histórica. Por eso, hemos desconectado esa función mientras la arreglamos y esperamos volver a tenerla en línea en el próximo tiempo, en muy poco tiempo. Las próximas dos semanas, las próximas semanas”.

En respuesta a una pregunta de seguimiento sobre cómo evitar que los malos actores, como los regímenes autoritarios que buscan difundir propaganda, se apropien indebidamente de las herramientas de IA generativa, Hassabis no tenía una respuesta sencilla. La cuestión es “muy compleja”, sugirió, y probablemente exija una movilización y una respuesta de toda la sociedad para determinar y hacer cumplir los límites.

“Es necesario realizar investigaciones y debates realmente importantes, también con la sociedad civil y los gobiernos, no sólo con las empresas de tecnología”, dijo. “Es una cuestión técnico-social que afecta a todos y debería implicar a todos para discutirla. ¿Qué valores queremos que tengan estos sistemas? ¿Qué representarían? ¿Cómo se puede evitar que los malos actores accedan a las mismas tecnologías y, de qué estás hablando, es reutilizarlas para fines dañinos que no fueron previstos por los creadores de esos sistemas?

Refiriéndose al desafío de los modelos de IA de uso general y código abierto, que también ofrece Google, añadió: “Los clientes quieren utilizar sistemas de código abierto que puedan controlar por completo. . . Pero entonces surge la pregunta: ¿cómo se puede garantizar que lo que la gente usa posteriormente no sea perjudicial para esos sistemas a medida que se vuelven cada vez más potentes?

“Creo que hoy en día no es un problema porque los sistemas aún son relativamente incipientes. Pero si avanzamos tres, cuatro o cinco años y empezamos a hablar de sistemas de próxima generación con capacidades de planificación y capaces de actuar en el mundo y resolver problemas y objetivos, creo que la sociedad realmente tiene que pensar seriamente en estas cuestiones, por ejemplo. ¿Qué sucede si esto prolifera y luego los malos actores, desde individuos hasta estados rebeldes, también pueden hacer uso de ellos?

Durante la entrevista, también se le preguntó a Hassabis qué pensaba sobre los dispositivos de inteligencia artificial y hacia dónde podría dirigirse el mercado móvil, ya que la inteligencia artificial generativa continúa impulsando nuevos desarrollos aquí. Predijo una ola de “asistentes inteligentes de próxima generación” que serán útiles en la vida cotidiana de las personas, en lugar de las cosas “efectivas” de las generaciones anteriores de asistentes de IA, que, según sugirió, podrían incluso remodelar el hardware móvil que la gente elige llevar consigo.

«Creo que incluso habrá preguntas sobre cuál es el tipo de dispositivo correcto», sugirió. “Pero dentro de cinco años o más, ¿el teléfono realmente tendrá el factor de forma perfecto? Tal vez necesitemos gafas o algunas otras cosas para que el sistema de inteligencia artificial pueda ver un poco el contexto en el que te encuentras y así ser aún más útil en tu vida diaria. Así que creo que hay todo tipo de cosas asombrosas por inventar”.



Source link-48