{"id":917940,"date":"2023-12-08T00:57:21","date_gmt":"2023-12-08T00:57:21","guid":{"rendered":"https:\/\/magazineoffice.com\/google-acaba-de-lanzar-una-nueva-ia-y-ya-admitio-que-al-menos-una-demostracion-no-era-real\/"},"modified":"2023-12-08T00:57:25","modified_gmt":"2023-12-08T00:57:25","slug":"google-acaba-de-lanzar-una-nueva-ia-y-ya-admitio-que-al-menos-una-demostracion-no-era-real","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/google-acaba-de-lanzar-una-nueva-ia-y-ya-admitio-que-al-menos-una-demostracion-no-era-real\/","title":{"rendered":"Google acaba de lanzar una nueva IA y ya admiti\u00f3 que al menos una demostraci\u00f3n no era real"},"content":{"rendered":"


\n<\/p>\n

\n

Google acaba de anunciar Geminis<\/a>su conjunto de modelos de IA m\u00e1s potente hasta el momento, y la empresa ya ha sido acusada de mentir sobre su rendimiento. <\/p>\n<\/div>\n

\n

Un art\u00edculo de opini\u00f3n de Bloomberg<\/em><\/a> <\/em>afirma que Google tergivers\u00f3 el poder de Gemini en un v\u00eddeo reciente. Google emiti\u00f3 un impresionante \u201cque carajo\u201d<\/a> v\u00eddeo pr\u00e1ctico<\/a> durante su anuncio a principios de esta semana, y el columnista Parmy Olson dice que parec\u00eda notablemente capaz en el video, tal vez tambi\u00e9n<\/em> capaz.<\/p>\n<\/div>\n

\n

El v\u00eddeo de seis minutos muestra las capacidades multimodales de Gemini (indicaciones de conversaci\u00f3n habladas combinadas con reconocimiento de im\u00e1genes, por ejemplo). Gemini aparentemente reconoce im\u00e1genes r\u00e1pidamente, incluso para im\u00e1genes de conectar los puntos, responde en segundos y rastrea un fajo de papel en un juego de taza y pelota en tiempo real. Claro, los humanos pueden hacer todo eso, pero esta es una IA capaz de reconocer y predecir lo que suceder\u00e1 a continuaci\u00f3n. <\/p>\n<\/div>\n

\n

Pero haga clic en la descripci\u00f3n del video en YouTube y Google tendr\u00e1 un descargo de responsabilidad importante:<\/p>\n<\/div>\n

\n
\n

\u00abA los efectos de esta demostraci\u00f3n, se ha reducido la latencia y las salidas de Gemini se han acortado por motivos de brevedad\u00bb.<\/p>\n<\/blockquote>\n<\/div>\n

\n

Eso es lo que le molesta a Olson. <\/em>Segun ella Bloomberg<\/em> pedazo, <\/em>Cuando se le pidi\u00f3 un comentario, Google admiti\u00f3 que la demostraci\u00f3n en video no ocurri\u00f3 en tiempo real con indicaciones habladas, sino que utiliz\u00f3 cuadros de im\u00e1genes fijas a partir de im\u00e1genes sin editar y luego escribi\u00f3 indicaciones de texto a las que Gemini respondi\u00f3. \u00abEso es bastante diferente de lo que Google parec\u00eda sugerir: que una persona podr\u00eda tener una conversaci\u00f3n de voz fluida con Gemini mientras \u00e9ste observa y responde en tiempo real al mundo que lo rodea\u00bb, escribe Olson.<\/p>\n<\/div>\n

\n

Para ser justos con Google, las empresas editan v\u00eddeos de demostraci\u00f3n con frecuencia, especialmente porque muchas quieren evitar los problemas t\u00e9cnicos que conllevan las demostraciones en vivo. Es com\u00fan modificar un poco las cosas. Pero Google tiene un historial de demostraciones en v\u00eddeo cuestionables. La gente se preguntaba si la demostraci\u00f3n Duplex de Google (recuerda d\u00faplex<\/a>el asistente de voz de IA que llamaba a peluquer\u00edas y restaurantes para hacer reservas?) era real<\/a> porque hab\u00eda una clara falta de ruido ambiental y empleados demasiado serviciales. Y los v\u00eddeos pregrabados de modelos de IA tienden a hacer que la gente sospeche a\u00fan m\u00e1s. Recuerda cuando Baidu lanz\u00f3 su Ernie Bot<\/a> con videos editados y sus acciones se derrumbaron?<\/p>\n<\/div>\n

\n

En una situaci\u00f3n como esta, Olson dice que Google est\u00e1 \u00abhaciendo alarde\u00bb para enga\u00f1ar a la gente sobre el hecho de que Gemini todav\u00eda est\u00e1 por detr\u00e1s del GPT de OpenAI. <\/p>\n<\/div>\n

\n

Google no est\u00e1 de acuerdo. Cuando se le pregunt\u00f3 sobre la validez de la demostraci\u00f3n, se\u00f1al\u00f3 El borde<\/em> a una entrada de Oriol Vinyals<\/a>vicepresidente de investigaci\u00f3n y l\u00edder de aprendizaje profundo en DeepMind de Google (tambi\u00e9n codirector de Gemini), que explica c\u00f3mo el equipo hizo el video. <\/p>\n<\/div>\n

\n

\u00abTodas las indicaciones y resultados del usuario en el video son reales, abreviados para mayor brevedad\u00bb, dice Vinyals. \u201cEl v\u00eddeo ilustra c\u00f3mo podr\u00edan verse las experiencias de usuario multimodo creadas con Gemini. Lo hicimos para inspirar a los desarrolladores\u201d. <\/p>\n<\/div>\n

\n

A\u00f1adi\u00f3 que el equipo le dio im\u00e1genes y textos a Gemini y le pidi\u00f3 que respondiera prediciendo lo que vendr\u00e1 a continuaci\u00f3n.<\/p>\n<\/div>\n

\n

Esa es ciertamente una forma de abordar esta situaci\u00f3n, pero podr\u00eda no ser la correcta para Google, que ya parece, al menos ante el p\u00fablico, haber sido tomado por sorpresa por el enorme \u00e9xito de OpenAI este a\u00f1o. Si quiere inspirar a los desarrolladores, no es a trav\u00e9s de videos cuidadosamente editados que posiblemente tergiversan las capacidades de la IA. Se trata de permitir que los periodistas y desarrolladores experimenten realmente el producto. Deje que la gente haga cosas est\u00fapidas con Gemini en una peque\u00f1a versi\u00f3n beta p\u00fablica. Mu\u00e9stranos lo poderoso que es realmente.<\/p>\n<\/div>\n