Bard, el chatbot con inteligencia artificial de Google, comete un error en la primera demostración


El lunes, Google anunció su Chatbot con IA Bard – un rival de ChatGPT de OpenAI que estará “más ampliamente disponible para el público en las próximas semanas”. Pero el bot no ha tenido un gran comienzo, y los expertos señalan que Bard cometió un error de hecho en su primera demostración.

Un GIF compartido por Google muestra a Bard respondiendo a la pregunta: «¿Qué nuevos descubrimientos del telescopio espacial James Webb puedo contarle a mi hijo de 9 años?» Bard ofrece tres viñetas a cambio, incluida una que afirma que el telescopio «tomó las primeras imágenes de un planeta fuera de nuestro propio sistema solar».

Sin embargo, varios astrónomos en Twitter señalaron que esto es incorrecto y que la primera imagen de un exoplaneta se tomó en 2004. como se indica aquí en el sitio web de la NASA.

«No quiero ser un ~bueno, en realidad~ imbécil, y estoy seguro de que Bard será impresionante, pero para que conste: JWST no tomó ‘la primera imagen de un planeta fuera de nuestro sistema solar'», tuiteó el astrofísico Grant Tremblay. .

Bruce Macintosh, director de los Observatorios de la Universidad de California en UC Santa Cruz, también señaló el error. «Hablando como alguien que tomó imágenes de un exoplaneta 14 años antes de que se lanzara JWST, ¿sientes que deberías encontrar un mejor ejemplo?» él tuiteó.

(El error y las objeciones de los expertos fueron descubiertos por primera vez por Reuters y Científico nuevo.)

a: pasar el cursor]: texto-gris-63 [&>a:hover]:sombra-subrayado-negro oscuro:[&>a:hover]:texto-gris-bd oscuro:[&>a:hover]:sombra-subrayado-gris [&>a]:sombra-subrayado-gris-63 oscuro:[&>a]:texto-gris-bd oscuro:[&>a]:shadow-underline-gray»>Imagen: Google

En un tweet de seguimiento, Tremblay agregó: “Me encanta y aprecio que una de las compañías más poderosas del planeta esté utilizando una búsqueda JWST para anunciar su LLM. ¡Impresionante! Pero ChatGPT, etc., aunque escalofriantemente impresionante, a menudo son *con mucha confianza* incorrectos. Será interesante ver un futuro en el que los LLM se autoverifiquen”.

Como señala Tremblay, un problema importante para los chatbots de IA como ChatGPT y Bard es su tendencia a declarar información incorrecta como un hecho. Los sistemas con frecuencia «alucinan», es decir, inventan información, porque son esencialmente sistemas de autocompletado.

En lugar de consultar una base de datos de hechos probados para responder preguntas, están capacitados en grandes corpus de texto y analizan patrones para determinar qué palabra sigue a la siguiente en una oración determinada. En otras palabras, son probabilísticos, no deterministas, un rasgo que ha llevado a un destacado profesor de IA a etiquetarlos como «generadores de tonterías».

Por supuesto, Internet ya está lleno de información falsa y engañosa, pero el problema se ve agravado por el deseo de Microsoft y Google de utilizar estas herramientas como motores de búsqueda. Allí, las respuestas de los chatbots adquieren la autoridad de una posible máquina que todo lo sabe.

Microsoft, que ayer hizo una demostración de su nuevo motor de búsqueda Bing impulsado por IA, ha tratado de adelantarse a estos problemas responsabilizando al usuario. “Bing funciona con inteligencia artificial, por lo que es posible que se produzcan sorpresas y errores”, dice el descargo de responsabilidad de la empresa. «¡Asegúrese de verificar los hechos y compartir comentarios para que podamos aprender y mejorar!»

Un portavoz de Google dijo el borde: “Esto destaca la importancia de un proceso de prueba riguroso, algo que estamos iniciando esta semana con nuestro programa Trusted Tester. Combinaremos los comentarios externos con nuestras propias pruebas internas para asegurarnos de que las respuestas de Bard alcancen un alto nivel de calidad, seguridad y solidez en la información del mundo real”.

Actualización, miércoles 8 de febrero, 11:03 a. m. ET: La historia ha sido actualizada con comentarios de Google.





Source link-37