El CEO de Google, Sundar Pichai, promete actualizaciones de chatbot de Bard AI pronto: «Claramente tenemos modelos más capaces»


El CEO de Google, Sundar Pichai, respondió a las críticas sobre el chatbot de IA experimental de la compañía, Bard, y prometió que Google actualizará Bard pronto.

“Claramente tenemos modelos más capaces”, dijo Pichai en una entrevista en Los New York Times’ Podcast de bifurcación dura. “Muy pronto, tal vez como este [podcast] se activa, actualizaremos Bard a algunos de nuestros modelos PaLM más capaces, lo que traerá más capacidades; ya sea en el razonamiento, la codificación, puede responder mejor a las preguntas de matemáticas. Así que verán el progreso en el transcurso de la próxima semana”.

“En cierto modo, siento que tomamos un Civic mejorado y lo pusimos en una carrera con autos más potentes”.

Pichai señaló que Bard se está ejecutando en una «versión liviana y eficiente de LaMDA», un modelo de lenguaje de IA que se enfoca en entrega de diálogo. “En cierto modo, siento que tomamos un Civic mejorado y lo pusimos en una carrera con autos más potentes”, dijo Pichai. PaLM, en comparación, es un modelo de lenguaje más reciente; es más grande en escala y Google afirma que es más capaz cuando se trata de tareas como el razonamiento de sentido común y los problemas de codificación.

Bard se lanzó por primera vez a los usuarios públicos el 21 de marzo, pero no logró atraer la atención o elogios ganados por ChatGPT de OpenAI y el chatbot Bing de Microsoft. En el bordepropias pruebas de estos sistemas, encontramos que Bard era consistentemente menos útil que sus rivales. Como todos los chatbots de propósito general, puede responder a una amplia gama de preguntas, pero sus respuestas son generalmente menos fluidas e imaginativas, y no se basan en fuentes de datos confiables.

Pichai sugirió que parte de la razón de las capacidades limitadas de Bard era una sensación de precaución dentro de Google. “Para mí, era importante no poner [out] un modelo más capaz antes de que podamos asegurarnos de que podemos manejarlo bien”, dijo.

Pichai también confirmó que estaba hablando con los cofundadores de Google, Larry Page y Sergey Brin, sobre el trabajo («Sergey ha estado saliendo con nuestros ingenieros por un tiempo») y que, aunque él mismo nunca emitió el infame «código Rojo” para codificar el desarrollo, probablemente hubo personas en la empresa que “enviaron correos electrónicos diciendo que hay un código rojo”.

Pichai también discutió las preocupaciones de que el desarrollo de la IA actualmente avanza demasiado rápido y tal vez represente una amenaza para la sociedad. Muchos en las comunidades tecnológicas y de inteligencia artificial han estado advirtiendo sobre la peligrosa dinámica de carrera que actualmente está en juego entre compañías como OpenAI, Microsoft y Google. A principios de esta semana, un carta abierta firmada por Elon Musk y los principales investigadores de IA pidió una pausa de seis meses en el desarrollo de estos sistemas de IA.

“Esto va a necesitar mucho debate, nadie sabe todas las respuestas”.

“En esta área, creo que es importante escuchar las preocupaciones”, dijo Pichai con respecto a la carta abierta que pide la pausa. “Y creo que hay mérito para preocuparse por eso… Esto va a necesitar mucho debate, nadie sabe todas las respuestas, ninguna compañía puede hacerlo bien”. También dijo que «la IA es un área demasiado importante para no regularla», pero sugirió que era mejor simplemente aplicar las regulaciones en las industrias existentes, como las regulaciones de privacidad y las regulaciones en el cuidado de la salud, que crear nuevas leyes para abordar específicamente la IA.

Algunos expertos se preocupan por los riesgos inmediatos, como la tendencia de los chatbots a difundir falsedades desinformación, mientras que otros advierten sobre amenazas más existenciales; lo que sugiere que estos sistemas son tan difíciles de controlar que una vez que están conectados a la web más amplia, podrían usarse destructivamente. Algunos sugieren que los programas actuales también se están acercando a lo que se conoce como inteligencia artificial en general, o AGI: sistemas que son al menos tan capaces como un humano en una amplia gama de tareas.

“Es tan claro para mí que estos sistemas van a ser muy, muy capaces, por lo que casi no importa si ha llegado a AGI o no”, dijo Pichai. “¿Podemos tener un sistema de inteligencia artificial que pueda causar desinformación a gran escala? Sí. ¿Es AGI? Realmente no importa. ¿Por qué debemos preocuparnos por la seguridad de la IA? Porque tienes que anticiparte a esto y evolucionar para encontrarte con ese momento”.

Puede escuchar la entrevista completa y leer una transcripción. aquí.



Source link-37