Cómo la IA cambiará la forma en que buscamos, para bien o para mal


GRAMOBuenas noticias para todos, ¡vamos a pasar a los chatbots! Cuando lanzó ChatGPT en noviembre pasado, OpenAI no se dio cuenta de que el avanzado LLM (modelo de lenguaje grande) diseñado para imitar asombrosamente la escritura humana se convertiría en la aplicación de más rápido crecimiento hasta la fecha, con más de 100 millones de usuarios registrados en los últimos tres meses. Su éxito, ayudado por una inversión multianual de $ 10 mil millones de Microsoft, sorprendió en gran medida a la competencia de la compañía, lo que a su vez provocó una respuesta frenética y frenética de Google, Baidu y Alibaba. Pero a medida que estos motores de búsqueda mejorados entren en funcionamiento en los próximos días, las formas y los motivos de cómo buscamos seguramente evolucionarán junto con ellos.

“Estoy muy entusiasmado con la tecnología. Ya sabes, hemos estado construyendo sistemas NLP por un tiempo y hemos estado buscando cada año un crecimiento incremental”, dijo a Engadget el Dr. Sameer Singh, Profesor Asociado de Ciencias de la Computación en la Universidad de California, Irvine (UCI). “Para el público, parece que de repente, de la nada, ahí es donde estamos. He visto que las cosas han mejorado a lo largo de los años y es bueno que todas estas cosas estén disponibles en todas partes y que la gente las use”.

En cuanto al éxito público reciente de los modelos de lenguaje grande, «Creo que en parte se debe a que la tecnología ha llegado a un punto en el que no es del todo vergonzoso poner el resultado de estos modelos frente a las personas, y se ve realmente bien la mayor parte del tiempo». ”, continuó Singh. «Creo que eso es lo suficientemente bueno».

JASON REDMOND a través de Getty Images

“Creo que tiene menos que ver con la tecnología y más con la percepción del público”, continuó. «Si GPT no se hubiera lanzado públicamente… Una vez que algo así está disponible y realmente resuena con tanta gente, el uso está fuera de serie».

Los proveedores de búsqueda tienen grandes grande ideas sobre cómo podrían funcionar los rastreadores web y los motores de búsqueda mejorados con inteligencia artificial y maldita sea si no van a romper cosas y moverse rápido para llegar allí. Microsoft prevé que su Bing AI sirva como el «copiloto» del usuario en su navegación web, siguiéndolo de página en página, respondiendo preguntas e incluso escribiendo publicaciones en las redes sociales en su nombre.

Este es un cambio fundamental del proceso que usamos hoy. Dependiendo de la complejidad de la pregunta, es posible que los usuarios tengan que visitar varios sitios web, luego analizar la información recopilada y unirla en una idea cohesiva antes de evaluarla.

«Eso es más trabajo que tener un modelo que, con suerte, ya haya leído estas páginas y pueda sintetizar esto en algo que actualmente no existe en la web», Brendan Dolan-Gavitt, profesor asistente en el Departamento de Ingeniería y Ciencias de la Computación en NYU Tandon, le dijo a Engadget. “La información todavía está disponible. Todavía es verificable y, con suerte, correcto. Pero no todo está en su lugar”.

Por su parte, la visión de Google del futuro impulsado por la IA tiene a los usuarios dando vueltas por su página de búsqueda en lugar de hacer clic en los sitios de destino. La información relevante para la consulta del usuario se recopilaría de la web, el modelo de lenguaje la uniría y luego se regurgitaría como una respuesta con referencia al sitio web de origen que se muestra como notas al pie.

Todo esto suena muy bien, y todo iba muy bien, hasta la primera oportunidad de que algo saliera mal. Cuando lo hizo. En su anuncio inaugural de Twitter, menos de 24 horas después de su debut, Bard, la respuesta de Google a ChatGPT, declaró con confianza: «JWST tomó las primeras imágenes de un planeta fuera de nuestro propio sistema solar». Te sorprenderá saber que el Telescopio Espacial James Webb, de hecho, no descubrió el primer exoplaneta de la historia. El Very Large Telescope de ESO tiene ese honor desde 2004. Bard se lo inventó. Lo aluciné del éter digital.

Por supuesto, esta no es la primera vez que las máquinas nos mienten. La búsqueda siempre ha sido un poco como un juego de dados, desde los primeros días de Lycos y Altavista. “Cuando se lanzó la función de búsqueda, pensamos que era ‘suficientemente buena’, aunque no perfecta”, recordó Singh. “Daría todo tipo de resultados. Con el tiempo, han mejorado mucho. Jugamos con él y nos dimos cuenta de cuándo deberíamos confiar en él y cuándo no, cuándo deberíamos pasar a la segunda página de resultados y cuándo no”.

La siguiente generación de asistentes de IA de voz evolucionó a través de los mismos problemas básicos que sus predecesores basados ​​en texto. “Cuando Siri y el Asistente de Google y todos estos salieron y Alexa”, dijo Singh, “no eran los asistentes que nos vendían”.

Es probable que el desempeño de los LLM de hoy en día, como Bard y ChatGPT, mejore en caminos similares a través de su uso público, así como a través de una mayor especialización en funciones técnicas y basadas en el conocimiento específicas, como medicina, análisis comercial y derecho. “Creo que definitivamente hay razones por las que se vuelve mucho mejor una vez que comienzas a especializarte. No creo que Google y Microsoft específicamente se especialicen demasiado; su mercado es lo más general posible”, señaló Singh.

En muchos sentidos, lo que ofrecen Google y Bing al interponer sus servicios frente a Internet en general, al igual que hizo AOL con el servicio America Online en los años 90, es una conclusión lógica a los desafíos que enfrentan los usuarios de Internet de hoy.

REDMOND, WA.  - 7 DE FEBRERO: el reportero del Washington Post Geoff Fowler le hace preguntas a un portavoz de Microsoft sobre la nueva búsqueda de Bing impulsada por IA durante una demostración en la sede de Microsoft en Redmond, Washington, el martes 7 de febrero de 2023. (Foto de Jovelle Tamayo / para The Washington Post a través de Getty Images)

The Washington Post a través de Getty Images

“Nadie está haciendo la búsqueda como el objetivo final. Estamos buscando alguna información, eventualmente para actuar sobre esa información”, argumenta Singh. «Si pensamos en eso como el papel de la búsqueda, y no solo en el sentido literal de buscar literalmente algo, puedes imaginar que algo que realmente actúa sobre los resultados de búsqueda puede ser muy útil».

Singh caracteriza esta centralización del poder como “una preocupación muy válida. En pocas palabras, si tiene estas capacidades de chat, está mucho menos inclinado a ir a los sitios web donde reside esta información”, dijo.

Ya es bastante malo que los chatbots tengan la costumbre de dar grandes saltos intelectuales en sus resúmenes, pero la práctica también puede «incentivar a los usuarios a no ir al sitio web, no leer la fuente completa, para simplemente obtener la versión que les da la interfaz de chat y ordenar de empezar a confiar en él cada vez más”, advirtió Singh.

En esto, Singh y Dolan-Gavitt están de acuerdo. “Si estás canibalizando las visitas que habría recibido un sitio y ya no diriges a las personas allí, sino que usas la misma información, existe el argumento de que estos sitios no tendrán muchos incentivos para seguir publicando contenido nuevo”. Dolan-Gavitt le dijo a Engadget. “Por otro lado, la necesidad de clics también es una de las razones por las que recibimos mucho spam y es una de las razones por las que la búsqueda se ha vuelto menos útil recientemente. Creo [the shortcomings of search are] una gran parte de por qué las personas están respondiendo de manera más positiva a estos productos de chatbot”.

Esa demanda, combinada con un mercado naciente, está dando como resultado una lucha entre los principales actores de la industria para sacar sus productos ayer, listos o no, decepcionantes o no. Esa carrera por la cuota de mercado es decididamente peligrosa para los consumidores. La incursión anterior de Microsoft en los chatbots de IA, Taye de 2014, terminó mal (por decirlo sin las capuchas blancas y el paso de ganso). Hoy, los usuarios de Reddit ya están liberando OpenAI para generar contenido racista. Estos son dos de los desafíos más inocuos que enfrentaremos a medida que los LLM se expandan en uso, pero incluso ellos han resultado difíciles de erradicar en parte, porque requieren coordinación entre una industria de competidores viscosos.

“El tipo de cosas por las que tiendo a preocuparme son, en el lado del software, si esto pone capacidades maliciosas en más manos, facilita que las personas escriban malware y virus”, dijo Dolan-Gavitt. “Esto no es tan extremo como cosas como la información errónea, pero sin duda, creo que hará que sea mucho más fácil para las personas hacer spam”.

“Hasta ahora, gran parte del pensamiento en torno a la seguridad se ha basado en esta idea de que habría solo un par de tipos de empresas centrales que, si pudiera lograr que todas estuvieran de acuerdo, podríamos tener algunos estándares de seguridad”. Dolan-Gavitt continuó. “Creo que cuanta más competencia hay, más obtienes este entorno abierto en el que puedes descargar un modelo sin restricciones, configurarlo en tu servidor y hacer que genere lo que quieras. Los tipos de enfoques que se basaron en este modelo más centralizado comenzarán a desmoronarse”.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47