Los chatbots prometen un futuro que nunca llegará


Conversar con su computadora ha sido el sueño de futuristas y tecnólogos durante décadas. Cuando miras el estado del arte de 2004, es asombroso ver lo lejos que hemos llegado. Ahora hay miles de millones de dispositivos en nuestras manos y hogares que escuchan nuestras consultas y hacen todo lo posible para responderlas. Pero a pesar de todo el tiempo, dinero y esfuerzo, los chatbots de cualquier tipo no se han tragado el mundo como pretendían sus creadores. Son milagrosos. También son aburridos. Y vale la pena preguntarse por qué.

Chatbot es un término que abarca muchos sistemas, desde asistentes de voz hasta inteligencia artificial y todo lo demás. Hablar con su computadora en los viejos tiempos no tan buenos significaba escribir en una ventana y ver cómo la máquina intentaba un facsímil del acto de conversación en lugar de la conversación real. El viejo truco de ELIZA (1964 a 1967) de reformular las entradas de los usuarios en forma de pregunta ayudó a vender esta actuación. Y esto continuó incluso hasta el chatbot SmarterChild de 2001. La otra rama de este trabajo fue digitalizar lo analógico con motores de voz a texto, como el frustrante pero ocasionalmente maravilloso producto de Nuance.

En 2011, las ideas de ese trabajo inicial se unieron para crear Siri para el iPhone 4S, que se desarrolló discretamente a partir del trabajo de Nuance. El fundador de Amazon, Jeff Bezos, vio la promesa de Siri desde el principio y lanzó un gran proyecto interno para crear un competidor local. En 2014 llegó Alexa, seguida de Cortana y Google Assistant en los años siguientes. La informática en lenguaje natural ya estaba disponible en innumerables teléfonos inteligentes y dispositivos domésticos inteligentes.

Las empresas se muestran en gran medida reticentes a ser específicas sobre el precio de la construcción de nuevos proyectos, pero la conversación ha resultado costosa. Forbes informó en 2011 que comprar la startup detrás de Siri le costó a Apple 200 millones de dólares. En 2018, El periodico de Wall Street citó a Dave Limp, quien dijo que el equipo de Alexa de Amazon tenía más de 10.000 empleados. A Business Insider La historia de 2022 sugirió que la compañía atribuyó más de $ 10 mil millones en pérdidas al desarrollo de Alexa. El año pasado, La información Apple afirmó que ahora está gastando un millón de dólares al día en el desarrollo de la IA.

Entonces, ¿para qué utilizamos esta costosa tecnología? Encender y apagar nuestras bombillas inteligentes, reproducir música, abrir el timbre y tal vez leer los resultados deportivos. En el caso de la IA, tal vez obtener resultados de búsqueda web mal resumidos (o una imagen de sujetos humanos con demasiados dedos). Ciertamente no estás teniendo muchas conversaciones significativas ni extrayendo datos vitales de estas cosas. Porque en casi todos los casos, su comprensión es mala y lucha con los matices del habla humana. Y esto no es algo aislado. En 2021, Bloomberg informó sobre datos internos de Amazon que dicen que hasta una cuarta parte de los compradores dejan de usar su unidad Alexa por completo en la segunda semana de tener una.

El objetivo frecuentemente citado ha sido hacer que estas plataformas sean conversacionalmente inteligentes, respondiendo a sus preguntas y respondiendo a sus órdenes. Pero si bien puede hacer algunas cosas básicas bastante bien, como comprender principalmente cuándo le pides que apague las luces, todo lo demás no es tan sencillo. El lenguaje natural engaña a los usuarios haciéndoles pensar que los sistemas son más sofisticados de lo que realmente son. Entonces, cuando llega el momento de hacer una pregunta compleja, es más probable que obtenga las primeras líneas de una página de Wikipedia, lo que erosiona cualquier fe en su capacidad para hacer algo más que reproducir música o encender el termostato.

Se supone que las IA generativas integradas en estas interfaces de lenguaje natural resolverán todos los problemas actualmente asociados con la voz. Y sí, por un lado, estos sistemas serán mejores para simular una conversación realista y tratar de darte lo que pides. Pero, por otro lado, cuando realmente miras lo que sale del otro lado, a menudo es un galimatías. Estos sistemas están haciendo gestos hacia interacciones a nivel superficial pero no pueden hacer nada más sustancial. No olvides cuando Deportes Ilustrados Intentó utilizar contenido generado por IA que afirmaba audazmente que el voleibol podría ser «difícil de jugar, especialmente sin una pelota real con la que practicar». No es de extrañar que muchos de estos sistemas sean, como Bloomberg reportado el año pasado, apuntalado por trabajo humano mal pagado.

Por supuesto, los impulsores de la forma sugerirán que estamos en los primeros días y, como dijo recientemente el CEO de OpenAI, Sam Altman, todavía necesitamos miles de millones de dólares en más investigación y desarrollo de chips. Pero eso constituye una burla de las décadas de desarrollo y de los miles de millones de dólares ya gastados para llegar a donde estamos hoy. Pero el problema no es sólo el efectivo o las fichas: el año pasado, Los New York Times informó que las demandas de energía de la IA por sí sola podrían dispararse hasta 134 teravatios hora por año para 2027. Dada la urgente necesidad de frenar el consumo de energía y hacer las cosas más eficientes, no augura nada bueno ni para el futuro de su desarrollo ni para nuestro planeta.

Hemos tenido 20 años de desarrollo, pero los chatbots aún no se han popularizado como nos dijeron que lo harían. Al principio, fue porque simplemente les costaba entender lo que queríamos, pero incluso si eso se resolviera, ¿los abrazaríamos de repente? Después de todo, el problema subyacente persiste: simplemente no confiamos en estas plataformas, tanto porque no tenemos fe en su capacidad para hacer lo que les pedimos como por las motivaciones de sus creadores.

Uno de los ejemplos más duraderos de computación en lenguaje natural en la ficción, y frecuentemente citado por los creadores del mundo real, es la computadora de Star Trek: la próxima generación. Pero incluso allí, con un asistente de voz que parece poseer algo parecido a la inteligencia general, no se confía en que maneje la nave por sí solo. En cada puesto todavía hay un miembro de la tripulación que cumple las órdenes del capitán y, en general, cumple la misión. Incluso en un futuro tan avanzado que esté libre de necesidades materiales, los seres todavía anhelan la sensación de control.


Banner del 20 aniversario de Engadget

Celebrar 20 aniversario de Engadgetechamos un vistazo a los productos y servicios que han cambiado la industria desde el 2 de marzo de 2004.

Este artículo contiene enlaces de afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.



Source link-47