La carrera generativa de IA tiene un sucio secreto


A principios de febrero, primero Google, luego Microsoft, anunciaron importantes cambios en sus motores de búsqueda. Ambos gigantes tecnológicos han gastado mucho en construir o comprar herramientas de inteligencia artificial generativa, que utilizan modelos de lenguaje grandes para comprender y responder a preguntas complejas. Ahora están tratando de integrarlos en la búsqueda, con la esperanza de que brinden a los usuarios una experiencia más rica y precisa. La empresa de búsqueda china Baidu ha anunciado que hará lo mismo.

Pero el entusiasmo por estas nuevas herramientas podría estar ocultando un sucio secreto. Es probable que la carrera para construir motores de búsqueda de alto rendimiento impulsados ​​por IA requiera un aumento dramático en el poder de cómputo y, con ello, un aumento masivo en la cantidad de energía que requieren las empresas de tecnología y la cantidad de carbono que emiten.

“Ya existen enormes recursos involucrados en la indexación y búsqueda de contenido en Internet, pero la incorporación de IA requiere un tipo diferente de potencia de fuego”, dice Alan Woodward, profesor de ciberseguridad en la Universidad de Surrey en el Reino Unido. “Requiere potencia de procesamiento, así como almacenamiento y búsqueda eficiente. Cada vez que vemos un cambio radical en el procesamiento en línea, vemos aumentos significativos en los recursos de energía y refrigeración que requieren los grandes centros de procesamiento. Creo que este podría ser un gran paso”.

Entrenar modelos de lenguaje grande (LLM), como los que sustentan ChatGPT de OpenAI, que impulsará el motor de búsqueda Bing mejorado de Microsoft, y el equivalente de Google, Bard, significa analizar y computar vínculos dentro de volúmenes masivos de datos, razón por la cual han tendido a ser desarrollado por empresas con recursos considerables.

“Entrenar estos modelos requiere una gran cantidad de poder computacional”, dice Carlos Gómez-Rodríguez, científico informático de la Universidad de Coruña en España. “En este momento, solo las grandes empresas tecnológicas pueden entrenarlos”.

Si bien ni OpenAI ni Google han dicho cuál es el costo informático de sus productos, el análisis de terceros realizado por investigadores estima que la capacitación de GPT-3, en la que se basa parcialmente ChatGPT, consumió 1,287 MWh y generó emisiones de más de 550 toneladas de dióxido de carbono equivalente, la misma cantidad que una sola persona que realiza 550 viajes de ida y vuelta entre Nueva York y San Francisco.

“No es tan malo, pero luego hay que tener en cuenta [the fact that] no solo hay que entrenarlo, sino que hay que ejecutarlo y servir a millones de usuarios”, dice Gómez-Rodríguez.

También hay una gran diferencia entre utilizar ChatGPT, que el banco de inversión UBS estima que tiene 13 millones de usuarios al día, como un producto independiente e integrarlo en Bing, que maneja quinientos millones de búsquedas todos los días.

Martin Bouchard, cofundador de la empresa canadiense de centros de datos QScale, cree que, según su lectura de los planes de búsqueda de Microsoft y Google, agregar IA generativa al proceso requerirá «al menos cuatro o cinco veces más computación por búsqueda» como mínimo. Señala que ChatGPT actualmente deja de comprender el mundo a fines de 2021, como parte de un intento de reducir los requisitos informáticos.

Para cumplir con los requisitos de los usuarios de motores de búsqueda, eso tendrá que cambiar. “Si van a volver a entrenar el modelo con frecuencia y agregar más parámetros y otras cosas, es una escala de cosas totalmente diferente”, dice.



Source link-46