Entrenamiento ChatGPT AI requirió 185,000 galones de agua: estudio


Modelos populares de lenguaje extenso (LLM) como ChatGPT de OpenAI y Bardo de Google consumen mucha energía, lo que requiere granjas de servidores masivas para proporcionar suficientes datos para entrenar los poderosos programas. Enfriar esos mismos centros de datos también hace que los chatbots de IA estén increíblemente sedientos. Una nueva investigación sugiere entrenamiento para GPT-3 solo consumió 185.000 galones (700.000 litros) de agua. El intercambio conversacional de un usuario promedio con ChatGPT básicamente equivale a arrojar una botella grande de agua fresca al suelo, según el nuevo estudio. Dado el chatbot popularidad sin precedenteslos investigadores temen que todas esas botellas derramadas puedan tener un efecto preocupante en los suministros de agua, especialmente en medio de sequías históricas y la incertidumbre ambiental que se avecina en los EE.UU.

Investigadores de la Universidad de Colorado Riverside y la Universidad de Texas Arlington publicaron las estimaciones de consumo de agua de IA en un artículo preimpreso titulado “Haciendo que la IA sea menos ‘sedienta’.‘” Los autores encontraron que la cantidad de agua dulce clara requerida para entrenar GPT-3 es equivalente a la cantidad necesaria para llenar la torre de enfriamiento de un reactor nuclear. OpenAI no ha revelado el tiempo necesario para entrenar GPT-3, lo que complica las estimaciones de los investigadores, pero Microsoft, que ha establecido una asociación multianual y multimillonaria con la puesta en marcha de IA y ha construido supercomputadoras para el entrenamiento de IA, dice que su última supercomputadora, que requeriría un extenso aparato de enfriamiento, contiene 10 000 tarjetas gráficas y más de 285 000 núcleos de procesador, lo que da una idea de la gran escala de la operación detrás de la inteligencia artificial. Esa enorme cantidad de galones podría producir celdas de batería para 320 Teslas o, dicho de otro modo, ChatGPT, que vino después de GPT-3, necesitaría «beber» una botella de agua de 500 mililitros para completar un intercambio básico con un usuario. que consta de aproximadamente 25-50 preguntas.

La gigantesca cantidad de galones necesarios para entrenar el modelo de IA también supone que la capacitación se lleva a cabo en el centro de datos estadounidense de última generación de Microsoft, construido especialmente para OpenAI por una suma de decenas de millones. Si los datos se entrenaron en el centro de datos asiático menos eficiente energéticamente de la compañía, el informe señala que el consumo de agua podría ser tres veces mayor. Los investigadores esperan que estos requisitos de agua aumenten aún más con los modelos más nuevos, como el lanzado recientemente GPT-4que se basan en un conjunto más grande de parámetros de datos que sus predecesores.

“La huella hídrica de los modelos de IA ya no puede pasar desapercibida”, dijeron los investigadores. “La huella hídrica debe abordarse como una prioridad como parte de los esfuerzos colectivos para combatir los desafíos globales del agua”.

¿Cómo utilizan los chatbots el agua?

Al calcular el consumo de agua de AI, los investigadores distinguen entre «extracción» y «consumo» de agua. El primer ejemplo es la práctica de extraer agua físicamente de un río, lago u otra fuente, mientras que el consumo se refiere específicamente a la pérdida de agua por evaporación cuando se utiliza en centros de datos. La investigación sobre el uso de agua de AI se centra principalmente en la parte de consumo de esa ecuación, donde el agua no se puede reciclar.

Cualquiera que haya pasado unos segundos en la sala de servidores de una empresa sabe que primero debe empacar un suéter. Las salas de servidores se mantienen frescas, generalmente entre 50 y 80 grados Fahrenheit para evitar que los equipos funcionen mal. Mantener esa temperatura ideal es un reto constante porque los propios servidores convierten su energía eléctrica en calor. Las torres de enfriamiento como las que se muestran a continuación a menudo se implementan para tratar de contrarrestar ese calor y mantener las habitaciones a su temperatura ideal mediante la evaporación del agua fría.

Torres de enfriamiento evaporativo en el proceso del centro de datos

Las torres de enfriamiento hacen el trabajo, pero requieren inmensas cantidades de agua para hacerlo. Los investigadores estiman que se consume alrededor de un galón de agua por cada kilovatio-hora gastado en un centro de datos promedio. No se puede utilizar cualquier tipo de agua, tampoco. Los centros de datos se alimentan de fuentes de agua dulce y limpia para evitar la corrosión o el crecimiento de bacterias que puede generar el agua de mar. El agua dulce también es esencial para el control de la humedad en las habitaciones. Los investigadores también responsabilizan a los centros de datos por el agua necesaria para generar las altas cantidades de electricidad que consumen, algo que los científicos denominaron «consumo indirecto de agua fuera del sitio».

Imágenes del centro de datos de Google

Los problemas de consumo de agua no se limitan a los modelos OpenAI o AI. En 2019, Google solicitó más de 2.3 billones de galones de agua para centros de datos en solo tres estados. La empresa actualmente tiene 14 centros de datos distribuidos por América del Norte que utiliza para potenciar la Búsqueda de Google, su conjunto de productos para el lugar de trabajo y, más recientemente, su LaMDa y Bardo grandes modelos de lenguaje. Solo LaMDA, según el artículo de investigación reciente, podría requerir millones de litros de agua para entrenar, más que GPT-3 porque varios de los centros de datos sedientos de Google están ubicados en estados cálidos como Texas; Sin embargo, los investigadores emitieron una advertencia con esta estimación, llamándola un «punto de referencia aproximado».

Aparte del agua, los nuevos LLM también requieren una cantidad asombrosa de electricidad. Un informe de Stanford AI publicado la semana pasada que analiza diferencias en el consumo de energía entre cuatro modelos destacados de IA, estimando que el GPT-3 de OpenAI liberó 502 toneladas métricas de carbono durante su entrenamiento. En general, la energía necesaria para entrenar GPT-3 podría alimentar el hogar de un estadounidense promedio durante cientos de años.

“La carrera para que los centros de datos se mantengan al día con todo es bastante frenética”, dijo Kevin Kent, CEO de Critical Facilities Efficiency Solution, en un comunicado. entrevista con tiempo. “No siempre pueden tomar las mejores decisiones ambientales”.

El cambio climático y el empeoramiento de las sequías podrían aumentar las preocupaciones sobre el uso del agua por parte de AI

Ya, el Foro Económico Mundial estimados unos 2,2 millones de residentes de EE. UU. carecen de agua y de plomería interior básica. Otros 44 millones viven con sistemas de agua “inadecuados”. Los investigadores temen que una combinación del cambio climático y el aumento de la población de EE. UU. haga que esas cifras empeoren aún más para fines de siglo. Para 2071, Stanford estimados casi la mitad de las 204 cuencas de agua dulce del país no podrán satisfacer la demanda mensual de agua. Según se informa, muchas regiones podrían ver reducidos sus suministros de agua en un tercio en los próximos 50 años.

El aumento de las temperaturas, parcialmente alimentado por la actividad humana, ha dado lugar a que el oeste de Estados Unidos registre su peor sequía en 1.000 años que también amenaza el agua dulce, aunque las lluvias torrenciales recientes han ayudado a evitar algunas preocupaciones graves. Los niveles de agua en embalses como el lago Mead han retrocedido tanto que han restos humanos expuestos hace décadas. Todo eso significa que las fuertes demandas de agua de la IA probablemente se convertirán en un creciente punto de discusión, especialmente si la tecnología se integra en cada vez más sectores y servicios. Los requisitos de datos para los LLM son cada vez más grandes, lo que significa que las empresas tendrán que encontrar formas de aumentar la eficiencia del agua en sus centros de datos.

Los investigadores dicen que hay algunas formas relativamente claras de reducir el precio del agua de AI. Para empezar, importa dónde y cuándo se entrenan los modelos de IA. Las temperaturas exteriores, por ejemplo, pueden afectar la cantidad de agua requerida para enfriar los centros de datos. Las empresas de IA hipotéticamente podrían entrenar modelos a medianoche cuando hace más frío o en un centro de datos con una mejor eficiencia de agua para reducir el consumo de agua, ¿verdad? Los usuarios de chatbot, por otro lado, podrían optar por interactuar con los módulos durante las «horas de uso eficiente del agua», al igual que las autoridades municipales fomentan el uso del lavavajillas fuera del horario de atención. Aún así, cualquiera de esos cambios en el lado de la demanda requerirá una mayor transparencia por parte de las empresas tecnológicas que construyen estos modelos, algo que, según los investigadores, es preocupantemente escaso.

“Recomendamos que los desarrolladores de modelos de IA y los operadores de centros de datos sean más transparentes”, escribieron los investigadores. “¿Cuándo y dónde se entrenan los modelos de IA? ¿Qué pasa con los modelos de IA entrenados y/o implementados en centros de datos de colocación de terceros o nubes públicas? Dicha información será de gran valor para la comunidad investigadora y el público en general”.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.



Source link-45