La fotónica está demostrando ser un hueso duro de roer


La fotónica está demostrando ser un hueso duro de roer

El cómputo creciente la potencia necesaria para entrenar modelos sofisticados de IA, como ChatGPT de OpenAI, eventualmente podría toparse con una pared con las tecnologías de chips convencionales.

En un análisis de 2019, OpenAI descubrió que desde 1959 hasta 2012, la cantidad de energía utilizada para entrenar modelos de IA se duplicó cada dos años y que el uso de energía comenzó a aumentar siete veces más rápido después de 2012.

Ya está causando tensión. Según los informes, Microsoft enfrenta una escasez interna del hardware de servidor necesario para ejecutar su IA, y la escasez está elevando los precios. CNBC, hablando con analistas y tecnólogos, estima que el costo actual de entrenar un modelo similar a ChatGPT desde cero es de más de $ 4 millones.

Una solución al dilema de entrenamiento de IA que se ha propuesto son los chips fotónicos, que usan luz para enviar señales en lugar de la electricidad que usan los procesadores convencionales. En teoría, los chips fotónicos podrían conducir a un mayor rendimiento en el entrenamiento porque la luz produce menos calor que la electricidad, puede viajar más rápido y es mucho menos susceptible a los cambios de temperatura y campos electromagnéticos.

Lightmatter, LightOn, Luminous Computing, Intel y NTT se encuentran entre las empresas que desarrollan tecnologías fotónicas. Pero si bien la tecnología generó mucho entusiasmo hace unos años y atrajo muchas inversiones, el sector se ha enfriado notablemente desde entonces.

Hay varias razones por las cuales, pero el mensaje general de los inversores y analistas que estudian la fotónica es que los chips fotónicos para IA, aunque prometedores, no son la panacea que alguna vez se pensó que eran.




Source link-48