Tesla, Inc., la compañía de energía limpia que se ocupa de más cosas que solo algunos de los autos eléctricos más deseados del mundo, aparentemente está buscando mejorar la infraestructura de su centro de datos. Según una nueva lista de trabajos en el sitio web corporativo de Tesla (detectado por Elektrek), la compañía está buscando contratar a un «Gerente sénior del programa de ingeniería, Centros de datos». Esa contratación suele ser un buen paso para cualquier empresa que planee operar centros de datos construidos con silicio personalizado o patentado. ¿Quizás Tesla está buscando construir un dojo para sus aceleradores Dojo AI?
El puesto tiene su sede en Austin, Texas, donde la empresa tiene varias instalaciones centradas en la fabricación y la I+D. Sin embargo, eso no significa que sus efectos solo tendrán efecto en Austin, especialmente considerando los informes de que Tesla se ha hecho cargo de varios centros de datos de X (anteriormente Twitter) en Sacramento. Tampoco está claro si Tesla solo está siendo hiperbólico con respecto a cuán «primeros de su tipo» serán estos centros de datos. Hay varias formas de ajustarse a esa definición que no implican tanto trabajo de ingeniería como cabría esperar.
Tesla anunció originalmente su Dojo D1 (parece que el nombre del producto cambió a Dojo V1) en 2021, incluso cuando prometió aumentar la cantidad de potencia de procesamiento disponible para que la empresa entrene sus sistemas de IA autónomos. En ese momento, estos Dojo ASIC (Application-Specific Integrated-Circuit) estaban destinados a transportar hasta 50 mil millones de transistores cada uno, entregando alrededor de 362 TeraFLOP de potencia por chip personalizado.
Mejora exponencial llegando a FSD Beta una vez que Dojo esté en funcionamiento. pic.twitter.com/iDddgQ0Lzl21 de junio de 2023
No está claro si Tesla ha jugado con el diseño mientras tanto (aunque diríamos que es probable). Lo que sí sabemos es que Elon Musk ha aclarado que la nave de primera generación no incluirá el procesamiento general de IA y, en cambio, se centrará en acelerar el «entrenamiento en video» para los sistemas de visión por computadora de la empresa. Según Musk, V2 de Dojo abordará estas limitaciones y eventualmente se convertirá en un procesador de IA general y completo, no muy diferente al H100 de NVIDIA y su sistema de supercomputación DGX GH200.
Tesla ha comprado varios aceleradores de GPU de Nvidia. La compañía ya presumía de ello incluso cuando «solo» desplegó 7.360 aceleradores A110. Pero ese número ha aumentado y la compañía pretende tener hasta 100 ExaFLOP disponibles para octubre de 2024 (contando ya el despliegue de su supercomputadora Dojo).
El hecho de que Tesla diseñe y ordene sus propios ASIC personalizados y aceleradores de IA de uso general debería darle a la empresa un mayor control sobre los conjuntos de funciones y reducir el costo total de propiedad (TCO) de sus centros de datos. Pero, de nuevo, todas las empresas que diseñan silicio en estos días en su mayoría toman miel de la misma olla de la marca TSMC; y solo hay tanta capacidad para todos.
Entonces, si bien es probable que Tesla disfrute de varios beneficios al diseñar e integrar sus propios sistemas de computación de alto rendimiento (HPC), es poco probable que Elon Musk encuentre menos razones para quejarse de que «todo el mundo y su perro» están comprando GPU. Hay un número limitado de obleas para distribuir entre el cuadro de clientes de TSMC, y a la mayoría también le encantaría mantenerse a la vanguardia de la fabricación.