{"id":1050190,"date":"2024-03-14T10:20:13","date_gmt":"2024-03-14T10:20:13","guid":{"rendered":"https:\/\/magazineoffice.com\/57-veces-mas-grande-que-la-gpu-mas-grande-900-000-nucleos-4-billones-de-transistores\/"},"modified":"2024-03-14T10:20:17","modified_gmt":"2024-03-14T10:20:17","slug":"57-veces-mas-grande-que-la-gpu-mas-grande-900-000-nucleos-4-billones-de-transistores","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/57-veces-mas-grande-que-la-gpu-mas-grande-900-000-nucleos-4-billones-de-transistores\/","title":{"rendered":"57 veces m\u00e1s grande que la GPU m\u00e1s grande, 900.000 n\u00facleos, 4 billones de transistores"},"content":{"rendered":"
\n<\/p>\n
Cerebras Systems ha presentado su chip de motor a escala de oblea de tercera generaci\u00f3n, el WSE-3, que ofrece 900.000 n\u00facleos optimizados para IA construidos para entrenar hasta 24 billones de par\u00e1metros.<\/p>\n
Desde el lanzamiento de su primer chip Wafer Scale Engine (WSE), Cerebras no ha mirado atr\u00e1s y ahora se ha presentado su soluci\u00f3n de tercera generaci\u00f3n con especificaciones incre\u00edbles que deber\u00edan darse por sentado debido a su gran tama\u00f1o. Como sugiere el nombre, el chip es esencialmente una oblea entera de silicio y esta vez, Cerebras est\u00e1 apostando por la moda de la IA con algunas especificaciones poderosas que se destacan a continuaci\u00f3n:<\/p>\n
Hablando del chip en s\u00ed, el Cerebras WSE-3 tiene un tama\u00f1o de matriz de 46.225 mm2, que es 57 veces m\u00e1s grande que el NVIDIA H100, que mide 826 mm2. Ambos chips se basan en el nodo de proceso TSMC de 5 nm. El H100 est\u00e1 considerado como uno de los mejores chips de IA del mercado con sus 16.896 n\u00facleos y 528 n\u00facleos tensoriales, pero es eclipsado por el WSE-3, que ofrece la incre\u00edble cantidad de 900.000 n\u00facleos optimizados para IA por chip, un aumento de 52 veces.<\/p>\n
El WSE-3 tambi\u00e9n tiene grandes cifras de rendimiento que lo respaldan con 21 petabytes por segundo de ancho de banda de memoria (7000 veces m\u00e1s que el H100) y 214 petabits por segundo de ancho de banda de Fabric (3715 veces m\u00e1s que el H100). El chip incorpora 44 GB de memoria integrada, que es 880 veces mayor que la del H100.<\/p>\n En comparaci\u00f3n con el WSE-2, el chip WSE-3 ofrece n\u00facleos 2,25 veces m\u00e1s altos (900K frente a 400K), SRAM 2,4 veces m\u00e1s alta (44 GB frente a 18 GB) y velocidades de interconexi\u00f3n mucho m\u00e1s altas, todo dentro del mismo tama\u00f1o de paquete. Tambi\u00e9n hay un 54% m\u00e1s de transistores en el WSE-3 (4 billones frente a 2,6 billones).<\/p>\n Entonces, \u00bfcu\u00e1l es el beneficio de todo este hardware? Bueno, el chip est\u00e1 dise\u00f1ado primero para IA y ofrece 125 PetaFlops de rendimiento m\u00e1ximo de IA. La NVIDIA H100 ofrece alrededor de 3958 TeraFlops o alrededor de 4,0 PetaFlops de rendimiento m\u00e1ximo de IA, por lo que estamos hablando de un aumento de 31,25 veces. El chip tambi\u00e9n viene en una variedad de configuraciones de memoria externa que van desde 1,5 TB, 12 TB y hasta 1,2 PB. Con tanta potencia en un solo troquel, el chip puede entrenar modelos de IA con hasta 24 billones de par\u00e1metros.<\/p>\n Adem\u00e1s del chip de motor a escala de oblea WSE-3, Cerebras Systems tambi\u00e9n anuncia su supercomputadora de IA CS-3 que puede entrenar modelos 10 veces m\u00e1s grandes que GPT-4 y Gemini gracias a su enorme conjunto de memoria. La soluci\u00f3n CS-3 AI est\u00e1 dise\u00f1ada para usuarios empresariales y de hiperescala y ofrece una eficiencia de rendimiento mucho mayor en comparaci\u00f3n con las GPU modernas.<\/p>\n\n\n
\n \n\n WSE-3<\/td>\n NVIDIA H100<\/td>\n Ventaja de Cerebras<\/td>\n<\/tr>\n<\/thead>\n \n Tama\u00f1o de la viruta<\/td>\n 46.225 mm\u00b2<\/td>\n 826 mm\u00b2<\/td>\n 57x<\/td>\n<\/tr>\n \n N\u00facleos<\/td>\n 900.000<\/td>\n 16.896 FP32 + 528 Tensores<\/td>\n 52X<\/td>\n<\/tr>\n \n Memoria en chip<\/td>\n 44 GB<\/td>\n 0,05 GB<\/td>\n 880X<\/td>\n<\/tr>\n \n Ancho de banda de memoria<\/td>\n 21 Petabytes\/seg<\/td>\n 0,003 petabytes\/seg<\/td>\n 7.000X<\/td>\n<\/tr>\n \n Ancho de banda de la tela<\/td>\n 214 Petabits\/seg<\/td>\n 0,0576 Petabits\/seg<\/td>\n 3.715x<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n