Nuevos detalles de Maia 100, el primer chip de IA de Microsoft con 64 GB de memoria HBM2e integrados

Microsoft ha desvelado nuevos detalles de su primer chip para inteligencia artificial: El Maia 100. Se trata de un SoC especializado en procesamiento IA para servidores. Conocíamos de su existencia, pero es ahora cuando podemos hacernos una idea de lo que será capaz este chip pensado para funcionar con servicios como Azure OpenAI.

Maia 100 estará fabricado con el proceso de 5 nanómetros de TSMC, de hecho, con un tamaño de 820 mm², se trata de uno de los chips más grandes creados bajo N5. Incluye integrados 64 GB de memoria HBM2E a 1,8 TB/s con los que es capaz de alcanzar Tensor POPS de pico a 6 bits, 1,5 a 9 bits y 0,8 con BF16.

Incluye PCI Express Gen 5 x 8 de 32 GB/s y 500 MB de cacbé L1/L2, además, soporta 600 GB/s de conectividad de red mediante 12x400gbe para comunicarse entre servidores con los mismos chips. Tiene un TDP de provisión de 500 W, aunque está diseñado para admitir hasta 700 W de TPD. 

El Microsoft Maia 100 se lanzará con un SDK específico para ayudar a aprovechar su potencia con entorrnos como Triton o PyTorch, soportando también la API Maia con un modelo personalizado para conseguir el máximo rendimiento y control.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!