Microsoft presenta Maia 200, su acelerador de IA "diseñado para la inferencia"
Microsoft ha presentado este lunes Maia 200, un acelerador de inteligencia artificial (IA) diseñado "para la inferencia", con el que busca "mejorar de manera importante la economía de la generación de tokens con IA", ha explicado en un comunicado.

Este acelerador está construido con la tecnología de fabricación de semiconductores 3nm de TSMC, y cada chip Maia 200 contiene más de 140.000 millones de transistores y está adaptado para cargas de trabajo de IA a gran escala, además de ofrecer un rendimiento "eficiente por dólar".
También incluye un sistema de memoria rediseñado con 216GB HBM3e a 7 TB/s y 272MB de SRAM integrada, además de motores de movimiento de datos que "mantienen los modelos masivos alimentados, rápidos y con una alta utilización".
"Esto convierte a Maia 200 en el silicio más eficiente de cualquier hiperescalador, con tres veces el rendimiento FP4 del Amazon Train de tercera generación y un rendimiento FP8 superior al TPU de séptima generación de Google. Maia 200 es también el sistema de inferencia más eficiente que Microsoft ha desplegado jamás, con un 30% de rendimiento por dólar superior al hardware de última generación de nuestra flota actual", explica la tecnológica estadounidense.
El nuevo producto servirá para múltiples modelos, incluidos las últimas versiones GPT-5.2 de OpenAI. Además, el equipo de Microsoft Superintelligence utilizará Maia 200 para la generación de datos sintéticos y el aprendizaje por refuerzo para mejorar los modelos internos de próxima generación.
"Para casos de uso de pipelines de datos sintéticos, el diseño único de Maia 200 ayuda a acelerar la velocidad a la que se pueden generar y filtrar datos de alta calidad y específicos de dominio, para alimentar la formación posterior con señales más frescas y específicas", añade.



