Microsoft lanza Maia 200, un chip capaz de ejecutar los modelos más grandes del mercado
- Tecnologías
La compañía refuerza su estrategia “del silicio al servicio” con un acelerador de IA que supera a las alternativas de Amazon y Google, y que ya impulsa Copilot, Microsoft Foundry y los modelos del equipo de Superintelligence. El chip ya está desplegado en la región “US Central” de Azure.
Microsoft ha dado un paso decisivo en la infraestructura de inteligencia artificial con el lanzamiento de Maia 200, su nuevo chip acelerador diseñado específicamente para la era de la IA del razonamiento. La compañía asegura que este procesador está optimizado para ejecutar modelos de gran escala con una eficiencia energética y económica superior a la de sus competidores.
Maia 200 forma parte de la estrategia integral de Microsoft para controlar toda la cadena tecnológica desde el hardware hasta los modelos y las aplicaciones, con el objetivo de responder a la creciente demanda de cargas de trabajo de IA avanzadas.
Un salto de rendimiento para la IA de nueva generación
El nuevo acelerador ofrece más de 10 PFLOPS en precisión FP4 y alrededor de 5 PFLOPS en FP8, lo que permite ejecutar los modelos más grandes disponibles actualmente y deja margen para futuras generaciones aún más complejas.
Microsoft destaca que ofrece 3 veces más rendimiento FP4 que Amazon Trainium 3, un rendimiento FP8 superior al TPU v7 de Google, y capacidad para ejecutar modelos de razonamiento a escala sin necesidad de rediseñar infraestructuras.cEste rendimiento sitúa a Maia 200 como uno de los chips más potentes del mercado para cargas de IA generativa y de razonamiento.
Maia 200 forma parte de un enfoque sistémico que Microsoft denomina “del silicio al servicio”, en el que hardware, software y modelos se optimizan de forma conjunta para maximizar eficiencia y rendimiento. Gracias a este modelo integrado, Microsoft puede ajustar el diseño del chip, la arquitectura de los modelos, las aplicaciones que los ejecutan, y la infraestructura de Azure que los soporta.
Este enfoque permite acelerar el desarrollo de nuevas capacidades de IA y reducir costes operativos, un factor clave en un mercado donde la demanda de computación crece de forma exponencial.
Los primeros sistemas Maia 200 ya están en funcionamiento y alimentan nuevos modelos del equipo de Microsoft Superintelligence, centrados en IA avanzada y razonamiento; proyectos de Microsoft Foundry, la plataforma para crear y escalar modelos personalizados; y Microsoft Copilot, que se beneficia de tiempos de inferencia más rápidos y mayor eficiencia energética.
El despliegue inicial en “US Central” marca el comienzo de una expansión progresiva a otras regiones de Azure.
El lanzamiento de Maia 200 coincide con la estrategia de Microsoft de construir una infraestructura de IA capaz de soportar modelos cada vez más grandes, complejos y orientados al razonamiento. La compañía complementa este chip con avances en refrigeración, sistemas de red y optimización de software.