HPE presenta su primer sistema NVIDIA Grace Blackwell
- TI on premise

NVIDIA GB200 NVL72, que cuenta con una arquitectura de memoria compartida y baja latencia, ofrece una integración fluida de CPU, GPU, bandejas de computación y conmutación, redes y software de NVIDIA, lo que permitirá construir, implementar y escalar de manera eficiente grandes clústeres de IA.
Hewlett Packard Enterprise (HPE) ha anunciado la distribución de NVIDIA GB200 NVL72, su primera solución basada en la familia NVIDIA Blackwell, un sistema a escala de rack diseñado para ayudar a los proveedores de servicios y grandes empresas a implementar rápidamente clústeres de IA muy grandes y complejos, utilizando soluciones avanzadas de refrigeración líquida directa que optimizan la eficiencia y el rendimiento.
“Los proveedores de servicios de IA y los desarrolladores de modelos empresariales se enfrentan a una enorme presión para ofrecer escalabilidad, rendimiento extremo y tiempos de implementación rápidos”, señala Trish Damkroger, vicepresidenta senior y directora general de HPC & AI Infrastructure Solutions en HPE. “Como creadores de los tres sistemas más rápidos del mundo con refrigeración líquida directa, en HPE ofrecemos a nuestros clientes un menor coste de entrenamiento por token y un rendimiento de primer nivel, respaldado por nuestra experiencia líder en servicios del sector”.
Características de NVIDIA GB200 NVL72 de HPE
Con tecnología de refrigeración líquida directa de HPE, NVIDIA GB200 NVL72 cuenta con una arquitectura de memoria compartida y baja latencia, equipada con la última tecnología de GPU diseñada para modelos de IA extremadamente grandes, con más de un billón de parámetros en un único espacio de memoria. Concretamente, integra 72 GPU NVIDIA Blackwell y 36 CPU NVIDIA Grace interconectadas mediante NVIDIA NVLink de alta velocidad, ofreciendo hasta 13,5 TB de memoria total HBM3e con un ancho de banda de 576 TB/segundo.
GB200 NVL72 ofrece una integración fluida de CPU, GPU, bandejas de computación y conmutación, redes y software de NVIDIA, combinando un rendimiento extremo para abordar cargas de trabajo altamente paralelizables, como el entrenamiento e inferencia de modelos de IA generativa (GenAI), junto con aplicaciones de software de NVIDIA.
“Los ingenieros, científicos e investigadores necesitan tecnología de refrigeración líquida de vanguardia para responder a los crecientes requerimientos de potencia y capacidad de cómputo”, afirma Bob Pette, vicepresidente de plataformas empresariales en NVIDIA. “Gracias a la colaboración continua entre HPE y NVIDIA, el primer envío del NVIDIA GB200 NVL72 por parte de HPE permitirá a los proveedores de servicios y grandes empresas construir, implementar y escalar de manera eficiente grandes clústeres de IA”.