Red Hat AI 3 simplifica la complejidad de la inferencia de IA de alto rendimiento

  • Actualidad
Red Hat AI 3

La plataforma de inteligencia artificial de Red Hat agiliza los flujos de trabajo de IA y ofrece nuevas y potentes capacidades de inferencia, sentando las bases para la IA agéntica a escala y empoderando a los equipos de TI y a los ingenieros de IA para innovar de forma más rápida y eficiente.

Red Hat ha anunciado el lanzamiento de Red Hat AI 3, una evolución de su plataforma empresarial de inteligencia artificial que busca simplificar la inferencia de alto rendimiento a gran escala. Esta nueva versión integra las últimas innovaciones de Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) y Red Hat OpenShift AI, ofreciendo una solución unificada que permite a las organizaciones avanzar con agilidad, desde pruebas de concepto, hasta entornos de producción.

En un contexto donde el 95% de las empresas no logran retornos financieros cuantificables de sus inversiones en IA, según el estudio “The GenAI Divide” del MIT, Red Hat AI 3 se posiciona como una respuesta directa a los desafíos de privacidad, costes y gestión de modelos diversos. La plataforma está diseñada para escalar cargas de trabajo en entornos híbridos y multicloud, con soporte para cualquier modelo y acelerador de hardware, desde centros de datos hasta la nube pública y el edge.

 

Foco en la inferencia y con un enfoque MaaS

Red Hat AI 3 pone especial énfasis en la inferencia, la fase crítica de ejecución de la IA, y lo hace apoyándose en tecnologías comunitarias como vLLM y llm-d. Esta última, ahora disponible en OpenShift AI 3.0, transforma la ejecución de modelos de lenguaje de gran tamaño (LLM) en Kubernetes, permitiendo inferencia distribuida inteligente y optimizada. Gracias a herramientas como NVIDIA Dynamo, DeepEP MoE y Kubernetes Gateway API Inference Extension, las organizaciones pueden reducir costes, mejorar tiempos de respuesta y desplegar modelos con mayor fiabilidad y flexibilidad.

Además de su arquitectura técnica, Red Hat AI 3 introduce capacidades orientadas a la colaboración y productividad. El enfoque Modelo como Servicio (MaaS) permite a los equipos de TI servir modelos de forma centralizada, facilitando el acceso bajo demanda para desarrolladores y aplicaciones, incluso en escenarios con restricciones de privacidad.

El nuevo hub de IA ofrece un catálogo curado de modelos, herramientas de despliegue y monitorización, mientras que Gen AI Studio proporciona un entorno práctico para prototipado y experimentación con modelos generativos. Entre los modelos incluidos se encuentran gpt-oss de OpenAI, DeepSeek-R1, Whisper y Voxtral Mini, todos optimizados por Red Hat.

La plataforma también sienta las bases para agentes de IA de última generación, capaces de operar en flujos de trabajo complejos y autónomos. Red Hat ha incorporado una capa de API unificada basada en Llama Stack y ha adoptado el Protocolo de Contexto de Modelo (MCP), facilitando la interoperabilidad con herramientas externas. Para la personalización de modelos, se ha lanzado un kit de herramientas modular basado en InstructLab, con bibliotecas Python especializadas, capacidades para generar datos sintéticos y un hub de entrenamiento para ajuste fino. El sistema de evaluación integrado permite validar resultados con datos propietarios, garantizando precisión y relevancia.

Con Red Hat AI 3, la compañía refuerza su compromiso con el código abierto y la innovación empresarial, ofreciendo una plataforma robusta, escalable y preparada para afrontar los retos reales de la IA en producción.