La virtualización es una de las decisiones estratégicas más críticas para los equipos de TI

  • Tecnologías
0628 Tecnologia

La presión de las cargas de trabajo impulsadas por IA y los cambios en los modelos comerciales están obligando a las organizaciones a replantear su arquitectura base. Simon Seagrave, de Red Hat, advierte que “la elección que se haga hoy definirá la capacidad de innovar durante los próximos diez años”.

Durante dos décadas, la virtualización fue un elemento estable, casi incuestionable, dentro del stack tecnológico, pero el contexto ha cambiado. La irrupción de la inteligencia artificial, el crecimiento explosivo de nuevas aplicaciones y la presión por modernizar entornos heredados han convertido esta decisión en un punto de inflexión para los CIO. Según Simon Seagrave, Senior Principal Product Marketing Manager de Red Hat OpenShift, “la plataforma que elijas ahora será la base operativa de tu infraestructura durante la próxima década”.

Más allá de la migración inmediata, la cuestión estratégica es qué plataforma permitirá a las empresas aumentar la densidad de hardware, reducir la huella física, avanzar en sostenibilidad, evitar la gestión de entornos paralelos, y prepararse para la IA generativa y los agentes inteligentes. “No se trata solo de mover máquinas virtuales; se trata de elegir la base tecnológica que te permitirá innovar sin fricciones durante los próximos diez años”, resume Seagrave.

 

El problema del doble stack

IDC prevé la creación de más de 1.000 millones de nuevas aplicaciones antes de 2028, un crecimiento que está obligando a escalar los entornos de contenedores a un ritmo sin precedentes. Pero este avance está generando un efecto colateral, que es la coexistencia forzada de dos mundos, virtualización y contenedores, que no siempre encajan bien.

Esta fragmentación provoca herramientas y habilidades inconsistentes entre equipos, fricción operativa entre aplicaciones tradicionales y microservicios, costes redundantes y complejidad innecesaria. Como resume Seagrave, “mantener dos stacks paralelos no es sostenible; consume recursos, ralentiza la innovación y complica la operación diaria”.

Red Hat propone una alternativa con OpenShift Virtualization, una funcionalidad nativa de OpenShift que permite ejecutar máquinas virtuales y cargas contenerizadas en una única plataforma. La tecnología se apoya en dos pilares: KVM, hipervisor con casi dos décadas de estabilidad, seguridad y compatibilidad; y KubeVirt, un proyecto open source respaldado por más de 2.000 organizaciones.

Seagrave destaca que “no estamos hablando de una tecnología experimental; es una plataforma probada en producción dentro de algunas de las mayores empresas del mundo”.

 

Modernizar sin romper

El objetivo no es forzar a las organizaciones a reescribir aplicaciones críticas, sino ofrecer una transición segura. Según el último IDC White Paper, este enfoque permite proteger inversiones existentes, manteniendo integraciones validadas de red, backup y almacenamiento; modernizar al ritmo de cada organización, ejecutando VM heredadas sin cambios mientras se adoptan prácticas modernas como GitOps o CI/CD; y recuperar la previsibilidad, gracias a un modelo de suscripción estable y sin sorpresas.

Un ejemplo lo tenemos en One New Zealand, que, tras migrar a OpenShift Virtualization, un único equipo gestiona VM y contenedores, los costes de licencia han bajado y el time-to-market se ha acelerado gracias a pipelines coherentes.

OpenShift Virtualization está disponible como servicio gestionado en AWS, Microsoft Azure y otros proveedores de nube pública, lo que permite mantener un modelo operativo consistente en on-premises, edge o cloud. Para Seagrave, esta flexibilidad es clave: “las organizaciones necesitan una base que no las ate a un proveedor ni a un modelo de despliegue; la libertad de movimiento es parte de la estrategia”.