La inteligencia artificial impulsa una nueva generación de infraestructura

  • IT User
Infraestructura para IA

El rápido desarrollo de la inteligencia artificial ha revelado que la infraestructura TI tradicional no es adecuada para cubrir su gran demanda de computación, almacenamiento y comunicaciones. Esto ha introducido nuevas variables que están revolucionando la industria, impulsando la creación nuevas tecnologías que puedan satisfacer estos requisitos superiores, y que están cambiando radicalmente el mercado tecnológico.

Desde el lanzamiento de la inteligencia artificial generativa todas las miradas se han vuelto hacia una tecnología que promete revolucionar la forma de trabajar con la información y de interactuar con los ecosistemas tecnológicos. Paralelamente a este avance, se está acelerando el desarrollo y la implantación de otras muchas formas de inteligencia artificial, todas ellas con unos requisitos tecnológicos que en muchas ocasiones exceden las capacidades de la infraestructura TI tradicional. En respuesta a este desafío la industria está enfocándose en desarrollar tecnologías y dispositivos que den soporte a las cargas de trabajo de IA, tanto en los centros de datos como en los equipos de los usuarios finales, a nivel de hardware y software.

Nuevos requisitos de infraestructura

Para entrenar y ejecutar modelos de inteligencia artificial es imprescindible contar con una infraestructura de gran potencia informática, requisitos que la TI tradicional no puede satisfacer adecuadamente. Julio César Gómez Martín, CTO de Dell Technologies en España, señala que “el entrenamiento de modelos de IA requiere unidades de procesamiento especializadas, como GPUs y TPUs, que son capaces de manejar cálculos intensivos de manera eficiente”.

Desde el punto de vista de HPE, Adriano Galano, AI & HPC sales specialist Southern Europe de la compañía, también es fundamental contar con plataformas de almacenamiento escalables, de alto rendimiento y con capacidad de gestión en tiempo real, acompañadas por redes que garanticen un flujo de datos de alta velocidad entre las plataformas de almacenamiento y las unidades de procesamiento. Pero considera que “no se trata solo de tener más poder de cómputo o espacio de almacenamiento, sino de optimizar toda la infraestructura para procesar enormes cantidades de datos y entrenar modelos avanzados de IA de forma rápida y eficiente”.

 

“El punto de partida para cualquier proyecto de IA debe ser tener las ideas claras”, José Manuel Marina (Crayon)

 

La necesidad de un tipo de procesamiento distinto para ejecutar cargas de trabajo relacionadas con la IA, en opinión de Matias Sosa, Product marketing manager de OVHcloud, “ha provocado la incorporación de procesos de cómputo basados en GPU, diseñados para satisfacer las exigencias del cálculo masivamente paralelo”. Además, opina, “el crecimiento del volumen de datos no estructurados ha puesto a prueba las soluciones de almacenamiento tradicionales”, conduciendo a muchas organizaciones a la implementación de soluciones de almacenamiento distribuidas de alta velocidad.

Esta necesidad de manejar volúmenes masivos de datos distribuidos y no estructurados “impone nuevas exigencias en términos de escalabilidad, velocidad de acceso a los datos y almacenamiento seguro”, en palabras de Iván Gento Pariente, regional marketing manager en Synology. Dice que “la infraestructura debe ser capaz de soportar un procesamiento paralelo intensivo” y, a nivel de almacenamiento, “es crucial contar con soluciones que ofrezcan una combinación de rendimiento y acceso simultáneo a grandes conjuntos de datos”.

Coincide Mario Vasconcelos, sales director enterprise accounts para España & Portugal de Vertiv, para quien es fundamental “establecer medidas robustas para la seguridad y privacidad de los datos, cumpliendo con las normativas vigentes, y contar con plataformas para gestionar y orquestar los recursos de IA de manera efectiva y flexible para adaptarse a la evolución, y ajustar los recursos según las necesidades de cada momento”. Además, opina, “se deben implementar estrategias sólidas de recuperación para proteger y restaurar los datos críticos en caso de fallos”.

 

“Los fabricantes que no se adapten a esta tendencia hacia la IA enfrentan un futuro incierto”, Julio César Gómez Martín (Dell Technologies)

 

Los cambios en la infraestructura que impone el uso de inteligencia artificial van más allá y, en opinión de Robert Assink, director general de Digital Realty en España, las empresas están apostando por una infraestructura TI más distribuida y cercana a donde se intercambia la información “contando con más ubicaciones IT para mitigar los temas regulatorios que afectan a la gestión del dato, y para capitalizar soluciones de baja latencia para la gran cantidad de datos asociados a procesos de IA en su fase de inferencia”.

Por otro lado, como señala Carmen Derlinchan, senior engineering director para EMEA South en Pure Storage, “la creciente demanda ha creado escasez en el mercado, obligando a muchas empresas a recurrir a proveedores de servicios en la nube para obtener acceso a estas tecnologías”. Comenta que la expansión de la IA también está generando problemas en el ámbito de los centros de datos, ya que “los proyectos de IA pueden requerir una densidad energética mucho mayor que las aplicaciones tradicionales”, del orden de entre 40 y 50 kilovatios por rack, lo que supera la capacidad de muchas instalaciones. Y afirma que “es aquí donde las tecnologías de almacenamiento eficientes, como el almacenamiento flash, juegan un papel crucial, al ser más eficientes en consumo energético y en espacio, permitiendo destinar más recursos a las GPU dentro de los clústeres de IA”.

Desde Schneider Electric señalan otros cambios que acompañan a esta mayor densificación de procesamiento y almacenamiento de datos. Manuel Pérez-Tabernero, end users & added value sales manager en Schneider Electric, explica que es fundamental contar con “soluciones avanzadas como la refrigeración líquida, ya que los sistemas tradicionales de refrigeración por aire resultan insuficientes para gestionar el calor generado por los procesadores de alto rendimiento ubicados en racks de alta densidad”.

En opinión de Carlos Cordero, CTO de Fujitsu España, “los requisitos a nivel de infraestructura dependen de cómo se vaya a utilizar la inteligencia artificial”. Comenta que “si la organización se va a limitar a desplegar modelos ya entrenados “lo más rápido, sencillo y seguro es utilizar los servicios de IA de proveedores de nube” o plataformas de proveedores tecnológicos más especializadas con soluciones verticales”. En cambio, “si la organización requiere de modelos de IA reentrenados, o los datos que va a inferir son de carácter privado o con contenido sensible, debe contar antes de desplegar modelos con una plataforma de datos que le permita gobernar dichos datos”. Y, “sobre dicha plataforma de gobierno, herramientas de que permitan automatizar el ciclo de vida de los modelos de IA”. Y “el uso de IA que requiera reentrenamiento y/o inferencia de información no pública propia a la organización (como el caso de RAG – Retrieval Augmented Generation en la IA Generativa) va a requerir de plataformas de computación especializadas integradas en la infraestructura existente”.

 

“Hay que apoyarse en un partner que ayude a ejecutar y gestionar despliegues de IA no solo para hoy, sino para el futuro”, Robert Assink (Digital Realty)

 

Para José Manuel Marina, director general de Crayon, “el reto está a nivel de datacenter”, ya que a nivel usuario existe una amplia gama de equipos con chips optimizados para el uso de IA. Pero opina que “afortunadamente, la opción de trabajar con hiperescalares en la nube facilita las decisiones a tomar”, ya que “cuentan con módulos específicos que ejecutan IA, con los que conseguir un acceso rápido a los datos cubriendo las necesidades de computación y almacenamiento”, lo que puede acelerar el desarrollo de aplicaciones basadas en esta tecnología.

Por su parte, Jorge Vázquez, director general de Nutanix en España y Portugal, opina que “el reto radica en que todas las ventajas que puede ofrecer la inteligencia artificial sólo se materializarán en aquellas organizaciones que dispongan de la infraestructura tecnológica necesaria para implantarla”. Además, considera que tecnologías como la IA aumentan la complejidad de la infraestructura de las empresas, y recomienda el modelo de multicloud híbrida porque simplifica la implementación y gestión, además de ayudar a controlar el coste.

Datacenter más potentes, eficientes y sostenibles

Entre los entornos que más impacto están sufriendo por la expansión acelerada de la inteligencia artificial están los centros de datos y los proveedores de servicios basados en IA, como los grandes hiperescalares. Iván Gento Pariente, de Synology, dice que “los centros de datos se están adaptando para ofrecer infraestructuras híbridas que combinen almacenamiento local de alto rendimiento con la flexibilidad del almacenamiento en la nube. Matias Sosa, de OVHcloud, comenta que “el cambio más relevante es el aumento del hardware especializado en computación avanzada, basado en procesadores gráficos de alto rendimiento, para poder cumplir con las necesidades de los clientes en campos como la IA y el machine learning”.

Robert Assink, de Digital Realty, considera que “los principales cambios que afectan a los nuevos despliegues están relacionados con la necesidad de mayores densidades de potencia, refrigeración e interconexión”. Explica que “los requisitos energéticos pueden ser entre 5 y 10 veces superiores a los procesos IT que hasta ahora ocurrían en un centro de datos”, con previsiones de que “algunos equipos de IA alcancen densidades superiores a los 100 kilovatios por rack”. Esto eleva los requisitos de enfriamiento de los equipos y cree que “vamos a ir a sistemas de refrigeración más especializados y con exigencias aún mayores de eficiencia, como la refrigeración líquida directa (DLC), y personalizados en función de las necesidades”. Además, tiene claro que “convivirán distintos sistemas de refrigeración en un mismo centro de datos en función de la fase de gestión de los datos, pues no se necesitan las mismas frigorías en la fase de inferencia que en la de entrenamiento o almacenamiento”.

Para Adriano Galano, de HPE, se está produciendo “una revolución en cómo se gestiona la energía y la refrigeración” en las instalaciones, adoptando sistemas de enfriamiento combinados, más eficientes y sostenibles, así como “unidades avanzadas de distribución de energía (PDU) inteligentes”, y también apostando cada vez más por las energías renovables. Mario Vasconcelos, de Vertiv, también señala la tendencia creciente hacia sistemas de refrigeración líquida, “además de la optimización de los sistemas de refrigeración por aire para mejorar la eficiencia energética”.

 

“Los requisitos de infraestructura TI dependen de cómo se vaya a usar la IA”, Carlos Cordero (Fujitsu)

 

Manuel Pérez-Tabernero, de Schneider Electric, señala que “los centros de datos deben ser más eficientes y sostenibles que nunca”, y opina que la refrigeración líquida “permitirá hacer factible el reaprovechamiento del calor producido, y con lo que se mejora mucho el rendimiento de estos elementos”. Añade que, por su parte, “los grandes proveedores están adoptando arquitecturas escalables y modulares, lo que les permite ajustar su infraestructura a medida que las demandas de IA crecen y evolucionan”.

Esta visión es compartida por Julio César Gómez Martín, de Dell Technologies, quien añade que “los grandes proveedores de servicios basados en IA, como los de la nube, están invirtiendo en infraestructura flexible y escalable” para ofrecer servicios basados en IA a los clientes. Esto permite a las empresas “acceder a potentes recursos de procesamiento bajo demanda, lo que facilita el desarrollo y despliegue de aplicaciones de IA sin necesidad de inversiones iniciales en hardware físico”. En este sentido, como explica Matias Sosa, de OVHcloud, los proveedores de servicios IA están apostando por el desarrollo de soluciones especializadas para abarcar los diferentes casos de uso, bien con soluciones de cálculo basadas en potentes GPU (en el caso del IaaS), o bien con plataformas de entrenamiento con «frameworks» preconfigurados (PaaS) o modelos preentrenados listos para incorporar en plataformas terceras (SaaS).

Una alternativa óptima para muchas empresas, en opinión de Jorge Vázquez, de Nutanix, está en los modelos de multicloud híbrida. Según estudios como el Enterprise Cloud Index 2024 de la compañía, “el 83% de los negocios está de acuerdo en que es el modelo ideal para hacer frente a sus principales retos”. Y señala que una de las mayores ventajas que aporta “es el aumento de la agilidad empresarial, algo que adquiere una mayor importancia en tiempos de incertidumbre económica”.

 

“No se trata solo de tener más poder de cómputo o espacio de almacenamiento, sino de optimizar toda la infraestructura”, Adriano Galano (HPE)

 

El difícil equilibrio entre la necesidad de un mayor rendimiento y más sostenibilidad plantea desafíos en materia de alimentación y gestión de energía. En este sentido, Carmen Derlinchan, de Pure Storage, menciona un estudio encargado por su compañía y realizado en Estados Unidos y Europa, según el cual, el 98% de los compradores de TI de empresas con más de 500 empleados cree que los objetivos ESG son más difíciles de alcanzar debido a la infraestructura diseñada para la IA. Y “el 73% reconoce no estar totalmente preparado para las demandas energéticas de la IA”. Por ello, dice que “es crucial que cualquier empresa que se plantee implantar la inteligencia artificial invierta en los recursos adecuados desde el principio”.

Todos estos requisitos son difíciles de cumplir para muchas empresas, especialmente las pymes, que tienen menos capacidad de inversión. Pero José Manuel Marina, de Crayon, comenta que los hiperescalares son conscientes de este desafío y “cuentan con módulos orientados a conseguir la infraestructura que se necesita en cada caso de uso en el que se aplique la IA”, junto a otros pensados “para desarrollar soluciones o casos de uso específicos sobre esa infraestructura”.

Impacto en el mercado de sistemas informáticos

La proliferación de “nuevos componentes y sistemas informáticos diseñados específicamente para la inteligencia artificial está teniendo un impacto profundo en el mercado de infraestructura TI”, según Julio César Gómez Martín, de Dell Technologies. La demanda de hardware especializado “ha creado un nuevo segmento de mercado, donde los fabricantes de hardware están desarrollando productos optimizados para IA, desplazando las soluciones convencionales hacia aplicaciones de alto rendimiento”. Y señala que “el impacto también se siente en la adopción de soluciones en la nube”, con una fuerte apuesta por parte de los proveedores cloud. Robert Assink, de España, opina que “precisamente estos nuevos componentes son los que marcan las características técnicas de las infraestructuras preparadas para la IA”, que deben ofrecer “mayor densidad de potencia y mayores necesidades de refrigeración directas”.

 

“Las ventajas que puede ofrecer la IA sólo se materializarán en aquellas organizaciones que tengan la infraestructura TI necesaria”, Jorge Vázquez (Nutanix)

 

Según Carlos Cordero, de Fujitsu, “el crecimiento exponencial de la IA ha sido una sorpresa para muchos, incluso para los fabricantes de tecnología especializada en IA”. Por ello, la demanda ha excedido a la oferta, lo que está impulsando un sobrecoste y provocando “unos plazos de entrega nunca vistos en la industria de TI”. Esto, además, “ha permitido el nacimiento de gran cantidad de startups que pretenden aliviar los efectos de los sobrecostes y de los plazos de entrega con tecnología extraordinariamente especializada”, “prometiendo rendimientos muy superiores a la tecnología existente y con consumos energéticos muy inferiores”.

Matias Sosa, de OVHcloud, también identifica como principales impactos en el mercado la demanda masiva de recursos de procesamiento gráfico, “que ha provocado tensiones con el stock y la disponibilidad de recursos”, y los cambios en la demanda de los centros de datos en su búsqueda de más eficiencia energética, refrigeración optimizada y mejoras en sus redes de datos.

Desde Schneider Electric, a raíz del aumento de demanda de procesadores optimizados para IA perciben un mayor interés en soluciones avanzadas de gestión térmica. Como indica Manuel Pérez-Tabernero, “los centros de datos ahora están configurados para soportar mayores densidades de servidores y mayores requisitos de energía, al mismo tiempo que se asegura la sostenibilidad mediante soluciones que optimizan el consumo energético y el uso de recursos”. Y también han detectado un aumento en la adopción de arquitecturas de Edge Computing, para acercar el procesamiento al origen de los datos.

 

“El cambio más relevante que acompaña a la IA es el aumento del hardware especializado en computación avanzada”, Matias Sosa (OVHcloud)

 

Los fabricantes están compitiendo por proporcionar las soluciones más eficientes y potentes, como dice Mario Vasconcelos, de Vertiv, la necesidad de soluciones de almacenamiento más avanzadas y escalables está induciendo “inversiones significativas en infraestructura de red y almacenamiento, así como en la implementación de soluciones más innovadoras, como la refrigeración líquida directa al chip y la refrigeración por inmersión”.

En palabras de Adriano Galano, de HPE, “el mercado ha tenido que adaptarse rápidamente para ofrecer soluciones modulares y escalables que permitan la implementación de IA sin necesidad de grandes inversiones iniciales”. Y dice que “se está promoviendo un cambio hacia infraestructuras híbridas y basadas en la nube”, que permiten a las empresas “escalar sus operaciones rápidamente y sin grandes inversiones iniciales”. Jorge Vázquez, de Nutanix, afirma que “este nuevo modelo de multicloud híbrida es, sin duda, la llave para la innovación, y quizá uno de los principales impactos que está generando en el mercado es un cambio de mentalidad en las empresas”, que se deberán enfocar en hacer una migración correcta, “dejando de considerar a la nube como un destino final para verla como la adopción de un nuevo modelo operativo” para ser más flexibles, innovadoras, eficientes y sostenibles.

Fabricantes obligados a evolucionar

La expansión de la inteligencia artificial está acelerando la evolución de la industria de hardware, llevando a muchos fabricantes a centrarse en equipos pensados para aplicaciones de IA, tanto ordenadores como servidores, plataformas de almacenamiento y otras categorías. José Manuel Marina, de Crayon, destaca cómo Nvidia se ha convertido en “el paradigma por excelencia”, adelantándose al mercado con un claro enfoque hacia la IA que ha dejado atrás a toda su competencia. Para Julio César Gómez, de Dell Technologies, “los fabricantes de hardware tradicional están reaccionando al crecimiento de los sistemas específicamente diseñados para la inteligencia artificial”, desarrollando o adquiriendo capacidades para fabricar este tipo de sistemas.

En Synology, como comenta Iván Gento, están “respondiendo al crecimiento de la IA incorporando mayores capacidades de computación acelerada en nuestros equipos”. Pero puntualiza que “la IA no solo exige un procesamiento superior, sino también almacenamiento seguro, ágil y de acceso inmediato”, y “no basta con mejorar la potencia de cálculo, sino que es esencial gestionar eficazmente el ciclo de vida de los datos, desde su captura hasta su análisis”.

Mario Vasconcelos, de Vertiv, opina que “todos los fabricantes que estamos inmersos en dar servicio y continuidad a la IA estamos invirtiendo en I+D, tanto para desarrollar la nueva infraestructura necesaria como para integrar capacidades de IA en nuestros productos para seguir siendo competitivos”. César Gómez dice que “los fabricantes que no se adapten a esta tendencia hacia la IA enfrentan un futuro incierto”, y “se pueden quedar atrás en un mercado que demanda soluciones cada vez más especializadas”, algo en lo que coincide Manuel Pérez-Tabernero, de Schneider Electric, para quien, “a largo plazo, las empresas que no se adapten, o que no lo hagan de forma ágil, se enfrentarán a muchas dificultades para competir en un entorno tecnológico en el que cada vez la IA tomará más relevancia”.

Por otro lado, Carlos Cordero, de Fujitsu, considera que “todos los fabricantes se han adaptado rápidamente a la nueva demanda y, en mayor o menor grado, cuentan en su oferta con soluciones específicas para la IA integrando componentes probados”. Así opina también Adriano Galano, de HPE, para quien “los fabricantes están reaccionando de manera decisiva al auge de los sistemas optimizados para IA”, conscientes de la ineficacia de las arquitecturas tradicionales para estas cargas de trabajo tan exigentes. Y también ve claro que aquellos que no se adapten a esta tendencia “tienen un futuro complicado”.

 

“El almacenamiento flash juega un papel crucial, al ser más eficiente en consumo energético y en espacio”, Carmen Derlinchan (Pure Storage)

 

El almacenamiento de datos es una de las áreas en las que la tecnología debe adaptarse a los requisitos de la IA. En este sentido, Carmen Derlinchan, de Pure Storage, señala que “los fabricantes de hardware están cambiando a soluciones all-flash”, que ofrecen “un acceso rápido a grandes cantidades de datos con una eficiencia energética significativamente mayor y una huella de carbono mucho menor que los discos duros convencionales”. Además, destaca otras ventajas clave de esta tecnología, como “el rendimiento de escritura para el checkpointing, el ancho de banda de transmisión y la capacidad de manejar varios tipos de datos y el rendimiento de lectura aleatoria para la inferencia”. Por ello, afirma que “las infraestructuras que sigan confiando en los discos tradicionales tendrán dificultades para competir en términos de eficiencia operativa y consumo energético”.

Lo mismo opina Jorge Vázquez, de Nutanix, para quien “la supervivencia de las empresas pasa por seguir apostando por la innovación y, en este contexto, las tecnologías en la nube van a seguir jugando un papel muy protagonista para la transformación digital y la adopción de la IA en nuestra sociedad y nuestra economía”.

IA local o como servicio

La mayoría de empresas quieren las ventajas que promete la inteligencia artificial, como el aumento de la productividad y el impulso de la innovación, pero implementar y mantener una infraestructura propia para la IA es muy costoso. Como señala José Manuel Marina, de Crayon, “contar con sistemas informáticos de IA propios puede ser una opción para, por ejemplo, grandes empresas cuyo objetivo es vender soluciones de IA como servicios gestionados”. Pero si lo que se quiere es desplegar casos de uso concretos, recomienda recurrir a los hiperescalares.

En Dell Technologies también opinan que una infraestructura de IA propia solo es rentable para empresas con grandes volúmenes de datos, necesidades críticas de seguridad o que requieran personalización avanzada de sus modelos de IA. Por ejemplo, las de sectores como el financiero, el sanitario, el farmacéutico, el de automoción o la industria de robótica. Adriano Galano, de HPE, dice que estas industrias “necesitan mantener el control total sobre sus datos y modelos, algo que no siempre es factible cuando se subcontrata a proveedores externos”. Además, valora positivamente la capacidad de “evitar riesgos relacionados con la latencia y garantizar que sus sistemas estén siempre disponibles y adaptados a sus necesidades específicas”. También lo cree Mario Vasconcelos, de Vertiv, para quien “aunque la inversión inicial es alta, estas empresas pueden obtener ventajas competitivas a través de una personalización precisa, un control total sobre la seguridad y el rendimiento, y la capacidad de innovar con flexibilidad”.

 

“Los sistemas tradicionales de refrigeraciónpor aire resultan insuficientes para gestionar el calor generado por los procesadores de alto rendimiento”, Manuel Pérez-Tabernero (Schneider Electric)

 

El TCO es clave a la hora de valorar si es mejor tener tu propia TI para la IA o recurrir a proveedores externos. Robert Assink, de Digital Realty, señala que “el coste total de la IA en una empresa debe incluir no solo los propios sistemas IT, como las GPU, sino también su alojamiento en condiciones de alta densidad de consumo, el mantenimiento de sistemas y CPD, la comunicación entre instancias de IA y, por supuesto, la gestión por parte de los técnicos”. Una vez calculado el TCO, “las empresas tendrán que definir su estructura de costes y decidir si lo subcontratan todo o una parte”. Cree que esto no depende del tipo de empresa, sino del caso de uso de IA y de si su despliegue será de carácter local o global.

En OVHcloud creen que se debe diferenciar entre las empresas que proporcionan servicios de IA y aquellas que solo quieren adoptarlos. Para las primeras, en opinión de Matias Sosa, “puede ser más ventajoso contar con sistemas de IA propios”, aunque en ciertos casos de uso “las soluciones externas basadas en cloud pueden ser mucho más beneficiosas”. Para las segundas “el modelo de consumo más indicado sería el PaaS, debido a sus grandes ventajas en accesibilidad, usabilidad y aceleración del time-to-market”. Carlos Cordero, de Fujitsu, asegura que “cualquier entidad que deba entrenar/reentrenar modelos de IA, afinar dichos modelos y/o hacer uso de información sensible o bajo propiedad intelectual debería pensar en tener una infraestructura de IA propia, aunque esta sea gestionada por un proveedor externo”.

Por otro lado, Jorge Vázquez, de Nutanix, cree que no todas las infraestructuras pensadas para la IA suponen tantos retos para las empresas, e insiste en que “los modelos de multicloud híbrida están diseñados precisamente para simplificar la implementación, facilitar la gestión y llevar a cabo un mejor control de los costes”. Por ello, cree que el principal reto actual es “el desconocimiento de las ventajas que pueden proporcionar estas nuevas infraestructuras en la nube”, entre los que está la posibilidad de mejorar en sostenibilidad. Y señala que “el uso de las arquitecturas hiperconvergentes, que sirven para industrializar el uso de las soluciones en estos nuevos modelos en la nube, podrían reducir el consumo de energía y la huella de carbono en aproximadamente un 27% al año”.

En Schneider Electric no ven “una arquitectura binaria nube vs infraestructura privada, sino que en la mayoría de los casos la solución más eficiente y eficaz pasará por una nube híbrida”. Como explica Manuel Pérez-Tabernero. Identifica tres factores clave para decidirse por una infraestructura propia: la necesidad de una muy baja latencia en ciertas aplicaciones, la obligatoriedad de garantizar al máximo la seguridad del dato y el coste que pueden generar los casos de uso intensivos al subcontratar a terceros.

Recomendaciones de arquitectura

Diseñar un proyecto de infraestructura pensada para la IA es una tarea que las empresas interesadas deben considerar con muy cuidado. En palabras de José Manuel Marina, de Crayon, “el punto de partida para cualquier proyecto de IA debe ser tener las ideas claras”, y recomienda recurrir a servicios de consultoría para determinar los requisitos concretos de su caso de uso. De igual forma, el consejo de Robert Assink, de Digital Realty es apoyarse “en un partner que les ayude a ejecutar y gestionar despliegues de IA no solo para hoy, sino para el futuro”, pensando en términos de “coste, experiencia, innovación, sostenibilidad y conectividad”.

Desde Dell Technologies, más allá de su labor como proveedores de servidores enfocados a la IA, Julio César Gómez Martín aclara que también ofrecen más valor a los clientes, asesorándolos para escoger la solución que mejor se adapte a sus necesidades concretas. Cada caso es único, como comenta Carlos Cordero, de Fujitsu, por lo que es difícil ofrecer una recomendación concreta sobre arquitectura. Por ello, ofrecen soluciones variadas que pueden cubrir diferentes supuestos relacionados con la inteligencia artificial, incluyendo el pago por uso.

 

“Es crucial contar con soluciones que ofrezcan una combinación de rendimiento y acceso simultáneo a grandes conjuntos de datos”, Iván Gento Pariente (Synology)

 

En HPE recomiendan “un enfoque integral que garantice tanto el rendimiento como la escalabilidad, y que además esté diseñado para gestionar cargas de IA de manera eficiente y segura”, como explica Adriano Galano. Y plantea cuatro conceptos a tener en cuenta a la hora de diseñar la infraestructura, para los que ofrecen diferentes soluciones: arquitectura nativa de IA, soluciones híbridas, rendimiento optimizado y sostenibilidad.

Jorge Vázquez, de Nutanix, aconseja de nuevo “apostar por los modelos de nube híbrida multicloud. Y no solo para dar soporte a los proyectos de IA que quieran poner en marcha, sino también para disponer de una infraestructura que les permita estar a la vanguardia en innovación y adoptar cualquier otra nueva tecnología que irrumpa en el mercado”.

Por parte de OVHcloud, Matias Sosa dice que en su compañía ofrecen “una completa gama de soluciones para ayudar a las organizaciones a aprovechar al máximo las ventajas y oportunidades que ofrece la IA de forma accesible y segura”. A su vez, ponen a disposición de sus clientes su “experiencia y conocimiento, junto con nuestro ecosistema, para ayudarles a implementar sus proyectos de IA y hacer crecer sus negocios”. En Schneider Electric, como comenta Manuel Pérez-Tabernero, recomiendan a las empresas “diseñar el centro de datos desde el rack hacia fuera, conociendo las necesidades de refrigeración y potencia en el momento inicial y teniendo en cuenta la situación final”. También aconsejan centrarse en arquitecturas escalables, sostenibles y principalmente flexibles, que incluyan refrigeración avanzada, soluciones de alta densidad y una gestión de la energía eficiente”.

Mario Vasconcelos, de Vertiv, también recomienda “buscar un partner que sea capaz de ofrecer soluciones completas escalables que permitan el crecimiento en función del volumen de datos a manejar en cada momento y de las demandas de procesamiento”. Y esto debería incluir “soluciones avanzadas de refrigeración y gestión de energía para mantener la eficiencia operativa y controlar los costes”. Todo ello sin comprometer “la redundancia, la resiliencia y buen servicio de mantenimiento 24/7 con capacidad de monitorización”, que considera esenciales para garantizar la alta disponibilidad y minimizar el riesgo de interrupciones.

En Synology, expertos en almacenamiento conectado, consideran fundamental “contar con soluciones de almacenamiento de alto rendimiento”, como NAS con conectividad de alta capacidad, almacenamiento de estado sólido y tecnologías de caché para acelerar el acceso a los datos críticos”. Pero, como ocurre con cualquier proyecto de infraestructura que requiera garantías de protección de datos, Iván Gento aconseja “implementar un plan integral de respaldo y recuperación de datos automatizado”, así como el uso de cifrado avanzado en tránsito y en reposo para los grandes volúmenes de información sensible que se utilice en procesos de IA. Y también apunta a la necesidad de contar con “soluciones escalables y modulares que permitan a las empresas ampliar su capacidad de almacenamiento conforme crecen sus necesidades de datos, sin necesidad de reemplazar su infraestructura inicial”.

Futuro de la infraestructura TI para IA

A pesar de que se está produciendo un gran hype en torno a la inteligencia artificial, esta tecnología todavía no ha mostrado todo su potencial y se espera que en los próximos años siga evolucionando e impulsando la innovación para soportar cargas de trabajo de IA cada vez más exigentes. José Manuel Marina, de Crayon, anticipa que “los proveedores de infraestructura TI que aspiren a ser competitivos tienen que estar ya en el mercado IA, y deben saber cómo evolucionar adaptándose al ritmo continuo de cambios en el que vive la tecnología para llegar al futuro con opciones”.

Por su parte, Julio César Gómez, de Dell Technologies, opina que “los clientes tendrán que decidir si la expansión de la IA en sus diferentes casos de uso se desplegará sobre proveedores Cloud y con una arquitectura on-prem", como defienden en su compañía. En Fujitsu, como comenta Carlos Cordero, ven “mucha innovación en el campo de componentes de la IA y esperamos en los próximos meses que aparezcan arquitecturas de TI que sean mucho más respetuosas con el medio ambiente y con costes mucho más razonables a lo que vemos hoy en el mercado”.

La expansión de la IA, en palabras de Adriano Galano, de HPE, “transformará la manera en que las empresas gestionan sus entornos tecnológicos, impulsando un cambio hacia arquitecturas híbridas y nativas de IA”. Y opina que “a medida que las aplicaciones de IA sigan creciendo, las infraestructuras necesitarán ser mucho más escalables y altamente especializadas”, y prevé un aumento de demanda de soluciones híbridas, y que “la nube privada se posicionará como una opción atractiva para aquellas organizaciones que necesiten controlar sus datos y cumplir con regulaciones estrictas, a la vez que mantienen un alto rendimiento en sus modelos de IA”. En Nutanix creen que “no se tratará solo de la expansión de la IA, sino de todas las nuevas tecnologías que ayuden a las empresas en su transformación digital”, como señala Jorge Vázquez, entre las que destaca los nuevos modelos en la nube y mejores herramientas para la gestión de los datos.

 

“Es fundamental contar con plataformas para gestionar y orquestar los recursos de IA de manera efectiva y flexible”, Mario Vasconcelos (Vertiv)

 

Matias Sosa, de OVHcloud, cree que “se requerirá seguir innovando en distintas áreas, tanto en la inversión de nuevas infraestructuras de computación y de red, como en la investigación y el desarrollo de modelos que optimicen el uso de los recursos de cómputo”. Y opina que “los sistemas de almacenamiento de datos seguirán evolucionando”, todo ello acompañado de una mayor optimización energética para controlar el consumo de plataformas basadas en GPU de alta potencia. Desde Nutanix, Carmen Derlinchan opina que “el crecimiento continuo de la IA exigirá que las empresas adopten tecnologías más eficientes y escalables para soportar los crecientes volúmenes de datos y la necesidad de un procesamiento más rápido”, lo que estimulará la transición al almacenamiento de estado sólido. Y coincide en que la industria seguirá persiguiendo nuevas cotas de eficiencia energética.

Lo mismo opina Manuel Pérez-Tabernero, de Schneider Electric, que también pronostica una expansión en la industria de las infraestructuras modulares, la refrigeración líquida y el Edge Computing, a medida que las empresas sigan invirtiendo en infraestructuras optimizadas para IA. Esto llevará a una “evolución de la infraestructura TI hacia modelos más especializados y flexibles”, como señala Iván Gento, de Synology, que también prevé “un mayor énfasis en el procesamiento distribuido”, la evolución del almacenamiento para ampliar la capacidad, velocidad y seguridad, y espera “una creciente demanda de soluciones que permitan una integración fluida entre hardware, software y redes”.

Por último, Mario Vasconcelos, de Vertiv, espera que la expansión de la IA seguirá impactando profundamente el mercado de infraestructura TI, “impulsando una mayor demanda de hardware”, fomentando el almacenamiento escalable y redes de alta velocidad. Además, cree que “se requerirán soluciones de refrigeración más sofisticadas y sistemas de energía robustos para mantener la eficiencia operativa” en ecosistemas tecnológicos cada vez más complejos. En conjunto, apunta, “estos cambios llevarán a una evolución significativa en el diseño y funcionamiento de las infraestructuras de TI”.

Ricardo Gómez