Estrategias de datos inteligentes: construir infraestructuras para extraer más valor

  • Opinión
Victor Gago - Schneider Electric

Por Víctor Gago, Datacenter and C&SP Sales Manager de Schneider Electric.

 

Cada vez es más evidente que los datos no solo acompañan a los negocios, sino que influyen directamente en su dirección y en su velocidad. Las empresas que han sabido reconocer este cambio están transformando sus operaciones, sus decisiones y, en muchos casos, su forma de competir. Lo observamos a diario en el ecosistema empresarial español: compañías que, a través de una gestión inteligente del dato, están reconfigurando sus modelos de negocio, sus estructuras operativas y, en última instancia, su propuesta de valor. Sin embargo, como quedó patente en la mesa redonda organizada recientemente por ITDM Group, este camino hacia un modelo verdaderamente data-driven no está exento de retos. La transición exige tanto una base tecnológica robusta como una visión de gobernanza transversal, en la que confluyan la calidad, la seguridad, la sostenibilidad y la agilidad.

Uno de los consensos más claros que surgieron durante el encuentro fue la importancia casi vertebral de la calidad del dato. Todas las empresas participantes, independientemente de su sector, coincidieron en que contar con información precisa, estructurada y fiable es el prerrequisito esencial para cualquier estrategia basada en datos. Sin este pilar, de poco sirve cualquier intento de extraer valor mediante analítica avanzada, inteligencia artificial o automatización. Si el dato de base no es consistente, todo lo que se construya sobre él se tambalea. En este escenario, solo las organizaciones que inviertan en procesos sólidos de limpieza, validación y enriquecimiento conseguirán transformar los datos en conocimiento útil. Es un punto de partida ineludible que requiere, eso sí, liderazgo, herramientas específicas y una cultura empresarial orientada al dato como activo.

Otro punto del debate giró en torno a la ciberseguridad, una preocupación que se ha agudizado notablemente en los últimos meses, especialmente tras el auge de aplicaciones basadas en modelos de lenguaje como ChatGPT. No es una preocupación baladí: los ciberdelitos han crecido un 19% en España entre 2023 y 2024, según datos del Ministerio del Interior.

En sectores como la banca o el sanitario, donde el compliance es especialmente estricto, se percibe claramente el riesgo que supone una fuga de información sensible hacia entornos externos no controlados. La protección de los datos ya no se limita a levantar barreras técnicas, sino que implica desplegar estrategias proactivas de detección, respuesta y concienciación.

 

¿Cómo abordar este enfoque de datos desde el punto de vista de las arquitecturas de datos?

El clásico dilema entre cloud y on-premise ha sido superado por un enfoque más matizado, en el que la respuesta adecuada ya no pasa por elegir entre modelos, sino por combinarlos inteligentemente. La nube ha demostrado ser una herramienta poderosa para ganar flexibilidad, escalar rápidamente y reducir la carga operativa. Muchas empresas presentes en la mesa compartieron cómo este entorno les ha permitido concentrar sus recursos en el análisis y la explotación del dato, liberándose de parte del peso de la infraestructura.

Eso sí, este salto hacia la nube implica controlar el gasto, asegurar el cumplimiento normativo y garantizar tiempos de respuesta óptimos. En algunos sectores, la regulación obliga a mantener determinados datos bajo control directo, lo que limita el uso exclusivo de entornos cloud. Al mismo tiempo, la latencia en aplicaciones críticas o la necesidad de operar cerca del punto donde se genera el dato hacen imprescindible incorporar capacidades de edge computing. La mayoría de las organizaciones representadas afirmaron ver el futuro de sus infraestructuras en modelos híbridos, donde la nube, los entornos locales y el edge conviven bajo una gobernanza común y estratégica.

En este contexto, se impone una visión híbrida del futuro de las infraestructuras. Un modelo que combine de forma flexible capacidades cloud, sistemas on-premise y entornos edge, no como capas inconexas, sino como parte de una arquitectura convergente, gobernada por políticas comunes de seguridad, disponibilidad y eficiencia energética. Este enfoque permite no solo adaptarse a las necesidades operativas específicas, sino también asegurar cumplir con las normativas, optimizar la inversión y reducir la huella de carbono a través de una gestión más inteligente de los recursos físicos y digitales.

Desde nuestra perspectiva en Schneider Electric, esta hibridación es una evolución estructural del modo en que las empresas diseñan, construyen y operan sus entornos tecnológicos. Nuestros clientes demandan cada vez más soluciones que integren sostenibilidad, resiliencia y escalabilidad, sin renunciar al control granular del dato ni a la seguridad de extremo a extremo.

 

Herramientas para maximizar el valor del dato

La mayoría de las empresas están desplegando entornos de data discovery mediante plataformas como Power BI, Tableau o Qlik, lo que les permite democratizar el acceso a la información, acelerar la toma de decisiones y mejorar la trazabilidad del dato. Sin embargo, empieza a emerger una nueva generación de herramientas basadas en inteligencia artificial generativa que actúan como agentes autónomos de análisis y descubrimiento. Estos asistentes no solo responden a preguntas, sino que sugieren hipótesis, detectan patrones ocultos y proponen acciones en lenguaje natural, abriendo la puerta a una forma de interacción más fluida e intuitiva con el dato.

Finamente, debe quedar claro que la tecnología, por sí sola, no es suficiente. La transformación hacia un modelo orientado al dato requiere talento digital, una cultura basada en la colaboración interdepartamental, y una dirección comprometida con la innovación. La escasez de perfiles técnicos y la resistencia al cambio siguen siendo dos de los principales cuellos de botella en la adopción de estrategias avanzadas de datos. Superarlos exige invertir en formación continua, promover estructuras organizativas más ágiles y, sobre todo, entender que el dato no es una cuestión exclusiva del departamento de TI, sino una responsabilidad colectiva y transversal en toda la empresa.