Copias de seguridad de entornos de bases de datos de gran tamaño en la nube

  • Opinión

Jaime Balañá

Resulta fundamental garantizar la fiabilidad de las aplicaciones de negocio, tanto en la nube como en nuestros centros de datos locales. Entre otras cosas, esto pasa por contar con la capacidad de realizar copias de seguridad y restaurarlas a gran velocidad. No obstante, esto puede resultar complicado en entornos de bases de datos de gran tamaño como SAP HANA.

Tribuna de opinión de Jaime Balañá, director técnico de NetApp España

En el artículo anterior hablamos de algunos casos de aplicaciones empresariales, continuamos con copias de seguridad de entornos de bases de datos.

Las estrategias convencionales como el streaming o las copias de seguridad en cinta no ofrecen un rendimiento suficiente para la gestión de datos críticos para las operaciones de la empresa. En sistemas HANA, nos veremos en la necesidad de realizar frecuentes copias de seguridad de todo el sistema. Sin embargo, bases de datos muy extensas y un ancho de banda limitado pueden crear una carga extrema para el rendimiento del sistema y provocar que el proceso requiera horas. Como resultado de ello, solo podremos realizar copias de seguridad una o dos veces al día, una cadencia a todas luces insuficiente para sistemas tan críticos como éstos. Y con frecuencia, restaurar una copia de seguridad puede requerir incluso más tiempo que realizar la copia en sí.

Por otro lado, en el caso de contar con un sistema de copias de seguridad basado en snapshots, podremos crear copias de seguridad y almacenarlas en el sistema en cuestión de segundos sin que ello afecte al rendimiento de la base de datos. Así, por ejemplo, All for One Group, la consultora y proveedora de servicios tecnológicos líder en los mercados SAP de habla alemana, ofrece, en colaboración con NetApp, un modelo operativo que permite contar con un acceso fiable y 100 % disponible a servicios ERP a través de SAP HANA.

Esta velocidad es posible porque las copias de seguridad se realizan en el propio almacenamiento, por lo que no consumen recursos de servidor. Esto permite realizar copias de seguridad a intervalos muy cortos, múltiples veces al día. Del mismo modo, resulta posible recuperar los datos partiendo de una instantánea en un tiempo muy reducido. Gracias a soluciones de gestión de datos como Cloud Volumes ONTAP, Cloud Volumes Service o Azure NetApp Files, resulta posible almacenar estas copias de seguridad mediante instantáneas en la nube pública, exactamente del mismo modo en que lo haríamos con las copias de seguridad en entornos locales.

Con el fin de garantizar el máximo rendimiento en la creación y restauración de copias de seguridad en la nube, deberemos utilizar una solución de almacenamiento para la nube en forma de servicio gestionado en una nube pública. Así, nuestra empresa recibirá potentes entornos de servicio NAS para ficheros, capaces de variar su capacidad y rendimiento en función de la demanda real de cada momento, en conformidad con los SLA que se hayan acordado. Es el proveedor de servicios el que se encarga de su configuración y funcionamiento, así como de su adecuación a los SLA que sean oportunos. Al trabajar con todos los principales proveedores de servicios, los clientes de NetApp podrán contratar sus servicios de nube directamente con sus proveedores de servicios de nube pública.

Recuperación de datos en caso de catástrofes para entornos híbridos

Las copias de seguridad no son sino el primer paso a la hora de proteger los datos de sistemas SAP. La recuperación en caso de catástrofes también representa un reto en el caso de los entornos distribuidos. Las compañías deberán ser capaces de restaurar sus copias de seguridad incluso cuando existan problemas que afecten a todo el centro de datos. En palabras de Thomas Herrmann: «No es una mera cuestión de no perder datos. Los datos también deberán mantener su coherencia durante el proceso de recuperación. De otro modo, es posible que ciertos procesos de las aplicaciones de negocio dejen de funcionar correctamente. Esto significa que los datos que estén distribuidos por múltiples sistemas deberán contar con copias de seguridad consistentes y realizadas al mismo tiempo, con independencia de su posición en los centros de datos o en la nube. Es una cuestión muy compleja».

Para desarrollar políticas integrales para la recuperación en caso de catástrofes, las organizaciones deberán comprender los requisitos que conllevan las aplicaciones de negocio a la hora de proteger y recuperar los datos. También deberán tener claro qué funcionalidades técnicas son necesarias. Existen dos indicadores:

El punto objetivo para la recuperación (RPO o Recovery Point Objective), que cuantifica la cantidad máxima de datos que resulta tolerable perder.

El tiempo objetivo para la recuperación (RTO o Recovery Time Objective), que indica el tiempo máximo que las aplicaciones pueden estar fuera de servicio.

Estos indicadores quedan determinados por el tipo de aplicación que estemos utilizando y por la naturaleza de los datos en cuestión. Determinar estos indicadores resulta importante por cuanto hay diferentes opciones técnicas disponibles en función del sistema SAP HANA que estemos utilizando.

Una posible solución es la de emplear los llamados Consistency Groups (o grupos de consistencia). Todos los sistemas que trabajen en mutua interconexión quedarían combinados en uno de estos grupos de consistencia y estarían sujetos a un mismo plan de copias de seguridad. Así, las copias de seguridad se realizarán automática y simultáneamente. Si un sistema fallase, este planteamiento nos permitiría reimportar el mismo punto de datos en todos los sistemas a la vez, garantizando así la coherencia del ecosistema.

Big Data procedente de nuevas tecnologías

Otros dos ámbitos de relevancia en el mundo de las aplicaciones de negocio son el Internet de las Cosas (o IoT) y el Big Data. Recabar, unificar y evaluar estos datos resulta vital para el éxito del negocio. Partiendo de estos datos las compañías pueden optimizar sus procesos y desarrollar nuevos modelos de negocio. El 5G facilitará la adopción generalizada del IoT y dará pie al surgimiento de aplicaciones con estrictos requerimientos en materia de latencia que hasta ahora ha sido imposible implementar, como puedan ser la conducción autónoma o la producción en red.

Para poder explorar el potencial de IoT, las compañías deberán evitar compartimentar sus datos de forma estanca. Muy al contrario, las aplicaciones de IoT y Big Data deben estar interconectadas, de forma que los datos de los sensores puedan correlacionarse fácilmente con los datos clave de la compañía.

Con esto en mente, SAP ha creado un extenso catálogo de soluciones para IoT bajo su epígrafe de Intelligent Technologies, con el objetivo de ayudar a las empresas a desarrollar sus estrategias de innovación. Así, SAP ofrece microservicios y aplicaciones para tecnologías estrechamente interconectadas como IoT, el machine learning, las cadenas de bloques, y el análisis de Big Data.

Como ya hemos visto, IoT, el machine learning y la inteligencia artificial nos van a plantear nuevos retos a la hora de gestionar nuestros datos. Sensores y dispositivos producirán enormes volúmenes de datos en muy poco tiempo y, como resultado de todo ello, el volumen de los datos que deberemos gestionar aumentará exponencialmente. Lidiar con este torrente de datos no resultará sencillo. Los sistemas locales de almacenamiento tendrán dificultades para copar con todos estos datos, por lo que los sistemas de almacenamiento en la nube desempeñarán un papel importante en el desarrollo de IoT. Al mismo tiempo, los datos se generarán en muchas ubicaciones muy distribuidas, desde las cuales deberán transferirse de forma rápida y segura allá donde sean necesarios. Así pues, nuestra gestión de los datos deberá tener todas estas consideraciones en cuenta.

El surgimiento del Edge Computing

Ante este volumen de datos, puede no resultar práctico transferir y almacenar todos los datos en una plataforma central, ya que esto saturaría el ancho de banda disponible e incrementaría los costes. Además, las aplicaciones en las que la latencia sea un factor crítico también requerirán un análisis en tiempo real de los datos, de forma que estos puedan ser filtrados y analizados directamente en el punto de origen.

Es precisamente por ello que el llamado edge computing irá cobrando importancia a lo largo de los próximos años. Según un estudio realizado por la consultora ISG, el mercado en este ámbito está experimentando un crecimiento medio de más del 30 % anual, que se tornará explosivo a lo largo de los próximos años. Gartner prevé que para 2028 cada vez se implementen más y más sensores, recursos de almacenamiento y procesamiento e inteligencia artificial en dispositivos de edge computing. De hecho, los analistas contemplan al edge computing y a la nube no como mundos enfrentados, sino como conceptos complementarios.

Para garantizar una interacción fluida entre las aplicaciones de negocio y el IoT, las organizaciones necesitan contar con sistemas de gestión integrada de los datos que tengan en consideración todos los niveles de sus complejos entornos tecnológicos distribuidos, desde el sensor hasta la aplicación que utiliza los datos, pasando por la capa intermedia de edge computing y el almacenamiento en la nube. Los sistemas deberán ser capaces de transferir los datos oportunos a la ubicación correcta a una velocidad adecuada.

NetApp diferencia entre cinco pasos, cada uno de los cuales conlleva diferentes tareas: recopilación, transferencia, almacenamiento, análisis y archivado. Cada una de estas cinco fases ilustra cuán complejos son los proyectos de IoT desde el punto de vista de la gestión tecnológica, y cómo es necesario interconectar varios componentes para tener éxito en la implementación de IoT. Es en este ámbito en el que NetApp puede ayudar con su Data Fabric, que pone todas estas fases bajo control.

Cómo implementar proyectos SAP más rápidamente

Independientemente de si hablamos de IoT o de nuevos servicios, las compañías deben ser capaces de implementar sus innovaciones rápidamente para asegurarse de que se mantienen competitivas. No obstante, la configuración de los sistemas de desarrollo y pruebas para SAP suele requerir varios días. El primer paso es crear una copia de seguridad, activarla y modificar el sistema. El resultado es una copia con la que los desarrolladores pueden trabajar. Sin embargo, utilizar funciones de clonado automatizado nos permitirá arrancar entornos de pruebas en cuestión de minutos y con solo pulsar un botón. Gracias al concepto del Data Fabric, las empresas pueden gozar de una mayor flexibilidad entre sus diversos entornos. Así, por ejemplo, sería posible clonar un Sistema SAP en AWS y ponerlo en funcionamiento en Azure, todo ello en menos de 10 minutos.

Como ejemplo, las migraciones a SAP HANA para entornos con entre aproximadamente 20 y 100 sistemas/bases de datos SAP suelen ser proyectos de una duración de entre 6 y 18 meses. La mayor parte de este tiempo se invierte creando entornos de pruebas y realizando pruebas funcionales a varios niveles o en migraciones de prueba. Esto resulta necesario para hacer que la migración real resulte lo más carente de riesgos posible y requiera la mínima interrupción de los servicios posible. Las soluciones de gestión de datos de NetApp y su integración con herramientas SAP puede ayudar a optimizar estas fases de pruebas y hacerlas más breves, ya sea al permitir realizar múltiples pruebas en paralelo o al recortar los tiempos de despliegue y recuperación, lo que permite realizar más pruebas en un mismo plazo de tiempo.

Conclusión

Las aplicaciones de negocio continuarán desempeñando un papel fundamental en el futuro tecnológico de las empresas, ya sea en entornos locales o en la nube. Sin embargo, dados los cada vez mayores volúmenes de datos resultantes de las nuevas tecnologías y de la estrategia cloud-first de SAP, la proporción de despliegues en la nube seguirá aumentando. Por el momento, no resulta fácil aventurar si las empresas tendrán la capacidad de migrar sus sistemas SAP esenciales a la nube en un futuro por lo que, al menos durante los próximos años, los entornos multinube híbridos seguirán siendo la opción más extendida. El reto más importante es garantizar las cotas de rendimiento, seguridad y disponibilidad necesarias, incluso en ecosistemas tecnológicos tan complejos y distribuidos y con volúmenes de datos tan inmensos. Para ello, las empresas deberán contar con potentes recursos de gestión de datos capaces de operar de forma coherente y simultánea en todo tipo de centros de datos y nubes.

Jaime Balañá, director técnico de NetApp España

 

 

TAGS Opinión