Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

Cómo evolucionarán los datos en 2018

  • Actualidad

almacenamiento datos

A punto de cerrar el año, los proveedores de tecnología sacan sus bolas de cristal para poner luz sobre las principales tendencias que se impondrán durante los próximos doce meses en sus ámbitos de especialización.

El último en hacerlo ha sido NetApp, que ofrece a los responsables de TI cinco pistas sobre cómo evolucionarán los datos en 2018.

Los datos toman conciencia de sí mismos. Hoy son los procesos los que actúan sobre los datos, determinando cómo se trasladan, gestionan y protegen.

Quizá te interese...

Por una Transformación Digital segura (IT Webinar)  

Cómo debe ser el Centro de Datos de Nueva Generación

Cómo mejorar la analítica de tu banco digital y optimizar la experiencia de usuario

7 sugerencias para mejorar la carga de tu web o app

Cómo superar los desafíos de TI en las pequeñas empresas

La empresa digital: transformando las TI con nuevas infraestructur

Según esta firma, a medida que los datos se convierten en elementos conscientes de sí mismos e incluso se hacen más diversos de lo que lo son en la actualidad, los metadatos permitirán a los datos transportarse, categorizarse, analizarse y protegerse por sí mismos de forma proactiva. En su opinión, “el flujo entre datos, aplicaciones y elementos de almacenamiento se mapeará en tiempo real y los datos proporcionarán la información exacta que necesitan los usuarios en el momento preciso que la necesiten. Esto también incluye la posibilidad de autogobierno de los datos. Los datos por sí mismos determinarán quién tiene derecho de acceso a ellos, además del derecho a compartirlos y usarlos, algo que podría tener unas mayores consecuencias en materia de protección externa, privacidad, gobernanza y soberanía de los datos”

Las máquinas virtuales, comparables con un “carpool”. La gestión de unos datos cada vez más distribuidos será más rápida, barata y cómoda usando para ello máquinas virtuales aprovisionadas en infraestructuras de escala web, en vez de máquinas físicas reales.

El hardware personalizado puede ser caro, pero tiene sentido invertir en una infraestructura física para cargas de trabajo intensivas y constantes. Sin embargo, cuando se trata de cargas variables y sin ese carácter intensivo, el alquiler es una solución viable. NetApp explica que “los usuarios pueden acceder a la máquina virtual sin necesidad de ser propietarios o sin necesidad de saber cualquier detalle sobre ella”. 

Para la compañía, las máquinas virtuales aprovisionadas en infraestructuras de escala web (es decir, la tecnología sin servidores) son como los servicios de carpool de la tecnología, en donde el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud, lo que facilita y hace más cómodo su uso en comparación a los métodos tradicionales para ciertos tipos de cargas de trabajo.

La cantidad de datos crecerá más rápido que la capacidad para transportarlos. En breve, esto sucederá, pero no pasará nada. Serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud.  “En el futuro, la cantidad de datos utilizados en la arquitectura esencial será siempre menor de la generada a nivel local, pero esto no ocurrirá de forma accidental y se debe facilitar de forma muy deliberada para garantizar que los datos correctos se retienen para aprovecharlos en las tomas de decisiones posteriores”, indica la firma.

La evolución desde el Big Data al Huge Data. Como es más necesario analizar más rápido mayores cantidades de datos, es preciso trasladar los datos más cerca de la computación. La memoria persistente es lo que va a permitir una computación de latencia ultra baja sin pérdida de datos. “Estas demandas de latencia obligaran en última instancia a las arquitecturas de software a cambiar y crear nuevas oportunidades de negocio impulsadas por los datos, como su monetización. La tecnología Flash ha sido un tema destacado en el sector pero, sin embargo, el software que funciona con esta tecnología no ha cambiado verdaderamente, sino que solo se ha hecho más rápido”, expresa la compañía.

Emergen mecanismos descentralizados e inmutables para la gestión de los datos. Los mecanismos descentralizados, como los de blockchain, representan un reto al concepto tradicional de la protección y la gestión de datos. Como no hay un punto central de control, como un servidor centralizado, es imposible cambiar o eliminar la información en un blockchain y, además, todas las transacciones son irreversibles. 

“Los centros de datos actuales y las aplicaciones funcionan como granjas gestionadas de forma comercial, con una unidad central de control que gestiona el entorno que tiene a su alrededor.Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones necesarias. Los microservicios y los datos trabajarán de forma cooperativa, sin un control general gestionado de forma centralizada”, señala la firma.