La latencia se convierte en factor crítico para las compañías de Internet

  • Estrategias digitales

Un retraso de dos segundos en el tiempo de descarga de un sitio web es suficiente para que el usuario abandone este sitio web. Por eso, no es de extrañar que cuatro de cada cinco compañías de Internet consideren la latencia como el criterio más importante a la hora de firmar nuevos contratos de interconexión.

Las necesidades de conexión de la población cambiarán debido al incremento del cloud gaming, aplicaciones de realidad virtual o el desarrollo del coche autónomo y, en este escenario, la latencia es crítica si no se quieren incumplir las expectativas de los usuarios.

Según el investigador Jakob Nielsen, 10 segundos es el tiempo máximo para mantener la atención del usuario y que no desespere mientras carga un contenido. Además, un retraso de entre 0,2 y 1 segundo ya es perceptible por la persona y, por tanto, siente que el dispositivo está “trabajando” en realizar la orden, y que no es inmediato. Si sumamos a esto que un estudio de Akamai demostró que un retraso de 2 segundos en el tiempo de descarga de un sitio web es suficiente para aumentar la tasa de rebote en más de un 100% (es decir, que el usuario abandone este sitio web), y la tendencia que se observa es que esa impaciencia va a ir en aumento.

Datos como estos han convertido a la latencia en el principal criterio a la hora de decantarse por un proveedor de servicios de interconexión para el 81% de las compañías de Internet, según una encuesta realizada por DE-CIX entre sus clientes.

Para el responsable de la dirección tecnológica de esta compañía, el Dr. Thomas King, “cada vez existen más servicios que requieren una latencia ultra baja o incluso lo que se denomina ‘latencia cero’ y, por este motivo, las necesidades de conexión de los usuarios están cambiando”.

Además, el usuario ya se está acostumbrando a la inmediatez que proporcionan muchos servicios y, como lo previsible es que la situación vaya en aumento, la firma ha desarrollado un ecosistema de interconexión “en el que los datos se procesen lo más cerca posible del cliente y se alojen de forma segura en la nube para garantizar la mínima latencia en nuestros puntos de intercambio”, explica el CTO.

Para el proveedor, edge computing y la computación en la nube son los dos elementos que garantizarán una latencia lo más baja posible. El procesamiento de datos al lado del usuario podría ser posible con la instalación de mini-centros de datos en zonas cercanas, ya que los datos estén disponibles más rápidamente y la distancia recorrida será menor para alcanzar la latencia óptima.