Dirección IP y redes

Latencia (Latency)

Se lee en aproximadamente 4 minutos

Qué es la latencia

La latencia (Latency) es el tiempo que tardan los datos en llegar del origen al destino. Se mide en milisegundos (ms); menor valor = respuesta más rápida.

La mayor parte del "tiempo de espera" desde que introduces una URL hasta que la página empieza a mostrarse se debe a la latencia: resolución DNS, handshake TLS, procesamiento del servidor y retardo de propagación física del ida y vuelta.

La latencia se compara con "la longitud de una tubería": el tiempo hasta que sale la primera gota al abrir el grifo. El caudal una vez que fluye es el ancho de banda. Por gruesa que sea la tubería, si es larga, la primera gota tarda.

Métodos de medición

ping
Envía ICMP Echo Request y mide el tiempo de ida y vuelta (RTT). La forma más sencilla. ping example.com muestra RTT promedio, mínimo, máximo y pérdida de paquetes.
traceroute
Muestra la latencia de cada router (hop) en el camino al destino. Permite identificar en qué tramo ocurre el retardo.
mtr
Combina ping y traceroute. Muestra latencia y pérdida de paquetes por hop en tiempo real continuo. Excelente para detectar retardos intermitentes.

La latencia varía según hora y congestión. No juzgues con una sola medición; mide en diferentes horarios para identificar tendencias.

Diferencia entre latencia y ancho de banda

Latencia
"Tiempo" hasta que llegan los datos. Unidad: ms. Depende de distancia física, routers intermedios y retardo de procesamiento.
Ancho de banda
"Cantidad" de datos por unidad de tiempo. Unidad: Mbps/Gbps. Grosor de la línea.

Con 1 Gbps pero 200 ms de latencia, las páginas web cargan lento. Con 5 ms pero 1 Mbps, las descargas grandes tardan. Para comunicación en tiempo real (juegos, videoconferencia) domina la latencia; para transferencias masivas (streaming, backup) domina el ancho de banda.

Impacto por tipo de uso

  • Juegos en línea: Ideal <20 ms; >50 ms se nota el retraso; >100 ms afecta seriamente la competitividad.
  • Videoconferencia: <150 ms permite conversación natural; >300 ms dificulta el intercambio fluido.
  • Streaming de vídeo: El buffering mitiga la latencia durante reproducción, pero afecta el tiempo de inicio. En streaming en vivo, la baja latencia es crucial.
  • Navegación web: Múltiples solicitudes HTTP se acumulan. HTTP/2 y HTTP/3 con multiplexación mitigan este problema.

Cómo reducir la latencia

  • CDN: Sirve contenido desde servidores edge cercanos al usuario, minimizando el retardo de propagación física.
  • Edge computing: Ejecuta el procesamiento cerca del usuario. Cloudflare Workers, AWS Lambda@Edge. Reduce viajes de ida y vuelta al servidor.
  • HTTP/3 (QUIC): Basado en UDP, unifica handshake TCP y TLS reduciendo round-trips. 1-RTT en primera conexión, 0-RTT en reconexión.
  • Optimización DNS: DNS público rápido (Cloudflare 1.1.1.1, Google 8.8.8.8). DNS prefetch (<link rel="dns-prefetch">).
  • Preconexión: <link rel="preconnect"> completa DNS+TCP+TLS anticipadamente.

Conceptos erróneos comunes

Mayor velocidad de línea = menor latencia
Ancho de banda y latencia son independientes. Con fibra de 1 Gbps, la latencia a un servidor al otro lado del mundo supera 200 ms. La limitación física de la velocidad de la luz impide que más ancho de banda mejore la latencia por distancia.
La latencia es problema del servidor
La latencia se genera en toda la ruta: retardo del router Wi-Fi doméstico, congestión del backbone del ISP, distancia física del cable submarino, número de routers intermedios. El tiempo de respuesta del servidor es solo una parte.
Si el ping es bajo, todas las aplicaciones van bien
ping mide RTT de paquetes ICMP, pero las aplicaciones usan TCP/UDP con diferentes tamaños y patrones. Además, el jitter (variación de latencia) y la pérdida de paquetes también afectan la calidad percibida.
Compartir

Términos relacionados