Imagen: Pixabay

Contratar un paquete de internet de mayor capacidad no soluciona la latencia pero el protocolo L4S podría disminuirla casi por completo

Diversas empresas tecnológicas han comenzado a implementar un nuevo estándar de internet, llamado L4S, el cual busca eliminar la latencia casi al 100%.

Cualquier usuario de internet se ha enfrentado a problemas de conexión que resultan en la carga lenta de sitios, reproducción de videos o interferencia en videollamadas. Ante ello, la solución aparente es contratar un servicio con mayor capacidad ancho de banda, sin embargo, esto no siempre funciona. Pues el verdadero problema no es la capacidad de transmisión de datos, sino la latencia o cantidad de tiempo que tarda un dispositivo en enviar datos a un servidor y recuperarlos. Recientemente, el protocolo de internet L4S ha sido presentado como una solución a la latencia en el flujo de datos entre dispositivos y servidores.

Si bien, entender el flujo de datos involucrados en la carga de un sitio web, es bastante complejo, hay maneras sencillas de entender este funcionamiento. El internet es una red compuesta por diversos tubos que van de enrutadores a conmutadores y servidores. Al cargar un sitio web en un dispositivo, estos viajan de ida al servidor pasando por diversos puntos y luego regresan al dispositivo. Cuando la capacidad de alguno de los puntos es limitada y recibe datos más rápido de lo que puede enviarlos, se genera un cuello de botella y en consecuencia se afecta el tiempo de transmisión de paquete de datos.

El problema en estas situaciones es que el eslabón, de menor capacidad en la cadena, determina los límites de velocidad de transmisión de datos. Entonces, si estás conectado a un servidor con 8 Gbps de velocidad, pero el router procesa 10 Mbps, este último será el límite de capacidad. Aunado a ello, el retraso se suma, es decir, si tu computadora genera latencia de 10 mil milisegundos y el router de 20 mil, el retraso total será de 30 mil milisegundos.

Los dispositivos en línea lidian con una cantidad de tráfico altamente fluctuante. Para ello, al establecer la conexión con un servidor, primero se garantiza que puedan transmitirse datos a cierta velocidad y poco a poco se aumenta esta. Cuando algo sale mal, suele ser porque en algún punto se reciben más datos de los que pueden enviarse, ante ello, se descartan los paquetes de datos no procesados y los datos son enviados nuevamente. Pero, idealmente, el dispositivo debería reducir la velocidad de transmisión de datos y aumentarla conforme se procesen.

Ante esto se creó el sistema de búferes, el cual funciona como una especie de embudo, este almacena los datos que no son procesados de manera temporal y los coloca en una fila para procesarlos poco a poco. Si bien esto suaviza las ráfagas de tráfico, los búferes en ocasiones deben procesar tantos datos que estos permanecen en la fila para procesarse por demasiado tiempo.

De esta forma, el protocolo L4S es un algoritmo de control de congestión de datos. Su función es asegurarse de reducir la fila de espera de los paquetes de datos. Para ello, este protocolo al detectar congestión de datos, o sobrealmacenamiento en búferes, da un aviso a los dispositivos. De tal forma que estos pueden disminuir la cantidad de datos enviados, dando mayor tiempo a procesar los que están en espera. El L4S permite a los dispositivos enterarse del inicio del problema y el lugar en la cadena de flujo. Siendo así más fácil mantener una buena cantidad de rendimiento sin agregar latencia para transferir datos.

Sobre esto, el protocolo 4LS se describe como una solución al almacenamiento de datos en los búferes. De acuerdo con The Verge, esto no solo modifica el uso cotidiano del internet, sino que permite a desarrolladores web potencializar sus usos. Si bien, este tipo de protocolos puede tardar décadas en implementarse, como el caso del IPV6, diversas compañías están interesadas en amplificar su desarrollo y uso. Entre ellas, Google, COmcast, Telekom, Deutsche y otras. En 2023, Apple incluyó el soporte beta de 4LS en iOs 17, por lo cual este sistema ya es compatible con dicho protocolo.

Aunque el protocolo potencialmente podría transformar la experiencia en el uso de internet con menos retraso, su aplicación generalizada es bastante lejana. Pese a ello, Mitchell Calrk, de The Verge, menciona, el acercamiento y entendimiento del flujo de datos ha generado herramientas para tener una experiencia más favorable respecto a la velocidad de conexión.

NotiPress

CONTINÚA LEYENDO

Google Gemini: qué es y por qué está superando a ChatGPT

NASA experimenta con microgravedad y cómo el cuerpo humano se adapta a la ingravidez