Latência: a variável que faz a diferença

Em um mundo onde tudo parece ser medido em gigabytes, onde os anúncios prometem velocidades de conexão altíssimas, há uma palavra que raramente é mencionada, mas que determina, em grande medida, a experiência real do usuário ao navegar na internet: latência.

Enquanto a largura de banda ocupa o centro do palco na discussão sobre velocidade, latência, silenciosa e muitas vezes ignorada, tem um peso específico na equação de um bom serviço digital.

“A velocidade depende mais do tempo do que do tamanho”

Por: Gabriel E. Levy B.

www.galevy.com

Durante anos, o discurso dominante em torno da internet de qualidade girou em torno de quantos megabits por segundo (Mbps) um provedor pode fornecer. Essa obsessão com a largura de banda – entendida como a quantidade de dados que podem ser transferidos por segundo – ofuscou outro fator igualmente ou até mais decisivo: a latência. Latência, em termos simples, é o tempo que leva para um pacote de dados ir da origem ao destino e voltar. É medido em milissegundos e representa aquele intervalo breve, mas crucial, entre quando clicamos e quando o sistema responde. Não se trata de quanto você pode enviar, mas de quão rápido o que você envia chega. Em um mundo digital que recompensa o imediatismo, a latência é o verdadeiro termômetro da fluidez.

O problema é que esse atraso nem sempre é visível até se tornar um obstáculo. Em uma videochamada, pode se manifestar como um silêncio constrangedor antes que a voz do interlocutor chegue até nós; em um videogame, como aquele segundo fatal em que o personagem não reage a tempo. A latência está lá, escondida, prejudicando a experiência, embora o velocímetro da internet prometa números altos.

O engenheiro americano Jim Gettys, que cunhou o termo bufferbloat para descrever os gargalos que são gerados em redes sobrecarregadas de dados, alertou que a qualidade da internet não está apenas no volume de informações que podem ser transmitidas, mas em como e quando elas são entregues. “O acúmulo desnecessário de pacotes na rede causa uma inflação artificial de latência”, explicou ele em uma série de publicações técnicas que agora são consideradas referência. Em outras palavras: não importa a largura da rodovia se todos os carros ficarem presos em um semáforo eterno.

E é precisamente aí que se abre uma fenda entre o que é prometido e o que é experimentado. Enquanto os provedores de serviços de Internet competem em uma corrida para oferecer mais megabytes, muitos usuários continuam enfrentando uma navegação errática, interrompida e frustrante. A explicação, quase sempre, está naqueles milissegundos invisíveis, mas decisivos, de latência.

“Um pacote de dados pode viajar à velocidade da luz, mas perde-se na burocracia da estrada”

Para entender por que a latência é tão importante, basta observar como a rede se comporta em diferentes contextos. A latência, medida em milissegundos (ms), representa o atraso entre uma ação do usuário e a resposta do servidor. Em aplicativos como videochamadas, jogos online ou até mesmo navegação básica na web, a alta latência pode tornar a experiência insuportável, independentemente de você ter uma largura de banda de 300 ou 1000 Mbps.

Nesse sentido, a metáfora da rodovia digital ganha valor: largura de banda seria o número de pistas disponíveis, enquanto a latência se assemelharia ao estado do tráfego. Você pode ter uma rodovia de seis pistas, mas se cada veículo demorar muito para reagir aos semáforos ou tiver que passar por pedágios desnecessários, o tempo total de viagem dispara. É exatamente isso que acontece nas redes de internet que priorizam o volume em detrimento da eficiência.

Países como Coreia do Sul e Japão, líderes mundiais em conectividade, entenderam essa distinção anos atrás. Em suas estratégias nacionais, eles não apenas expandiram a cobertura e a velocidade, mas também se concentraram na redução da latência por meio de infraestrutura mais próxima do usuário, redes de fibra óptica de baixa interferência e arquiteturas de data center distribuídas.

No entanto, em muitos países da América Latina e outras regiões em desenvolvimento, a corrida ainda está focada em oferecer “mais megabytes” sem melhorar as condições que permitem que esses megabytes se traduzam em uma experiência eficiente.

“O silêncio entre pacotes também comunica”

Um dos principais problemas enfrentados pela latência como conceito é sua invisibilidade no marketing. Não pode ser vendido tão facilmente quanto megabytes. Não há promoções que digam “latência inferior a 10

 mais garantido”, embora tal número seja decisivo para um jogador profissional ou para um cirurgião que opera remotamente com instrumentos robóticos.

O público em geral, além disso, tende a confundir velocidade com tempo de download, sem perceber que muitos dos aborrecimentos diários ao usar a Internet – mensagens que demoram para serem enviadas, chamadas que são interrompidas, páginas que parecem “hesitar” antes de carregar – são devidos à alta latência, não à baixa largura de banda.

Esse mal-entendido também é perpetuado na regulamentação. Os regulamentos de qualidade de serviço em muitos países exigem que os provedores atendam a uma largura de banda mínima, mas eles não se preocupam em definir limites de latência aceitáveis. Essa omissão permite que as operadoras cumpram os valores contratuais sem realmente melhorar a experiência do usuário.

Mesmo em ambientes corporativos, onde tempo é dinheiro, houve casos em que redes de alta capacidade geram resultados decepcionantes porque não consideram a latência. Uma rede de fibra conectando dois escritórios pode transferir arquivos grandes em segundos, mas se a comunicação em tempo real entre as equipes for prejudicada por atrasos de 100 milissegundos, a colaboração será prejudicada.

“Quando cada milissegundo conta”

No mundo dos jogos online, a latência não é mais um termo técnico, mas uma preocupação cotidiana. Os  jogadores de League of Legends, Call of Duty ou Fortnite  sabem que uma latência superior a 50ms pode fazer a diferença entre a vitória e a derrota. Nesse ecossistema, o famoso ping – uma medida de latência – passou a fazer parte do vocabulário comum, e não há jogo em que não se discuta se a conexão é “lenta”.

Na América Latina, por exemplo, o termo “lag” foi popularizado para descrever aqueles momentos em que a imagem congela no momento em que se está prestes a fazer um movimento crucial. Em muitos desses casos, o problema não é que haja falta de velocidade, mas que há muita latência.

Outro caso emblemático é o da telemedicina. Com o aumento das consultas virtuais e cirurgias assistidas por robótica, especialmente após a pandemia, tornou-se fundamental manter a latência ultrabaixa. De acordo com um estudo publicado no The Lancet Digital Health, a latência superior a 250 ms pode comprometer seriamente a segurança em procedimentos cirúrgicos remotos.

Plataformas de videochamada, como Zoom ou Google Meet, também enfrentaram esse dilema. Durante o pico da pandemia, muitas dessas plataformas investiram em servidores regionais e algoritmos de compressão que reduziram a latência, já que um simples atraso de meio segundo em uma conversa pode dessincronizar completamente uma reunião.

Isso sem falar na Internet das Coisas (IoT), onde sensores conectados em tempo real devem tomar decisões instantaneamente, como em um carro autônomo detectando um pedestre. Nesses tipos de contextos, a baixa latência pode literalmente salvar vidas.

Em conclusão, a velocidade da internet não depende apenas da largura de banda, mas se baseia, em grande parte, em uma variável que muitas vezes é ignorada: a latência. Em um ambiente digital que exige respostas instantâneas, ignorá-lo é como construir uma rodovia sem se preocupar com semáforos. Entender e valorizar a latência não apenas melhora a experiência do usuário, mas redefine o que realmente significa ter uma boa conexão.

Referências:

  • Carr, Nicolau. O raso: o que a internet está fazendo com nossos cérebros. W.W. Norton & Company, 2010.
  • Gettys, Jim. “Bufferbloat: Buffers escuros na Internet.” Fila ACM, 2011.
  • The Lancet Digital Health, “Latência na telecirurgia: implicações para a segurança”, 2020.