Não entendi bem esta questão. Será que alguém pode me ajudar?
Fonte: Wikipédia.
Jitter é uma variação estatística do atraso na entrega de dados em uma rede, ou seja, pode ser definida como a medida de variação do atraso entre os pacotes sucessivos de dados. Observa-se ainda que uma variação de atraso elevada produz uma recepção não regular dos pacotes. Logo, uma das formas de minimizar a variação de atraso é a utilização de buffer, o qual armazena os dados à medida que eles chegam e os encaminha para a aplicação segundo uma mesma cadência. Ocorre nos momentos onde este passa pelo valor zero, sendo bastante crítica nos sistemas que operam com modulação em fase. Um exemplo de sistemas que tem o Jitter como inimigo é o serviço de Voz sobre IP (VoIP). Para este sistema, tanto o efeito do Jitter, variação de latência, quanto a sua mais simples solução, bufferização, não são agradáveis.
Um conceito semelhante a Jitter (que Tanenbaum chama de flutuação) é o de retardo. Vejamos:
Retardo: é o tempo que os pacotes levam para chegar ao destino. No caso de telefonia e videoconferência, por exemplo, o atraso dos pacotes pode tornar a comunicação inaceitável. Para correio eletrônico e vídeo por demanda, o atraso dos pacotes já não é tão crítico. Se todos os pacotes estiverem uniformemente atrasados alguns segundos, não haverá nenhum dano. Essas aplicações, portanto, não são sensíveis ao retardo.
Flutuação (Jitter): refere-se a pacotes que chegam a intervalos de tempo irregulares entre eles. No login remoto, por exemplo, a alta flutuação faz com que os caracteres apareçam na tela em pequenas rajadas. Em outra situação, se o usuário estiver assistindo a um vídeo pela rede e os pacotes chegarem 500 segundos atrasados uniformemente (Retardo), não haverá nenhum dano. Porém, se os pacotes chegarem com alta flutuação, o resultado será desastroso. O mesmo acontece com áudio, onde a flutuação de até alguns milissegundos será bastante audível.