Tutoriels

▷ Qu'est-ce que la latence informatique et comment la mesurer

Table des matières:

Anonim

Certes, beaucoup de ceux qui ont une connexion Internet et ne savent pas encore ce qu'est la latence, ou plutôt le concept de latence. La latence est présente dans chacun des composants qui composent un système informatique, et pas seulement dans un réseau Internet. Aujourd'hui, nous allons essayer de définir ce qu'est la latence et sur quels appareils elle se trouve. Nous verrons également comment le mesurer en fonction des cas.

Index du contenu

En informatique, il existe un grand nombre de paramètres à prendre en compte lors de l'acquisition de certains composants. L'un d'eux est précisément la latence, bien que nous n'ayons pas de mesure explicite dans tous les cas, précisément parce qu'elle est connue et qu'elle peut être très similaire dans tous les appareils, par exemple sur les disques durs.

D'autre part, d'autres ont ces mesures, et elles sont également très importantes, par exemple, le routeur, dans certains cas, et en particulier la mémoire RAM. Sans plus tarder, voyons ce qu'est la latence et comment la mesurer sur notre ordinateur.

Latence, signification générale

Tout d'abord, nous devrons définir le concept de latence en termes génériques, car de cette manière, nous pouvons mieux imaginer où la latence peut exister.

La latence, en termes informatiques, peut être définie comme le temps qui s'écoule entre un ordre et la réponse qui se produit à cet ordre spécifique. Ainsi, comme nous pouvons le supposer, la latence est mesurée en unité de temps, en particulier en millisecondes ou microsecondes, car la seconde serait une mesure trop élevée pour être appliquée aux systèmes de micro-ordinateurs.

Avec la latence, nous mesurons le temps que nous attendons à partir du moment où nous donnons une commande jusqu'à ce que nous recevions la réponse que nous attendons, sous la forme d'informations sur un ordinateur ou en mouvement ou sonore dans la vie réelle.

Chaque élément informatique fonctionne grâce à des stimuli électriques, nous pouvons donc dire que c'est le temps qu'il faut pour effectuer toutes les commutations électriques et logiques nécessaires depuis le début de l'action à travers un périphérique, jusqu'à ce que l'ordinateur exécute l'action et montre les résultats.

Latence Internet

Lorsque nous parlons de latence dans l'informatique, la grande majorité du temps, nous faisons référence à la latence d'un réseau de connexion Internet. L'interconnexion entre les nœuds d'un réseau est basée sur l'interaction de signaux électriques, qui voyagent à travers un support, physique, tel que des câbles ou par air, sous forme d'ondes. De plus, il est nécessaire d'utiliser une série de protocoles qui nous permettent de rendre un média compatible avec un autre et d'établir, d'une certaine manière, un ordre dans les informations que nous envoyons et recevons.

La latence du réseau mesure la somme des défis qui se produisent depuis que nous demandons (ou envoyons) des informations et que le nœud distant nous répond. En d'autres termes, il mesure le temps nécessaire à un paquet de données pour se déplacer d'un endroit à un autre. Cette fois, bien sûr, est également mesurée en millisecondes. Si, par exemple, nous avons une latence de 30 millisecondes, cela signifie que, puisque nous avons envoyé une demande de notre navigateur, jusqu'à ce que le serveur la reçoive et nous réponde à son tour avec ce que nous voulons, un délai de 30 millisecondes s'est écoulé. Cela semble peu, mais parfois on le remarque beaucoup, on verra dans quelles situations.

Ce terme est également bien connu sous le nom de Lag, en particulier dans le monde des jeux vidéo, mais les deux termes expriment exactement la même chose.

Ce qui influence la latence

Cette mesure est l'une des plus importantes et que nous devons toujours prendre en compte dans notre connexion, en fonction du type d'applications que nous allons utiliser. Généralement, nous avons une série de facteurs qui influencent la latence:

La taille des paquets et les protocoles utilisés

Si le paquet de transmission est petit, il sera plus facile à transmettre et à voyager qu'un lourd, car il ne sera pas nécessaire de le diviser puis de le rejoindre. En ce sens, le matériel de l'équipement influence également, par conséquent, avec les routeurs ou les anciennes cartes réseau, plus de temps de traitement sera nécessaire pour exécuter une action. Cela est particulièrement critique sur les ordinateurs à faible capacité de traitement.

Il faut également tenir compte des protocoles de transmission des données. Ces protocoles nous permettent de garantir qu'un colis arrive en bon état et par la bonne route, d'un nœud à un autre, en introduisant des informations supplémentaires sur la façon dont il doit être traité, le type de chiffrement qu'il transporte et d'autres aspects importants pour son identification et son acheminement. Comme vous pouvez l'imaginer, l'extraction de toutes les informations contenues dans ces packages prendra également du temps, ce qui se traduit par une latence.

Il existe un grand nombre de protocoles de transmission dans les réseaux, mais les plus connus sont sans aucun doute TCP (Transmission Control Protocol) et IP (Internet Protocol) et leur combinaison. Ces protocoles sont utilisés pour diverses fonctions, principalement pour le routage correct des paquets (protocole IP) et pour le contrôle des erreurs et pour garantir que les informations arrivent correctement (protocole TCP).

Le support de transmission physique, la latence de la fibre optique

De la même manière, la transmission sur un support physique, dans la plupart des cas, sera plus rapide que le fait par le biais d'ondes, bien que la mise en œuvre des fréquences de 5 GHz ait fourni à ce type de réseaux une vitesse de transmission plus élevée.

Le support le plus rapide est actuellement, sans aucun doute, la fibre optique, car il n'introduit pratiquement pas de latence ou de retard dans la connexion. La transmission de données par impulsions photoélectriques est actuellement celle qui a la capacité la plus élevée, à la fois en bande passante et en vitesse de commutation.

Du nombre de commutations qui doivent se produire jusqu'à atteindre la destination.

Cela aura aussi beaucoup à voir avec les sauts que le colis doit faire avant d'atteindre la destination, ce n'est pas la même chose d'avoir un câble direct entre un nœud et un autre, que de passer par 200 nœuds différents jusqu'à son arrivée. Chacun perdra du temps alors qu'il est en charge de déplacer le colis d'une porte à une autre, nous devons garder à l'esprit qu'un colis n'arrive jamais directement à destination, avant de traverser une multitude de serveurs qui auront besoin de le traiter, et même d'ajouter des informations supplémentaires pour le transmettre. à destination. Et peut-être que cette destination est à Conchinchina et au-delà.

À ce stade, vous aurez remarqué que nous n'avons pas trop parlé de la bande passante d' une connexion, et c'est précisément ce que nous regardons le plus lors de l'embauche d'un fournisseur d'accès Internet.

Différence entre la bande passante et la latence Quand est-ce que chacun est important?

Lorsque nous parlons de la bande passante d'une connexion, nous faisons référence à la quantité d'informations que nous pouvons transmettre d'un point à un autre par unité de temps. Plus nous avons de bande passante, plus nous pouvons télécharger de packages simultanément. L'unité de mesure est celle des bits par seconde b / s, bien qu'actuellement la mesure soit presque toujours celle des mégabits par seconde (Mb / s). Si nous parlons en termes de stockage, ce seront des mégaoctets par seconde (Mo / s)un octet équivaut à 8 bits.

Si nous regardons, nous faisons une erreur, nous parlons de la vitesse d'Internet lorsque nous parlons de bande passante, et cela devrait être de la latence. Cependant, nous sommes tous habitués à cela, et nous n'avons aucun doute à ce sujet, nous allons donc parler de latence pour s'y référer et de vitesse pour se référer à la bande passante.

Maintenant, nous devons savoir quand nous devons envisager les deux mesures en fonction de l'utilisation de notre connexion.

Largeur de bande

Si nous voulons utiliser notre connexion pour télécharger du contenu situé statiquement sur un serveur (images, vidéos, jeux), la bande passante sera essentielle. Peu importe que la connexion prenne 10 secondes à établir, l'important est que le téléchargement du fichier prenne le moins de temps possible. Si un fichier occupe 1000 Mo et que nous avons une connexion de 100 Mo / s, il faudra 10 secondes pour le télécharger. Si nous avons une connexion à 200 Mo / s, cela prendra 5 secondes, c'est facile.

Latence

Il sera essentiel lorsque nous voulons utiliser notre connexion pour jouer du contenu en temps réel tel que le streaming ou pour jouer à des jeux en ligne massifs. Si nous le réalisons, dans ce cas, nous avons besoin que ce qui est transmis et reçu soit fait simultanément, sans gel d'image ni chargement de tampons. Lorsque nous jouons et voyons qu'un avatar de joueur apparaît comme par magie et disparaît et saute, cela signifie que lui ou nous avons un retard ou une latence élevée. Ce que nous voyons, même si cela se produit à ce moment-là, nous ne voyons que des bits sans continuité car le temps nécessaire pour envoyer les informations à notre équipe est beaucoup plus long que ce qui se passe réellement.

Si nous parlons de jeux de tir FPS et que nous avons une latence très élevée, nous ne saurons pas quand ils nous tuent, nous ne connaîtrons pas non plus la position exacte d'un adversaire. Bien sûr, la bande passante sera importante, mais la latence joue un rôle clé.

Comment mesurer la latence de notre connexion

Pour mesurer la latence de notre connexion, nous pouvons utiliser un outil implémenté dans Windows depuis sa création, appelé Ping. Pour l'utiliser, nous devrons ouvrir une fenêtre de commande, aller dans le menu Démarrer et taper " CMD ". Une fenêtre noire s'ouvrira où nous devons placer la commande suivante:

ping

Par exemple, si nous voulons voir la latence entre Professional Review et notre équipe, nous mettrons « ping www.Profesionalreview.com ».

Il faut regarder la partie " time = XXms ", ce sera notre latence. Voyons comment le type de connexion affecte la latence. Pour ce faire, nous allons voir la différence entre une connexion filaire et une connexion Wi-Fi à distance sur le même ordinateur en envoyant un ping à notre propre routeur.

On voit que, par câble, la latence est pratiquement nulle, moins de 1 milliseconde, alors que par Wi-Fi on introduit déjà de l'ordre de 7 millisecondes. C'est précisément pour cette raison que les joueurs veulent toujours utiliser une connexion physique à un Wi-Fi. Ces 7 ms se traduiront par des blocages d'images et de saccades si nous les ajoutons au propre décalage que la connexion à distance mettra.

Visitez notre tutoriel pour plus d'informations sur la commande ping et comment connaître l'IP externe

Eh bien, il sera devenu plus ou moins clair pour nous ce qu'est la latence sur Internet et comment nous devrions en tenir compte. Voyons maintenant où la latence apparaît le plus.

Latence en RAM

Ce sera sûrement la deuxième section la plus importante dans laquelle nous devons prendre en compte la latence d'un élément de notre équipement, ou du moins celui qui a gagné en renommée ces dernières années avec la RAM DDR3 et DDR4.

Dans le cas de la RAM, la définition est un peu différente de ce que nous avons compris dans les réseaux. Dans ce cas, un élément aussi important que les cycles d'horloge que notre processeur fonctionne (fréquence) entre en jeu. En tout cas, nous parlons toujours d'une mesure de TEMPS, et pas d'autre chose.

La latence réelle dans la RAM est appelée CAS ou CL, et n'est rien de plus que le nombre de cycles d'horloge qui s'écoulent depuis qu'une requête est effectuée par le CPU et que la RAM dispose des informations disponibles. Nous mesurons le temps entre la demande et la réponse.

Consultez cet article complet sur la latence de la RAM pour tout savoir.

Latence du disque dur

Un autre appareil où nous pouvons trouver des temps de latence d'une grande importance est dans les disques durs, en particulier ceux basés sur des éléments mécaniques. Dans ce cas, la latence est traduite en plusieurs termes différents et se concentre sur des fonctions spécifiques:

Temps d'accès

Fondamentalement, c'est le temps qu'il faut à l'unité de stockage pour être prête à transmettre les données. Un disque dur est composé de platines dans lesquelles les données sont physiquement enregistrées, à leur tour ces données doivent être lues par une tête mécanique qui se déplace perpendiculairement en balayant toute la surface du disque.

Le temps d'accès est le temps nécessaire au disque dur pour lire notre demande d'informations et localiser la tête mécanique exactement dans le cylindre et le secteur spécifique où ces informations doivent être lues. Simultanément, le disque dur tourne à grande vitesse, de sorte que la broche, une fois située dans le secteur, devra attendre que la piste l'atteigne. Ce n'est qu'à ce moment que les informations seront prêtes à être lues et transmises.

Le temps d'accès peut être divisé en plusieurs fonctions que nous avons décrites dans ces paragraphes:

Temps de recherche

C'est précisément le temps nécessaire à la mise en place de la tête sur le cylindre, le secteur et la piste qui contient les données. Ce temps de recherche peut varier entre 4 millisecondes pour les unités les plus rapides, jusqu'à 15 ms. Le plus courant pour les disques durs de bureau est de 9 ms.

Dans les disques SSD, il n'y a pas de pièces mécaniques, le temps de recherche est donc compris entre 0, 08 et 0, 16 ms. Beaucoup moins que les mécaniques.

Latence de rotation:

Ce concept mesure le temps nécessaire à la broche pour atteindre la piste de données en raison de la rotation du disque dur. Les disques durs tournent en permanence, donc pendant certains intervalles de temps, la tête rencontrera des pistes de données intermittentes. Plus le nombre de tours (tours) est élevé, plus les données sur une piste spécifique sont accessibles rapidement. Pour un disque dur moyen de 7 200 tr / min, nous obtiendrons une latence de 4, 17 ms.

Autres retards qui ajoutent de la latence

D'autres retards typiques de la transmission d'informations incluent le temps de traitement des commandes et le temps de stabilisation de la broche. Le premier sera le temps nécessaire au matériel pour lire, traiter et transmettre les données au bus, qui est généralement d'environ 0, 003 ms. La seconde est le temps nécessaire à la broche pour se stabiliser après le déplacement, en raison de sa mécanique, cela prendra un certain temps d'environ 0, 1 ms.

Ensuite, nous pouvons également ajouter d'autres temps au temps de transmission des données tels que les suivants:

  • Temps de secteur: temps nécessaire pour que le secteur du disque dur soit validé et localisé physiquement et logiquement. Temps de saut de tête: temps qui s'écoule entre le passage d'une tête à une autre pour lire les informations. Puisque nous devons garder à l'esprit que les disques durs ont deux têtes pour chaque plaque qu'ils ont. Elle est normalement en 1 et 2 ms. Temps de changement de cylindre: logiquement le temps qui s'écoule entre les changements d'un cylindre à l'autre. Ceci est généralement d' environ 2 ou 3 ms.

Qu'est-ce que cela signifie? Eh bien, un disque dur mécanique est sacrément lent par rapport à un SSD. C'est pourquoi les SSD augmentent considérablement les performances de n'importe quel ordinateur, même les plus anciens.

Latence des souris et des casques sans fil

Nous ne pouvons pas non plus oublier les souris sans fil dans le domaine de la latence. Nous avons déjà vérifié empiriquement que la latence dans un milieu radiofréquence augmente par rapport aux connexions physiques, et cela ne fait pas exception chez les souris sans fil.

Les souris sans fil fonctionnent principalement, dans une gamme de fréquence de 2, 4 GHz, on peut imaginer que c'est très rapide, surtout si le récepteur est proche, mais il n'aura pas une latence plus faible qu'une souris câble, même des modèles d'intérieur dans la gamme. C'est précisément pour cette raison que la plupart des souris de jeu ont une connectivité filaire et non-sans fil, à l'exception des modèles très haut de gamme à coût élevé.

Exactement la même chose se produit avec les écouteurs, cependant, dans ce cas spécifique, il s'agit du son, où nous avons déjà biologiquement une certaine latence pour réagir aux sons qui sont produits dans notre environnement. C'est pourquoi les avantages d'un casque sans fil (bon) et d'un casque filaire seront très similaires, à nos oreilles et à des fins d'utilisation. Il ne sera donc pas aussi important qu'une souris ou un autre composant.

Conclusion sur la latence dans notre ordinateur

Eh bien, ce sont les principales mesures de latence que nous devons prendre en compte dans nos équipements informatiques. Sans aucun doute, le plus important de tous sera sûrement celui de la connexion Internet, car c'est celui que nous remarquerons le plus dans notre utilisation quotidienne du réseau, surtout si nous nous consacrons à jouer en ligne. Et aussi bien sûr celui d'un disque dur si notre système est installé sur un disque mécanique.

Dans tous les autres cas, nous ne pouvons pratiquement pas faire grand-chose pour améliorer les performances des composants, car c'est une caractéristique inhérente à ceux - ci, en particulier les disques durs. Si nous avons acheté un SSD provenant de l'utilisation d'un disque dur, nous remarquerons sûrement que la différence de performance est épouvantable.

Dans le cas de la RAM, si vous avez vu notre article qui lui est spécialement dédié, vous saurez comment nous pouvons le mesurer, mais il n'y a pas grand-chose que nous puissions faire pour l'améliorer, en fait, il est pratiquement imperceptible pour nous, compte tenu des hautes fréquences auxquelles modules et tout le travail de la carte mère. De plus, cette carence est compensée par la fréquence élevée de ceux qui travaillent.

La latence est quelque chose qui fera absolument toujours partie de l'architecture d'un ordinateur ou de tout autre élément. Il y aura toujours un laps de temps entre une requête et une exécution quel que soit le support utilisé et l'élément connecté. Nous-mêmes et nos stimuli sont la plus grande source de LAG ou de latence.

Nous recommandons également:

Pensez-vous que la latence est vraiment importante sur un ordinateur ou un réseau? Laissez-nous des commentaires sur votre opinion à ce sujet. Pouvez-vous penser à un autre composant dans lequel la latence devrait être prise en compte?

Tutoriels

Le choix des éditeurs

Back to top button