Nvidia g
Table des matières:
- Tout sur la technologie Nvidia G-Sync HDR
- Les difficultés de mise en œuvre de G-Sync HDR et son coût élevé
- Nvidia G-Sync HDR améliore l'expérience de jeu
Les technologies 4K, G-Sync et HDR ont révolutionné la façon dont nous jouons avec nos PC, bien que nous, les utilisateurs, ayons une épine coincée depuis un certain temps, car il n'était pas possible de trouver un moniteur combinant toutes ces technologies dans un seul produit. Quelque chose qui a finalement changé grâce à la technologie G-Sync HDR et Nvidia, c'est la dernière technologie pour les moniteurs du géant de la carte graphique, qui place l'expérience de jeu au niveau dont nous avons toujours rêvé.
Index du contenu
Tout sur la technologie Nvidia G-Sync HDR
Jusqu'à l'arrivée de G-Sync HDR, les utilisateurs devaient faire face à une décision difficile lors de l'achat d'un nouveau moniteur à jouer, car il n'était pas possible de se procurer une unité dotée d'un panneau de haute qualité à une résolution 4K et d'une grande fluidité. jeu fourni par G-Sync. G-Sync HDR est né pour mettre fin à ce problème, car pour la première fois, nous pouvons acquérir un moniteur avec un panneau 4K de la meilleure qualité, un support pour HDR et avec la technologie G-Sync.
Nvidia G-Sync est né dans le but de résoudre l' un des gros problèmes du jeu sur PC, l' incapacité des cartes graphiques à conserver un certain nombre d'images par seconde, qui correspond au taux de rafraîchissement du moniteur. Ce problème entraîne la désynchronisation de la carte graphique et du moniteur, ce qui entraîne des défauts d'image connus sous le nom de Stutter (micro bégaiements) et de déchirure (coupures dans l'image).
Nous vous recommandons de lire notre article sur Comment choisir un moniteur gamer?
G-Sync est une technologie chargée d'ajuster le taux de rafraîchissement du moniteur au nombre d'images par seconde que la carte graphique lui envoie, réalisant ainsi une synchronisation parfaite. Il en résulte une expérience de jeu très fluide, sans bégaiement ni coupure d'image. L'étape suivante consistait à ajouter du HDR pour obtenir l'expérience ultime.
Les difficultés de mise en œuvre de G-Sync HDR et son coût élevé
Il n'a pas été facile de créer cette technologie HDR G-Sync, car pour la rendre possible, il fallait recourir à Intel et à l'un de ses FPGA. Plus précisément, un processeur Intel Altera Arria 10 GX 480 est utilisé, un processeur hautement avancé et hautement programmable qui peut être codé pour une large gamme d'applications. Cet Intel Altera Arria 10 GX 480 est accompagné de 3 Go de mémoire DDR4 2400 MHz fabriqués par Micron, un composant actuellement très cher. Tout cela signifie que la mise en œuvre de G-Sync HDR n'est pas du tout bon marché, car on estime qu'il ajoute environ un coût supplémentaire de 500 $ au même moniteur, mais sans cette technologie.
Une autre difficulté dans la mise en œuvre de G-Sync HDR est liée à la limitation de la bande passante des spécifications DisplayPort 1.4 et HDMI 2.0b. Une image 4K 144 Hz avec HDR et G-Sync génère un volume d'informations qui dépasse la capacité de ces normes, et ce sont les plus avancées qui existent. Pour résoudre ce problème, il a été nécessaire de réduire le sous-échantillonnage Chroma de 4: 4: 4 à 4: 2: 2. Cela se traduit par une légère perte de fidélité des couleurs, bien que les fabricants assurent qu'elle est minimale et que les avantages l'emportent largement sur ce petit inconvénient. Si nous ne voulons pas subir cette perte de sous-échantillonnage de Chroma, nous devons nous contenter d'un taux de rafraîchissement de 120 Hz.
Nvidia G-Sync HDR améliore l'expérience de jeu
Nvidia a travaillé dur avec les principaux fabricants de moniteurs pour optimiser au maximum cette technologie, avec cela nous aurons la garantie que la qualité d'image qui nous est offerte est le maximum possible avec la technologie actuelle. Cette perte de sous-échantillonnage Chroma sera éliminée lorsque nous disposerons des nouvelles spécifications HDMI 2.1 et DisplayPort 5.
Nous vous recommandons de lire notre article sur Asus ROG Swift PG27UQ Review en espagnol (analyse complète)
Un autre gros inconvénient est la puissance nécessaire pour déplacer les principaux jeux en 4K et 144 Hz, il n'y a tout simplement pas de carte graphique qui puisse le faire. Cela crée une situation où il est nécessaire de recourir à des configurations SLI, c'est-à-dire de regrouper plusieurs cartes sur le même PC. Les configurations SLI sont chères, surtout si l'on s'appuie sur les cartes graphiques les plus puissantes comme la Nvidia GeForce GTX 1080 Ti, dont le prix est de près de 800 euros. L'autre problème de l'assemblage de deux cartes est la grande quantité de chaleur qui est générée, ce qui rend nécessaire d'avoir un grand système de refroidissement dans le PC. Nous avons déjà une idée du coût de l'utilisation de G-Sync HDR.
L'autre difficulté majeure a été la mise en œuvre du HDR sur ces moniteurs, généralement de 32 pouces maximum. Nous parlons ici d'une véritable expérience HDR, qui nécessite une luminosité d'au moins 1000 nits, pour laquelle il a été nécessaire d'installer 384 zones d'éclairage sur le moniteur, ce qui offre un contraste ANSI exceptionnellement élevé. L'implémentation d'un si grand nombre de zones d'éclairage sur un écran de 32 pouces n'est pas facile lorsque vous souhaitez obtenir le meilleur résultat possible.
Ici se termine notre article sur G-Sync HDR: ce que c'est et à quoi il sert. Si vous avez des questions, vous pouvez nous laisser un commentaire ci-dessous ou vous avez besoin de connaître l'opinion et l'expérience d'une très bonne communauté de matériel, vous pouvez vous inscrire gratuitement sur notre forum spécialisé sur le matériel. Nous voulons connaître votre opinion!
NVIDIA JETSON TX1, NVIDIA rejoint l'intelligence artificielle
Nvidia rejoint le secteur de l'intelligence artificielle et présente sa carte Nvidia Jetson TX1 avec de grandes possibilités en robotique
▷ Nvidia gtx vs nvidia quadro vs nvidia rtx
Vous ne savez pas quelle carte graphique choisir. Avec la comparaison Nvidia GTX vs Nvidia Quadro vs Nvidia RTX ✅ vous aurez des détails, des caractéristiques et des utilisations
Nvidia rtx 2060 contre nvidia gtx 1060 contre nvidia gtx 1070 contre gtx 1080
Nous avons fait la première comparaison de Nvidia RTX 2060 vs Nvidia GTX 1060 vs Nvidia GTX 1070 vs GTX 1080, performances, prix et caractéristiques