Matériel

Nvidia aggrave la qualité d'un moniteur sdr par rapport à un hdr

Table des matières:

Anonim

Afin de démontrer à quel point la prise en charge HDR (High Dynamic Range) est importante pour la qualité d'image des futurs moniteurs et téléviseurs, NVIDIA a décidé d'installer son propre stand au Computex 2017 pour présenter la différence entre les images SDR (Range). Dynamic Standard) et HDR.

Computex 2017: NVIDIA modifie les paramètres d'usine d'un moniteur SDR pour mettre en évidence la qualité d'image des moniteurs HDR

Cependant, il semble que la société soit allée plus loin dans sa tentative de mettre en évidence l'incroyable qualité d'image HDR et, à cette fin, a décidé de modifier les paramètres d'image du moniteur SDR pour l'aggraver.

Cette constatation a été faite par la chaîne YouTube Hardware Canucks, où ils affirment avoir eu accès aux paramètres du moniteur que NVIDIA a utilisés pour exécuter la démo. La société aurait modifié les paramètres par défaut du moniteur standard pour réduire la luminosité, le contraste et même les valeurs gamma, ce qui a considérablement affecté la qualité de l'image.

La réinitialisation des paramètres du moniteur SDR aux paramètres d'usine a entraîné moins d'images floues et plus claires par rapport au moniteur HDR, donc NVIDIA a délibérément essayé de réduire la qualité d'image de l'effet SDR dans sa présentation.

D'autre part, il faut reconnaître que la perception des différences entre les effets SDR et HDR dépend plutôt de chacun, car tout le monde n'observe pas la même augmentation de la qualité de l'image. Cependant, en modifiant et en aggravant les paramètres de luminosité, de contraste et de gamma fournis par défaut, c'est un signe clair que NVIDIA a fait trop d'efforts pour présenter la puissance du HDR.

Source: Techpowerup

Matériel

Le choix des éditeurs

Back to top button