Android

Carte graphique - tout ce que vous devez savoir

Table des matières:

Anonim

À l'ère des ordinateurs de jeu, la carte graphique a gagné autant ou presque plus d'importance que le CPU. En fait, de nombreux utilisateurs évitent d'acheter des processeurs puissants pour investir de l'argent dans cet élément important qui est responsable du traitement de tout ce qui concerne les textures et les graphiques. Mais que savez-vous de ce matériel? Eh bien ici, nous expliquons tout, ou quelque chose de moins tout ce que nous considérons comme le plus important.

Index du contenu

La carte graphique et l'ère du jeu

Sans aucun doute, le terme le plus utilisé pour nommer les GPU est celui d' une carte graphique, bien qu'il ne soit pas exactement le même et nous allons l'expliquer. Un GPU ou Graphics Processing Unit est essentiellement un processeur conçu pour gérer les graphiques. Le terme semble évidemment très similaire à CPU, il est donc important de différencier les deux éléments.

Lorsque nous parlons d'une carte graphique, nous parlons vraiment du composant physique. Celui-ci est construit à partir d'un PCB indépendant de la carte mère et doté d'un connecteur, normalement PCI-Express, avec lequel il sera connecté à la carte mère elle-même. Sur ce PCB, nous avons installé le GPU, ainsi que la mémoire graphique ou VRAM avec des composants tels que VRM, les ports de connexion et le dissipateur thermique avec ses ventilateurs.

Le jeu n'existerait pas sans les cartes graphiques, surtout si nous parlons d'ordinateurs ou de PC. Au début, tout le monde saura que les ordinateurs n'avaient pas d'interface graphique, nous n'avions qu'un écran noir avec une invite à entrer des commandes. Ces fonctions de base sont loin d'être à l'ère du jeu, dans lesquelles nous avons des équipements avec une interface graphique parfaite et dans d'énormes résolutions qui nous permettent de gérer les environnements et les personnages presque comme si c'était la vraie vie.

Pourquoi séparer le GPU et le CPU

Pour parler de cartes graphiques propriétaires, nous devons d'abord savoir ce qu'elles nous apportent et pourquoi elles sont si importantes aujourd'hui. Aujourd'hui, nous ne pouvions pas concevoir un ordinateur de jeu sans CPU et GPU physiquement séparés.

Que fait le CPU

Ici, nous l'avons assez simple, car nous pouvons tous avoir une idée de ce que fait le microprocesseur dans un ordinateur. C'est l'unité centrale de traitement, à travers laquelle passent toutes les instructions générées par les programmes et une grande partie de celles envoyées par les périphériques et l'utilisateur lui-même. Les programmes sont formés par une succession d'instructions qui seront exécutées pour générer une réponse basée sur un stimulus d'entrée, il peut s'agir d'un simple clic, d'une commande ou du système d'exploitation lui-même.

Vient maintenant un détail dont nous devons nous souvenir lorsque nous voyons ce qu'est le GPU. Le CPU est composé de cœurs, et d'une grande taille, on peut dire. Chacun d'eux est capable d'exécuter une instruction après l'autre, plus il y a de cœurs, car plus d'instructions peuvent être exécutées en même temps. Il existe de nombreux types de programmes sur un PC et de nombreux types d'instructions très complexes et divisés en plusieurs étapes. Mais la vérité est qu'un programme ne génère pas un grand nombre de ces instructions en parallèle. Comment pouvons-nous nous assurer que le CPU «comprend» tout programme que nous installons? Nous avons besoin de peu de noyaux, très complexes, et qui sont très rapides pour exécuter les instructions rapidement, nous remarquerons donc que le programme est fluide et répond à ce que nous lui demandons.

Ces instructions de base sont réduites à des opérations mathématiques avec des nombres entiers, des opérations logiques et également quelques opérations à virgule flottante. Ces derniers sont les plus compliqués car ce sont de très grands nombres réels qui doivent être représentés dans des éléments plus compacts en utilisant la notation scientifique. Le processeur est pris en charge par la RAM, un stockage rapide qui enregistre les programmes en cours d'exécution et leurs instructions pour les envoyer sur un bus 64 bits vers le processeur.

Et que fait le GPU

Précisément, le GPU est étroitement lié à ces opérations en virgule flottante dont nous avons parlé précédemment. En fait, un processeur graphique passe pratiquement tout son temps à effectuer ce type d'opérations, car elles ont beaucoup à voir avec les instructions graphiques. Pour cette raison, il est souvent appelé coprocesseur mathématique, en fait il y en a un dans le CPU, mais beaucoup plus simple que le GPU.

De quoi est fait un jeu? Eh bien, fondamentalement, le mouvement des pixels grâce à un moteur graphique. Ce n'est rien de plus qu'un programme axé sur l'émulation d'un environnement ou d'un monde numérique dans lequel nous évoluons comme s'il était le nôtre. Dans ces programmes, la plupart des instructions concernent les pixels et leur mouvement pour former des textures. À leur tour, ces textures ont des couleurs, un volume 3D et des propriétés physiques de réflexion de la lumière. Il s'agit essentiellement d'opérations en virgule flottante avec des matrices et des géométries qui doivent être effectuées simultanément.

Par conséquent, un GPU n'a pas 4 ou 6 cœurs, mais des milliers d'entre eux, pour effectuer toutes ces opérations spécifiques en parallèle encore et encore. Bien sûr, ces cœurs ne sont pas aussi «intelligents» que les cœurs de processeur, mais ils peuvent effectuer beaucoup plus d'opérations de ce type à la fois. Le GPU possède également sa propre mémoire, GRAM, qui est beaucoup plus rapide que la RAM normale. Il a un bus beaucoup plus grand, entre 128 et 256 bits pour envoyer beaucoup plus d'instructions au GPU.

Dans la vidéo que nous vous laissons liée, les chasseurs de mythes émulent le fonctionnement d'un CPU et d'un GPU et en termes de nombre de cœurs lorsqu'il s'agit de peindre une image.

youtu.be/-P28LKWTzrI

Ce que le CPU et le GPU font ensemble

À ce stade, vous avez peut-être déjà pensé que dans les ordinateurs de jeu, le processeur influence également les performances finales du jeu et de ses FPS. De toute évidence, et il existe de nombreuses instructions qui sont de la responsabilité du CPU.

Le CPU est responsable de l'envoi des données sous forme de sommets au GPU, afin qu'il "comprenne" quelles transformations physiques (mouvements) il doit faire aux textures. C'est ce qu'on appelle le Vertex Shader ou physique du mouvement. Après cela, le GPU obtient des informations sur lequel de ces sommets sera visible, ce qui rend le soi-disant écrêtage de pixels par tramage. Lorsque nous connaissons déjà la forme et son mouvement, il est temps d'appliquer les textures, en Full HD, UHD ou toute résolution, et leurs effets correspondants, ce serait le processus Pixel Shader.

Pour cette même raison, plus le processeur dispose de puissance, plus il peut envoyer d'instructions de sommet au GPU et mieux il le verrouille. La principale différence entre ces deux éléments réside donc dans le niveau de spécialisation et le degré de parallélisme dans le traitement du GPU.

Qu'est-ce qu'un APU?

Nous avons déjà vu ce qu'est un GPU et sa fonction dans un PC, et la relation avec le processeur. Mais ce n'est pas le seul élément existant capable de gérer des graphiques 3D, et c'est pourquoi nous avons l' APU ou Accelerated Processor Unit.

Ce terme a été inventé par AMD pour nommer ses processeurs avec un GPU intégré dans le même package. En effet, cela signifie qu'au sein du processeur lui-même, nous avons une puce ou mieux, un chipset composé de plusieurs cœurs qui est capable de travailler avec des graphiques 3D de la même manière qu'une carte graphique. En fait, de nombreux processeurs d'aujourd'hui ont en eux-mêmes ce type de processeur, appelé IGP (Integrated Graphics Processor).

Mais bien sûr, a priori on ne peut pas comparer les performances d'une carte graphique avec des milliers de cœurs internes avec un IGP intégré au sein même du CPU. Sa capacité de traitement est donc encore beaucoup plus faible, en termes de puissance brute. À cela, nous ajoutons le fait de ne pas avoir de mémoire dédiée aussi rapide que le GDDR des cartes graphiques, suffisant avec une partie de la mémoire RAM pour sa gestion graphique.

Nous appelons des cartes graphiques indépendantes des cartes graphiques dédiées, tandis que nous appelons des cartes graphiques internes IGP. Les processeurs Intel Core ix ont presque tous un GPU intégré appelé Intel HD / UHD Graphics, à l'exception des modèles avec le "F" à la fin. AMD fait de même avec certains de ses processeurs, en particulier le Ryzen de la série G et l'Athlon, avec des graphismes appelés Radeon RX Vega 11 et Radeon Vega 8.

Un peu d'histoire

Les anciens ordinateurs en texte seul sont loin, mais si quelque chose a été présent à tous les âges, c'est le désir de créer des mondes virtuels de plus en plus détaillés pour nous immerger à l'intérieur.

Dans le premier équipement grand public avec Intel 4004, 8008 et processeurs d'entreprise, nous avions déjà des cartes graphiques, ou quelque chose de similaire. Celles-ci se limitaient à interpréter le code et à l'afficher sur un écran sous forme de texte brut d'environ 40 ou 80 colonnes, et bien sûr en monochrome. En fait, la première carte graphique s'appelait MDA (Monocrome Data Adapter). Il avait sa propre RAM de pas moins de 4 Ko, pour rendre des graphiques parfaits sous forme de texte brut à 80 × 25 colonnes.

Après cela est venu les cartes graphiques CGA (Color Graphics Adapter), en 1981 IBM a commencé à commercialiser la première carte graphique couleur. Il était capable de rendre 4 couleurs simultanément à partir d'une palette interne de 16 à une résolution de 320 × 200. En mode texte, il a pu augmenter la résolution à 80 × 25 colonnes ou ce qui est égal à 640 × 200.

On continue d'avancer, avec la carte graphique HGC ou Hercules, le nom promet! Une carte monochrome qui a élevé la résolution à 720 × 348 et qui était capable de travailler avec un CGA pour avoir jusqu'à deux sorties vidéo différentes.

Le saut aux cartes avec des graphismes riches

Ou plutôt EGA, Enharced Graphics Adapter qui a été créé en 1984. C'était la première carte graphique elle - même, capable de fonctionner avec 16 couleurs et résolutions jusqu'à 720 × 540 pour les modèles ATI Technologies, cela vous semble-t-il familier, non?

En 1987, une nouvelle résolution est produite, et le connecteur vidéo ISA est abandonné pour adopter le port VGA (Video Graphics Array), également appelé Sub15-D, un port série analogique qui était utilisé jusqu'à récemment pour les CRT et même les panneaux TFT. Les nouvelles cartes graphiques ont augmenté sa palette de couleurs à 256 et sa mémoire VRAM à 256 Ko. À cette époque, les jeux informatiques ont commencé à se développer avec beaucoup plus de complexité.

C'était en 1989 lorsque les cartes graphiques ont cessé d'utiliser des palettes de couleurs et ont commencé à utiliser la profondeur de couleur. Avec la norme VESA comme connexion à la carte mère, le bus a été étendu à 32 bits, ils étaient donc déjà en mesure de travailler avec plusieurs millions de couleurs et résolutions jusqu'à 1024x768p grâce aux moniteurs avec le port SuperVGA. Des cartes aussi emblématiques que l' ATI Match 32 ou Match 64 avec une interface 64 bits étaient parmi les meilleures de l'époque.

Le slot PCI arrive et avec lui la révolution

Le standard VESA était un enfer d'un gros bus, donc en 1993 il a évolué vers le standard PCI, celui que nous avons aujourd'hui avec ses différentes générations. Cela nous a permis de petites cartes, et de nombreux fabricants ont rejoint le parti tels que Creative, Matrox, 3dfx avec leurs Voodoo et Voodoo 2, et un Nvidia avec ses premiers modèles RIVA TNT et TNT2 sortis en 1998. À cette époque, les premières bibliothèques spécifiques pour l'accélération 3D sont apparues, telles que DirectX de Microsoft et OpenGL de Silicon Graphics.

Bientôt, le bus PCI est devenu trop petit, avec des cartes capables d'adresser des graphiques 16 bits et 3D à une résolution de 800x600p, donc le bus AGP (Advanced Graphics Port) a été créé. Ce bus avait une interface de type PCI 32 bits mais augmentait son bus de 8 canaux supplémentaires pour communiquer plus rapidement avec la RAM. Son bus fonctionnait à 66 MHz et 256 Mbps de bande passante, avec jusqu'à 8 versions (AGP x8) atteignant jusqu'à 2, 1 Go / s, et qui en 2004 serait remplacé par le bus PCIe.

Ici, nous avons déjà très bien établi les deux grandes sociétés de cartes graphiques 3D telles que Nvidia et ATI. L'une des premières cartes qui a marqué la nouvelle ère a été la Nvidia GeForce 256, mettant en œuvre la technologie T&L (calculs d'éclairage et de géométrie). Se classant ensuite au-dessus de ses rivaux pour être le premier accélérateur graphique polygonal 3D et compatible Direct3D. Peu de temps après, ATI sortira sa première Radeon, façonnant ainsi les noms des deux fabricants pour ses cartes graphiques de jeu qui durent jusqu'à aujourd'hui, même après l'achat d'ATI par AMD.

Le bus PCI Express et les cartes graphiques actuelles

Et enfin, nous arrivons à l'ère actuelle des cartes graphiques, quand en 2004 l'interface VGA ne fonctionnait plus et a été remplacée par PCI-Express. Ce nouveau bus a permis des transferts jusqu'à 4 Go / s à la fois vers le haut et vers le bas simultanément (250 Mo x 16 voies). Initialement, il serait connecté au pont nord de la carte mère et utiliserait une partie de la RAM pour la vidéo, sous le nom de TurboCaché ou HyperMemory. Mais plus tard avec l'incorporation du pont nord dans le CPU lui-même, ces 16 voies PCIe entreraient en communication directe avec le CPU.

L'ère d' ATI Radeon HD et de Nvidia GeForce a commencé, devenant les principaux représentants des cartes graphiques de jeu pour ordinateurs sur le marché. Nvidia allait bientôt prendre les devants avec une GeForce 6800 prenant en charge DirectX 9.0c contre une ATI Radeon X850 Pro un peu en retrait. Après cela, les deux marques ont continué à développer l' architecture de shader unifiée avec leur Radeon HD 2000 et leur série GeForce 8. En fait, la puissante Nvidia GeForce 8800 GTX était l'une des cartes les plus puissantes de sa génération, et même celles qui l'ont suivie, étant le saut définitif de Nvidia vers la suprématie. En 2006, c'est quand AMD a acheté ATI et leurs cartes ont été renommées AMD Radeon.

Enfin, nous nous tenons sur des cartes compatibles avec les bibliothèques DirectX 12, Open GL 4.5 / 4.6, la première étant la Nvidia GTX 680 et l' AMD Radeon HD 7000. Les générations successives sont venues des deux fabricants, dans le cas de Nvidia, nous avons les architectures Maxwell (GeForce 900), Pascal (GeForce 10) et Turing (Geforce 20), tandis qu'AMD a les Polaris (Radeon RX), GCN (Radeon Vega) et maintenant le RDNA (Radeon RX 5000).

Pièces et matériel d'une carte graphique

Nous allons voir les principales parties d'une carte graphique afin d'identifier quels éléments et technologies nous devons connaître lors de son achat. Bien sûr, la technologie progresse beaucoup et nous mettrons progressivement à jour ce que nous voyons ici.

Chipset ou GPU

Nous savons déjà très bien quelle est la fonction du processeur graphique d'une carte, mais il sera important de savoir ce que nous avons à l'intérieur. C'est le cœur de celui - ci, et à l'intérieur, nous trouvons un grand nombre de cœurs chargés d'exécuter différentes fonctions, en particulier dans l'architecture actuellement utilisée par Nvidia. À l'intérieur, nous trouvons les cœurs respectifs et la mémoire cache associée à la puce, qui a normalement L1 et L2.

À l'intérieur d'un GPU Nvidia, nous trouvons les cœurs CUDA ou CUDA, qui sont, pour ainsi dire, chargés d'effectuer les calculs généraux en virgule flottante. Ces cœurs des cartes AMD sont appelés processeurs de flux. Le même nombre sur des cartes de différents fabricants ne signifie pas la même capacité, car celles-ci dépendront de l'architecture.

En outre, Nvidia propose également des cœurs Tensor et des cœurs RT. Ces cœurs sont destinés au processeur avec des instructions plus complexes sur le lancer de rayons en temps réel, l'une des capacités les plus importantes de la carte de nouvelle génération du fabricant.

Mémoire GRAM

La mémoire GRAM remplit pratiquement la même fonction que la mémoire RAM de notre ordinateur, stockant les textures et les éléments qui vont être traités dans le GPU. De plus, on retrouve de très grandes capacités, avec plus de 6 Go actuellement dans presque toutes les cartes graphiques haut de gamme.

Il s'agit d'une mémoire de type DDR, tout comme la RAM, donc sa fréquence effective sera toujours le double de la fréquence d'horloge, quelque chose à garder à l'esprit en ce qui concerne l'overclocking et les données de spécification. Actuellement, la plupart des cartes utilisent la technologie GDDR6, si comme vous l'entendez, DDR6, tandis que dans la RAM normale, elles sont DDR4. Ces mémoires sont beaucoup plus rapides que la DDR4, atteignant efficacement des fréquences allant jusqu'à 14 000 MHz (14 Gbit / s) avec une horloge à 7 000 MHz. De plus, leur largeur de bus est beaucoup plus grande, atteignant parfois 384 bits sur Nvidia haut de gamme.

Mais il y a encore une deuxième mémoire qu'AMD a utilisée pour sa Radeon VII, dans le cas du HBM2. Cette mémoire n'a pas des vitesses aussi élevées que GDDR6, mais nous offre à la place une largeur de bus brutale pouvant atteindre 2048 bits.

VRM et TDP

Le VRM est l'élément en charge de l' alimentation de tous les composants de la carte graphique, notamment le GPU et sa mémoire GRAM. Il se compose des mêmes éléments que le VRM d'une carte mère, avec ses MOSFETS jouant le rôle de redresseurs de courant DC-DC, ses selfs et ses condensateurs. De même, ces phases sont divisées en V_core et V-SoC, pour le GPU et la mémoire.

Du côté TDP, cela signifie également exactement la même chose que sur un CPU. Il ne s'agit pas de la puissance consommée par le processeur, mais de la puissance sous forme de chaleur qu'il génère en charge maximale de travail.

Pour alimenter la carte, nous avons besoin d'un connecteur d'alimentation. Actuellement, des configurations à 6 + 2 broches sont utilisées pour les cartes, car l'emplacement PCIe lui-même n'est capable de fournir qu'un maximum de 75 W, tandis qu'un GPU peut consommer plus de 200 W.

Interface de connexion

L'interface de connexion est le moyen de connecter la carte graphique à la carte mère. Actuellement, absolument toutes les cartes graphiques dédiées fonctionnent via le bus PCI-Express 3.0, à l'exception des nouvelles cartes AMD Radeon XR 5000, qui ont été mises à niveau vers le bus PCIe 4.0.

Pour des raisons pratiques, nous ne remarquerons aucune différence, car la quantité de données actuellement échangées sur ce bus de 16 lignes est bien inférieure à sa capacité. Par curiosité, PCIe 3.0 x16 est capable de supporter simultanément 15, 8 Go / s de haut en bas, tandis que PCIe 4.0 x16 double la capacité à 31, 5 Go / s. Bientôt, tous les GPU seront PCIe 4.0, c'est évident. Nous n'avons pas à nous soucier d'avoir une carte PCIe 4.0 et une carte 3.0, car la norme offre toujours une compatibilité descendante.

Ports vidéo

Enfin, nous avons les connecteurs vidéo, ceux dont nous avons besoin pour connecter notre ou nos moniteurs et obtenir l'image. Dans le marché actuel, nous avons quatre types de connexion vidéo:

  • HDMI: L'interface multimédia haute définition est une norme de communication pour les appareils multimédias d'image et de son non compressés. La version HDMI influencera la capacité d'image que nous pouvons obtenir de la carte graphique. La dernière version est HDMI 2.1, qui offre une résolution maximale de 10K, jouant 4K à 120Hz et 8K à 60Hz. Alors que la version 2.0 offre 4K @ 60Hz en 8 bits. DisplayPort: c'est aussi une interface série avec son et image non compressés. Comme auparavant, la version de ce port sera très importante, et nous aurons besoin qu'elle soit au moins 1.4, car cette version prend en charge la lecture de contenu en 8K à 60 Hz et en 4K à 120 Hz avec pas moins de 30 bits. et en HDR. Sans aucun doute le meilleur de tous aujourd'hui. USB-C: l'USB Type-C atteint de plus en plus d'appareils, en raison de sa vitesse élevée et de son intégration avec des interfaces telles que DisplayPort et Thunderbolt 3 à 40 Gbps. Cet USB a un mode alternatif DisplayPort, étant le DisplayPort 1.3, avec un support pour afficher des images en résolution 4K à 60 Hz. De même, Thunderbolt 3 est capable de lire du contenu en UHD dans les mêmes conditions. DVI: c'est un connecteur peu probable de le trouver dans les moniteurs actuels, étant l'évolution du VGA vers un signal numérique haute définition. Si nous pouvons l'éviter, mieux que mieux, le plus répandu étant le DVI-DL.

Quelle est la puissance d'une carte graphique

Pour faire référence à la puissance d'une carte graphique, il est nécessaire de connaître certains concepts qui apparaissent généralement dans ses spécifications et ses benchmarks. Ce sera le meilleur moyen de connaître en profondeur la carte graphique que nous voulons acheter et aussi de la comparer avec la concurrence.

Taux FPS

Le FPS est le Framerate ou Frames per Second. Il mesure la fréquence à laquelle l'écran affiche les images d'une vidéo, d'un jeu ou de ce qui y est représenté. Le FPS a beaucoup à voir avec la façon dont nous percevons le mouvement dans une image. Plus il y a de FPS, plus la sensation de fluidité d'une image nous donnera. À un taux de 60 FPS ou plus, l'œil humain dans des conditions normales appréciera une image entièrement fluide, qui simulerait la réalité.

Mais bien sûr, tout ne dépend pas de la carte graphique, car le taux de rafraîchissement de l'écran marquera le FPS que nous verrons. Le FPS est le même que le Hz, et si un écran est à 50 Hz, le jeu sera visualisé à 60 FPS maximum, même si le GPU est capable de le jouer à 100 ou 200 FPS. Pour savoir quel serait le taux de FPS maximum que le GPU pourrait représenter, nous devons désactiver la synchronisation verticale dans les options de jeu.

Architecture de votre GPU

Avant, nous avons vu que les GPU ont un certain nombre de cœurs physiques, ce qui pourrait nous faire penser que plus nous aurons de meilleures performances. Mais ce n'est pas exactement le cas, car, comme avec l'architecture du processeur, les performances varieront même avec la même vitesse et les mêmes cœurs. Nous appelons cela IPC ou Instructions Per Cycle.

L'architecture des cartes graphiques a évolué au fil du temps pour avoir des performances tout simplement spectaculaires. Ils sont capables de prendre en charge des résolutions 4K supérieures à 60 Hz ou même des résolutions 8K. Mais le plus important, c'est sa grande capacité à animer et à restituer des textures avec de la lumière en temps réel, tout comme nos yeux le font dans la vraie vie.

Actuellement, nous avons le Nvidia avec son architecture Turing, utilisant des transistors FinFET 12 nm pour construire les chipsets du nouveau RTX. Cette architecture comporte deux éléments différentiels qui n'existaient pas jusqu'à présent dans les équipements grand public, la capacité de Ray Tracing en temps réel et le DLSS (Deep Learning Super Sampling). La première fonction tente de simuler ce qui se passe dans le monde réel, en calculant comment la lumière affecte les objets virtuels en temps réel. Le second, c'est une série d'algorithmes d'intelligence artificielle avec lesquels la carte rend les textures à une résolution inférieure pour optimiser les performances du jeu, c'est comme une sorte d'antialiasing. L'idéal est de combiner DLSS et Ray Tracing.

Par AMD, il a également publié une architecture, bien qu'il soit vrai qu'elle coexiste avec les précédentes immédiatement pour avoir une large gamme de cartes qui, bien que cela soit vrai, ne sont pas au niveau de la gamme haut de gamme de Nvidia. Avec RDNA, AMD a augmenté l'IPC de ses GPU de 25% par rapport à l'architecture CNG, atteignant ainsi 50% de vitesse en plus pour chaque watt consommé.

Fréquence d'horloge et mode turbo

Parallèlement à l'architecture, deux paramètres sont très importants pour voir les performances d'un GPU, qui sont ceux de sa fréquence d'horloge de base et l'augmentation du mode turbo ou overclocking d'usine. Comme pour les processeurs, les GPU sont également capables de faire varier leur fréquence de traitement graphique selon les besoins à tout moment.

Si vous regardez, les fréquences des cartes graphiques sont bien inférieures à celles des processeurs, se situant autour de 1600-2000 MHz. En effet, le plus grand nombre de cœurs fournit le besoin d'une fréquence plus élevée, afin de contrôler le TDP de la carte.

À ce stade, il sera essentiel de savoir que sur le marché, nous avons des modèles de référence et des cartes personnalisées. Les premiers sont les modèles commercialisés par les fabricants eux-mêmes, Nvidia et AMD. Deuxièmement, les fabricants utilisent essentiellement des GPU et des mémoires pour assembler les leurs avec des composants et des dissipateurs thermiques plus performants. Le cas est que sa fréquence d'horloge change également, et ces modèles ont tendance à être plus rapides que ceux de référence.

TFLOPS

Avec la fréquence d'horloge, nous avons les FLOPS (opérations en virgule flottante par seconde). Cette valeur mesure les opérations en virgule flottante qu'un processeur est capable d'effectuer en une seconde. C'est un chiffre qui mesure la puissance brute du GPU, ainsi que des CPU. Actuellement, nous ne pouvons pas simplement parler de FLOSP, provenant de TeraFLOPS ou TFLOPS.

Nous ne devons pas être confus de penser que plus de TFLOPS signifiera que notre carte graphique est meilleure. C'est normalement le cas, car vous devriez pouvoir déplacer les textures plus librement. Mais d'autres éléments tels que la quantité de mémoire, sa vitesse et l'architecture du GPU et de son cache feront la différence.

TMU et ROP

Ce sont des termes qui apparaîtront sur toutes les cartes graphiques, et ils nous donnent une bonne idée de la vitesse de travail de la même chose.

TMU signifie Texture Mapping Unit. Cet élément est chargé de coter, faire pivoter et déformer une image bitmap pour la placer dans un modèle 3D qui servira de texture. En d'autres termes, il applique une palette de couleurs à un objet 3D qui sera a priori vide. Plus il y a de TMU, plus les performances de texturation sont élevées, plus les pixels se rempliront rapidement et plus nous obtiendrons de FPS. Les TMU actuelles incluent les unités de direction de texture (TA) et les unités de filtre de texture (TF).

Maintenant, nous nous tournons pour voir les ROP ou les unités raster. Ces unités traitent les informations de texel de la mémoire VRAM et effectuent des opérations matricielles et vectorielles pour donner une valeur finale au pixel, qui sera sa profondeur. C'est ce qu'on appelle la pixellisation, et qui contrôle essentiellement l'anticrénelage ou la fusion des différentes valeurs de pixels situées en mémoire. DLSS est précisément une évolution de ce processus pour générer

Quantité de mémoire, bande passante et largeur de bus

Nous savons qu'il existe plusieurs types de technologies pour la mémoire VRAM, dont les plus utilisées actuellement sont GDDR5 et GDDR6, avec des vitesses allant jusqu'à 14 Gbps pour ces dernières. Comme pour la RAM, plus il y a de mémoire, plus nous pouvons stocker de pixels, de texte et de données texte. Cela influence grandement la résolution à laquelle nous jouons, le niveau de détail dans le monde et la distance de visualisation. Actuellement, une carte graphique aura besoin d'au moins 4 Go de VRAM pour pouvoir fonctionner avec les jeux de nouvelle génération en Full HD et avec des résolutions supérieures.

La largeur du bus mémoire représente le nombre de bits pouvant être transmis dans un mot ou une instruction. Celles-ci sont beaucoup plus longues que celles utilisées par les CPU, avec des longueurs comprises entre 192 et 384 bits, rappelons le concept de parallélisme dans le traitement.

La bande passante mémoire est la quantité d'informations qui peut être transférée par unité de temps et est mesurée en Go / s. Plus la largeur du bus est grande et plus la fréquence de la mémoire est grande, plus nous aurons de bande passante, car plus la quantité d'informations pouvant le parcourir est importante. C'est comme Internet.

Compatibilité API

Une API est essentiellement un ensemble de bibliothèques qui sont utilisées pour développer et travailler avec différentes applications. Cela signifie la programmation d'applications et est le moyen par lequel différentes applications communiquent entre elles.

Si nous passons au monde multimédia, nous avons également des API qui permettent le fonctionnement et la création de jeux et de vidéos. Le plus célèbre de tous sera DirectX, qui en est à sa 12e version depuis 2014, et dans les dernières mises à jour, il a mis en œuvre Ray Tracing, MSAA programmable et des capacités de réalité virtuelle. La version open source est OpenGL, qui est la version 4.5 et est également utilisée par de nombreux jeux. Enfin, nous avons Vulkan, une API spécialement développée pour AMD (son code source était d'AMD et il a été transféré à Khronos).

Capacité d'overclocking

Avant, nous parlions de la fréquence turbo des GPU, mais il est également possible de l'augmenter au-dessus de ses limites en l'overclockant. Cette pratique essaie essentiellement de trouver plus de FPS dans les jeux, plus de fluidité pour améliorer notre réponse.

La capacité d'overclocking des processeurs est d' environ 100 ou 150 MHz, bien que certains soient capables de prendre en charge quelque chose de plus ou de moins, selon leur architecture et leur fréquence maximale.

Mais il est également possible de surjeter les mémoires GDDR et aussi beaucoup. Une mémoire GDDR6 moyenne fonctionnant à 7000 MHz prend en charge des téléchargements allant jusqu'à 900 et 1000 MHz, atteignant ainsi jusqu'à 16 Gbps effectifs. En fait, c'est l'élément qui augmente le plus le taux de FPS du jeu, avec des augmentations de 15 FPS.

Certains des meilleurs programmes d'overclocking sont Evga Precision X1, MSI AfterBurner et AMD WattMan for Radeons. Bien que de nombreux fabricants aient les leurs, comme AORUS, Colorful, Asus, etc.

Les tests de référence pour la carte graphique

Les références sont des tests de stress et de performance que certains suppléments matériels de notre PC subissent pour évaluer et comparer leurs performances avec d'autres produits sur le marché. Bien sûr, il existe des repères pour évaluer les performances des cartes graphiques, et même l'ensemble graphique-CPU.

Ces tests montrent presque toujours un score sans dimension, c'est-à-dire qu'il ne peut être acheté qu'avec ceux générés par ce programme. De l'autre côté, il y aurait le FPS et par exemple le TFLOPS. Les programmes les plus utilisés pour les tests de performances des cartes graphiques sont 3DMark, qui a un grand nombre de tests différents, PassMark, VRMark ou GeekBench. Ils ont tous leur propre tableau de statistiques pour acheter notre GPU avec la concurrence.

La taille compte… et le dissipateur thermique aussi

Bien sûr, cela compte des amis, donc avant d'acheter une carte graphique, le moins que l'on puisse faire est d'aller voir ses spécifications et de voir ce qu'elle mesure. Passons ensuite à notre châssis et mesurons l'espace dont nous disposons.

Les cartes graphiques dédiées ont des GPU très puissants avec un TDP de plus de 100W dans chacun d'eux. Cela signifie qu'ils vont devenir assez chauds, en fait, encore plus chauds que les processeurs. Pour cette raison, tous ont de grands dissipateurs thermiques qui occupent la quasi-totalité du PCB électronique.

Sur le marché, nous pouvons trouver essentiellement deux types de dissipateurs thermiques.

  • Souffleur: Ce type de dissipateur thermique est par exemple celui qui a les modèles de référence AMD Radeon RX 5700 et 5700 XT ou le précédent Nvidia GTX 1000. Un seul ventilateur aspire l'air vertical et le fait circuler à travers le dissipateur thermique à ailettes. Ces dissipateurs sont très mauvais, car ils prennent peu d'air et la vitesse de passage à travers le dissipateur est faible. Flux axial: ce sont les ventilateurs de toute une vie, situés verticalement dans le dissipateur thermique et poussant l'air vers les ailettes qui sortiront par la suite des côtés. Il est utilisé dans tous les modèles personnalisés pour être celui qui donne les meilleures performances. Même le refroidissement liquide: certains modèles haut de gamme ont des dissipateurs qui intègrent un système de refroidissement liquide, par exemple l'Asus Matrix RTX 2080 Ti.

Cartes personnalisées

Nous appelons les modèles graphiques assemblés par des fabricants de matériel génériques tels que Asus, MSI, Gigabyte, etc. Ceux-ci achètent directement les puces graphiques et les mémoires du fabricant principal, AMD ou Nvidia, puis les montent sur un PCB fabriqué par eux avec un dissipateur thermique également créé par eux.

La bonne chose à propos de cette carte est qu'elles sont overclockées en usine, avec une fréquence plus élevée que les modèles de référence, elles fonctionneront donc un peu plus. Son dissipateur thermique est également meilleur et son VRM, et même beaucoup ont RVB. La mauvaise chose est qu'ils sont généralement plus chers. Un autre aspect positif est qu'ils offrent de nombreux types de tailles, pour les châssis ATX, Micro ATX ou même ITX, avec des cartes très petites et compactes.

Comment est le GPU ou la carte graphique d'un ordinateur portable de jeu

À ce stade, nous nous demandons sûrement si un ordinateur portable peut également avoir une carte graphique dédiée, et la vérité est que c'est le cas. En fait, dans Professional Review, nous analysons un grand nombre d'ordinateurs portables de jeu avec un GPU dédié.

Dans ce cas, il ne sera pas installé sur une carte d'extension, mais le chipset sera directement soudé sur le PCB principal de l'ordinateur portable et très proche du CPU. Ces modèles sont généralement appelés Max-Q car ils n'ont pas de dissipateur thermique à ailettes et ont une région spécifique dans la plaque de base pour eux.

Dans ce domaine, le roi incontesté est Nvidia, avec ses RTX et GTX Max-Q. Ce sont des puces optimisées pour les ordinateurs portables et qui consomment 1/3 par rapport aux modèles de bureau et ne sacrifient que 30% de leurs performances. Ceci est accompli en diminuant sa fréquence d'horloge, parfois en supprimant certains cœurs et en ralentissant le GRAM.

Quel CPU dois-je monter en fonction de ma carte graphique

Pour jouer, ainsi que pour effectuer toutes sortes de tâches sur notre ordinateur, nous devons toujours trouver un équilibre dans nos composants pour éviter les goulots d'étranglement. En réduisant cela au monde du jeu et de nos cartes graphiques, nous devons parvenir à un équilibre entre le GPU et le CPU, afin qu'aucun d'eux ne soit à la hauteur et que les autres abusent trop. Notre argent est en jeu et nous ne pouvons pas acheter un RTX 2080 et l'installer avec un Core i3-9300F.

Le processeur central a un rôle important à jouer avec les graphiques comme nous l'avons déjà vu dans les sections précédentes. Nous devons donc nous assurer qu'il a suffisamment de vitesse, de cœurs et de threads de traitement pour fonctionner avec la physique et les mouvements du jeu ou de la vidéo et les envoyer à la carte graphique le plus rapidement possible.

Dans tous les cas, nous aurons toujours la possibilité de modifier les paramètres graphiques du jeu pour réduire l'impact d'un CPU trop lent pour les demandes. Dans le cas du GPU, il est facile de compenser son manque de performances, juste en abaissant la résolution, nous obtiendrons d' excellents résultats. Avec le CPU, c'est différent, car, bien qu'il y ait moins de pixels, la physique et le mouvement resteront presque les mêmes, et la baisse de la qualité de ces options peut grandement influencer l'expérience de jeu correcte. Voici quelques options qui influencent le CPU et d'autres sur le GPU:

Ils influencent le GPU Ils influencent le CPU
En général, les options de rendu En général, les options physiques
Anticrénelage Mouvement des personnages
Ray Tracing Éléments affichés à l'écran
Textures Particules
Tessellation
Post-traité
Résolution
Occlusion environnementale

En voyant cela, on peut faire un bilan plus ou moins général classant les équipements en fonction de la destination pour laquelle ils sont construits. Cela facilitera l'obtention de spécifications plus ou moins équilibrées.

Équipement multimédia et de bureau bon marché

Nous commençons par les plus basiques, ou du moins ce que nous considérons comme plus basiques à part les mini PC avec Celeron. Soi-disant, si nous recherchions quelque chose de bon marché, la meilleure chose serait d'aller aux processeurs Athlon d'AMD ou au Pentium Gold d'Intel. Dans les deux cas, nous avons des graphiques intégrés de bon niveau, tels que la Radeon Vega dans le premier cas, ou les graphiques UHD dans le cas d'Intel, qui prennent en charge des résolutions élevées et des performances décentes dans les tâches peu exigeantes.

Dans ce domaine, il est totalement inutile d'acheter une carte graphique dédiée. Ce sont des processeurs avec deux cœurs qui ne donneront pas assez pour amortir le coût d'une carte. De plus, les graphiques intégrés vont nous donner une performance similaire à celle qu'offrirait un GPU dédié de 80 à 100 euros.

Équipement à usage général et jeux bas de gamme

Nous pouvons considérer qu'un équipement à usage général est celui qui répondra bien dans de nombreuses circonstances différentes. Par exemple, surfer, travailler au bureau, faire de petites choses dans la conception et même éditer des vidéos à un niveau amateur et jouer occasionnellement en Full HD (nous ne pouvons pas demander beaucoup plus).

Dans ce domaine , les processeurs Intel Core i3 à 4 cœurs et à haute fréquence se démarqueront, et notamment les AMD Ryzen 3 3200G et 5 3400G avec carte graphique Radeon RX Vega 11 intégrée et un prix très ajusté. Ces Ryzen sont capables de déplacer dignement un jeu de dernière génération en basse qualité et Full HD. Si nous voulons quelque chose d'un peu mieux, passons au suivant.

Ordinateur avec carte graphique pour les jeux de moyenne et haute gamme

Étant des jeux de milieu de gamme, nous pouvions déjà nous offrir un Ryzen 5 2600 ou un Core i5-9400F pour moins de 150 euros et ajouter un GPU dédié comme le Nvidia 1650, 1660 et 1660 Ti, ou l'AMD Radeon RX 570, 580 ou 590. Ce ne sont pas de mauvaises options si on ne veut pas dépenser plus de 250 euros sur une carte graphique.

Mais bien sûr, si nous voulons plus, nous devons faire des sacrifices, et c'est ce que nous voulons si nous voulons obtenir une expérience de jeu optimale en Full HD ou 2K en haute qualité. Dans ce cas, les processeurs commentés sont toujours une excellente option pour être à 6 cœurs, mais nous pourrions aller jusqu'à Ryzen 5 3600 et 3600X et Intel Core i5-9600K. Avec ceux-ci, cela vaudra la peine de passer au RTX 2060/2070 Super de Nvidia et au RX 5700/5700 XT d'AMD.

Équipe de conception et de jeu enthousiaste

Ici, il y aura beaucoup de tâches de rendu et de jeux fonctionnant avec les filtres au maximum, nous aurons donc besoin d' un processeur d'au moins 8 cœurs et d'une carte graphique puissante. L'AMD Ryzen 2700X ou 3700X sera une excellente option, ou l' Intel Core i7 8700K ou 9700F. Avec eux, nous méritons un Nvidia RTX 2070 Super ou un AMD Radeon RX 5700 XT.

Et si nous voulons faire l'envie de nos amis, montons sur un RTX 2080 Super, attendons un peu la Radeon 5800, et prenons un AMD Ryzen 3900X ou un Intel Core i9-9900K. Les Threadrippers ne sont pas une option réalisable à l'heure actuelle, bien que les Intel X et XE de la plate-forme LGA 2066 le soient et leur coût élevé.

Conclusion sur la carte graphique et nos modèles recommandés

Jusqu'à présent, cet article vient dans lequel nous expliquons assez en détail l'état actuel des cartes graphiques, ainsi qu'un peu de leur histoire depuis le début. Il s'agit de l'un des produits les plus populaires dans le monde de l'informatique, car un PC de jeu sera certainement beaucoup plus performant qu'une console.

Les vrais joueurs utilisent des ordinateurs pour jouer, en particulier dans le sport électronique ou les jeux compétitifs dans le monde entier. En eux, essayez toujours d'atteindre les performances maximales possibles, en augmentant les FPS, en réduisant les temps de réponse et en utilisant des composants conçus pour les jeux. Mais rien ne serait possible sans cartes graphiques.

  • Quelle carte graphique dois-je acheter? Les meilleures du marché Les meilleures cartes graphiques du marché
Android

Le choix des éditeurs

Back to top button