Nvidia 【toutes les informations】
Table des matières:
- Histoire de Nvidia
- Nvidia GeForce et Nvidia Pascal, dominant le jeu
- Intelligence artificielle et architecture Volta
- L'avenir de Nvidia passe par Turing et Ampère
- NVIDIA G-Sync, mettant fin aux problèmes de synchronisation d'image
Nvidia Corporation, plus communément appelée Nvidia, est une société de technologie américaine constituée au Delaware et basée à Santa Clara, en Californie. Nvidia conçoit des unités de traitement graphique pour les marchés des jeux vidéo et professionnels, ainsi qu'un système d'unité de puce (SoC) pour le marché de l'informatique automobile et mobile. Sa gamme de produits de base, GeForce, est en concurrence directe avec les produits Radeon d'AMD.
Nous vous recommandons de lire nos meilleurs guides matériels et composants PC:
En plus de fabriquer des GPU, Nvidia fournit des capacités de traitement parallèle dans le monde entier aux chercheurs et scientifiques, leur permettant d'exécuter efficacement des applications hautes performances. Plus récemment, elle est entrée sur le marché de l'informatique mobile, où elle produit des processeurs mobiles Tegra pour consoles de jeux vidéo, tablettes et systèmes de navigation et de divertissement pour véhicules autonomes. Cela a conduit Nvidia à devenir une entreprise concentrée sur quatre marchés depuis 2014 : les jeux, la visualisation professionnelle, les centres de données, l'intelligence artificielle et les automobiles.
Index du contenu
Histoire de Nvidia
Nvidia a été fondée en 1993 par Jen-Hsun Huang, Chris Malachowsky et Curtis Priem. Les trois co-fondateurs de l'entreprise ont émis l'hypothèse que la bonne direction pour l'informatique passerait par un traitement accéléré par les graphiques, estimant que ce modèle informatique pourrait résoudre des problèmes que l'informatique à usage général ne pouvait pas résoudre. Ils ont également noté que les jeux vidéo sont parmi les problèmes les plus difficiles à calculer, et qu'ils ont des volumes de ventes incroyablement élevés.
D'une petite entreprise de jeux vidéo à un géant de l'intelligence artificielle
La société est née avec un capital initial de 40 000 $, initialement sans nom, et les co-fondateurs ont nommé tous ses fichiers NV, comme dans "la prochaine version". La nécessité d'incorporer l'entreprise a amené les co-fondateurs à revoir tous les mots avec ces deux lettres, ce qui les a conduits à "invidia", le mot latin qui signifie "envie".
Le lancement de RIVA TNT en 1998 a consolidé la réputation de Nvidia dans le développement d'adaptateurs graphiques. Fin 1999, Nvidia a publié la GeForce 256 (NV10), qui a notamment introduit la transformation et l'éclairage (T&L) au niveau du consommateur dans le matériel 3D. Fonctionnant à 120 MHz et comportant quatre lignes de pixels, il a mis en œuvre une accélération vidéo avancée, une compensation de mouvement et un mélange matériel de sous-images. GeForce a largement surperformé les produits existants.
En raison du succès de ses produits, Nvidia a remporté le contrat pour développer le matériel graphique pour la console de jeu Xbox de Microsoft, ce qui lui a valu une avance de 200 millions de dollars. Cependant, le projet a pris plusieurs de ses meilleurs ingénieurs d'autres projets. À court terme, cela n'avait pas d'importance, et la GeForce2 GTS a été livrée à l'été 2000. En décembre 2000, Nvidia a conclu un accord pour acquérir les actifs intellectuels de son seul concurrent 3dfx, un pionnier de la technologie graphique 3D pour le consommateur. qui a dirigé le domaine du milieu des années 1990 à 2000. Le processus d'acquisition a pris fin en avril 2002.
En juillet 2002, Nvidia a acquis Exluna pour un montant non divulgué. Exluna était responsable de la création de divers outils de rendu logiciel. Plus tard, en août 2003, Nvidia a acquis MediaQ pour environ 70 millions de dollars. Il a également acquis iReady, un fournisseur de solutions de déchargement TCP / IP et iSCSI hautes performances le 22 avril 2004.
Le succès de Nvidia sur le marché des jeux vidéo a été si grand qu'en décembre 2004, il a été annoncé qu'il aiderait Sony à concevoir le processeur graphique RSX de la PlayStation 3, la console de jeu vidéo de nouvelle génération de la firme japonaise qui il avait la difficile tâche de répéter le succès de son prédécesseur, le plus vendu de l'histoire.
En décembre 2006, Nvidia a reçu des citations du département américain de la Justice. En ce qui concerne les éventuelles violations des lois antitrust dans l'industrie des cartes graphiques. AMD était alors devenu son grand rival, après le rachat d'ATI par ce dernier. Depuis lors, AMD et Nvidia sont les seuls fabricants de cartes graphiques de jeux vidéo, sans oublier les puces intégrées d'Intel.
Forbes a nommé Nvidia meilleure entreprise de l'année pour 2007, citant les réalisations qu'elle a réalisées au cours des cinq dernières années. Le 5 janvier 2007, Nvidia a annoncé avoir finalisé l'acquisition de PortalPlayer, Inc et, en février 2008, Nvidia a acquis Ageia, développeur du moteur physique PhysX et unité de traitement physique exécutant ce moteur. Nvidia a annoncé son intention d'intégrer la technologie PhysX dans ses futurs produits GPU GeForce.
Nvidia a rencontré de grandes difficultés en juillet 2008, lorsqu'elle a enregistré une baisse de ses revenus d'environ 200 millions de dollars après avoir signalé que certains chipsets mobiles et GPU mobiles produits par la société avaient des taux de défaillance anormaux en raison de défauts de fabrication. En septembre 2008, Nvidia a fait l'objet d'un recours collectif par les personnes concernées, alléguant que les GPU défectueux avaient été incorporés dans certains modèles d'ordinateurs portables fabriqués par Apple, Dell et HP. Le feuilleton a pris fin en septembre 2010, lorsque Nvidia a conclu un accord selon lequel les propriétaires des ordinateurs portables concernés seraient remboursés pour le coût des réparations ou, dans certains cas, du remplacement du produit.
En novembre 2011, Nvidia a publié son système de puces ARG Tegra 3 pour les appareils mobiles après l'avoir initialement présenté au Mobile World Congress. Nvidia a affirmé que la puce comportait le premier processeur mobile quad-core. En janvier 2013, Nvidia a présenté le Tegra 4, ainsi que le Nvidia Shield, une console de jeu portable basée sur Android alimentée par le nouveau processeur.
Le 6 mai 2016, Nvidia a présenté les cartes graphiques GeForce GTX 1080 et 1070, les premières basées sur la nouvelle microarchitecture Pascal. Nvidia a affirmé que les deux modèles ont surpassé leur modèle Titan X basé sur Maxwell. Ces cartes intègrent respectivement la mémoire GDDR5X et GDDR5 et utilisent un processus de fabrication de 16 nm. L'architecture Pascal prend également en charge une nouvelle fonctionnalité matérielle connue sous le nom de projection multiple simultanée (SMP), qui est conçue pour améliorer la qualité du rendu multi-écrans et de réalité virtuelle. Pascal a permis la fabrication d'ordinateurs portables conformes à la norme de conception Max-Q de Nvidia.
En mai 2017, Nvidia a annoncé un partenariat avec Toyota Motor Corp dans le cadre duquel cette dernière utilisera la plateforme d'intelligence artificielle de la série Drive X de Nvidia pour ses véhicules autonomes. En juillet 2017, Nvidia et le géant chinois de la recherche Baidu, Inc. ont annoncé un partenariat puissant en matière d'IA qui comprend le cloud computing, la conduite autonome, les appareils grand public et le cadre d'IA de Baidu, PaddlePaddle.
Nvidia GeForce et Nvidia Pascal, dominant le jeu
GeForce est le nom de marque des cartes graphiques basées sur des unités de traitement graphique (GPU) créées par Nvidia à partir de 1999. À ce jour, la série GeForce a connu seize générations depuis sa création. Les versions axées sur les utilisateurs professionnels de ces cartes portent le nom de Quadro et incluent certaines fonctionnalités de différenciation au niveau du pilote. La concurrence directe de GeForce est AMD avec ses cartes Radeon.
Pascal est le nom de code de la dernière microarchitecture GPU développée par Nvidia qui est entrée sur le marché des jeux vidéo, en tant que successeur de la précédente architecture Maxwell. L'architecture Pascal a été introduite pour la première fois en avril 2016 avec le lancement de la Tesla P100 pour serveurs le 5 avril 2016. Actuellement, Pascal est principalement utilisé dans la série GeForce 10, les GeForce GTX 1080 et GTX étant Les 1070 premières cartes de jeu vidéo ont été lancées avec cette architecture, le 17 mai 2016 et le 10 juin 2016 respectivement. Pascal est fabriqué en utilisant le processus FinFET 16 nm de TSMC, ce qui lui permet d'offrir une efficacité énergétique et des performances bien supérieures à celles de Maxwell, qui a été fabriqué avec un FinFET 28 nm.
L'architecture Pascal est organisée en interne dans ce que l'on appelle le multiprocesseur de streaming ( SM), des unités fonctionnelles composées de 64 cœurs CUDA, qui à leur tour sont divisés en deux blocs de traitement de 32 cœurs CUDA chacun d'entre eux et accompagné d'un tampon d'instructions, d'un planificateur de chaîne, de 2 unités de cartographie de texture et de 2 unités de répartition. Ces disques SM sont l'équivalent des UC AMD.
L'architecture Pascal de Nvidia a été conçue pour être la plus efficace et la plus avancée du monde du jeu. L'équipe d'ingénierie de Nvidia a déployé beaucoup d'efforts pour créer une architecture GPU capable de vitesses d'horloge très élevées, tout en conservant une consommation électrique réduite. Pour y parvenir, une conception très soignée et optimisée a été choisie dans tous ses circuits, permettant à Pascal d'atteindre une fréquence 40% supérieure à Maxwell, un chiffre bien supérieur à ce que le processus aurait permis à 16 nm sans toutes les optimisations au niveau de la conception.
La mémoire étant un élément clé dans les performances d'une carte graphique, la technologie GDDR5 a été annoncée en 2009, elle est donc déjà devenue obsolète pour les cartes graphiques les plus puissantes d'aujourd'hui. C'est pourquoi Pascal prend en charge la mémoire GDDR5X, qui était la norme d'interface mémoire la plus rapide et la plus avancée de l'histoire au moment du lancement de ces cartes graphiques, atteignant des vitesses de transfert allant jusqu'à 10 Gbps ou près de 100 picosecondes entre les bits. des données. La mémoire GDDR5X permet également à la carte graphique de consommer moins d'énergie que la GDDR5, car la tension de fonctionnement est de 1, 35 V, contre 1, 5 V ou même plus que les puces GDDR5 plus rapides ont besoin. Cette réduction de tension se traduit par une fréquence de fonctionnement 43% plus élevée avec la même consommation d'énergie.
Une autre innovation importante de Pascal provient des techniques de compression de la mémoire sans perte de performances, ce qui réduit la demande de bande passante par le GPU. Pascal comprend la quatrième génération de technologie de compression des couleurs delta. Avec la compression des couleurs delta, le GPU analyse les scènes pour calculer les pixels dont les informations peuvent être compressées sans sacrifier la qualité de la scène. Alors que l'architecture Maxwell n'a pas pu compresser les données liées à certains éléments, tels que la végétation et certaines parties de la voiture dans le jeu Project Cars, Pascal est capable de compresser la plupart des informations sur ces éléments, étant ainsi beaucoup plus efficace que Maxwell. Par conséquent, Pascal est en mesure de réduire considérablement le nombre d'octets qui doivent être extraits de la mémoire. Cette réduction d'octets se traduit par un supplément de 20% de la bande passante effective, résultant en une augmentation de 1, 7 fois la bande passante avec l'utilisation de la mémoire GDDR5X par rapport à l'architecture GDDR5 et Maxwell.
Pascal offre également des améliorations importantes par rapport au calcul asynchrone, ce qui est très important car actuellement les charges de travail sont très complexes. Grâce à ces améliorations, l'architecture Pascal est plus efficace pour répartir la charge entre toutes ses différentes unités SM, ce qui signifie qu'il n'y a pratiquement pas de cœurs CUDA inutilisés. Cela permet à l'optimisation du GPU d'être beaucoup plus grande, en faisant un meilleur usage de toutes les ressources dont il dispose.
Le tableau suivant résume les fonctionnalités les plus importantes de toutes les cartes GeForce basées sur Pascal.
CARTES GRAPHIQUES NVIDIA GEFORCE PASCAL |
||||||
CUDA Cores | Fréquences (MHz) | La mémoire | Interface mémoire | Bande passante mémoire (Go / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 Go GDDR5 | 64 bits | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 Go GDDR5 | 128 bits | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 Go GDDR5 | 128 bits | 112 | 75 |
NVIDIA GeForce GTX1060 3 Go | 1152 | 1506/1708 | 3GB GDDR5 | 192 bits | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 Go GDDR5 | 192 bits | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8GB GDDR5 | 256 bits | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8GB GDDR5 | 256 bits | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 Go GDDR5X | 256 bits | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 Go GDDR5X | 352 bits | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 Go GDDR5X | 384 bits | 547 | 250 |
Intelligence artificielle et architecture Volta
Les GPU de Nvidia sont largement utilisés dans les domaines de l'apprentissage en profondeur, de l'intelligence artificielle et de l'analyse accélérée de grandes quantités de données. La société a développé un apprentissage en profondeur basé sur la technologie GPU, afin d'utiliser l'intelligence artificielle pour s'attaquer à des problèmes tels que la détection du cancer, les prévisions météorologiques et les véhicules autonomes, comme le célèbre Tesla.
L'objectif de Nvidia est d'aider les réseaux à apprendre à «penser ». Les GPU de Nvidia fonctionnent exceptionnellement bien pour les tâches d'apprentissage en profondeur car ils sont conçus pour le calcul parallèle et ils fonctionnent bien pour gérer les opérations vectorielles et matricielles qui prévalent dans l'apprentissage en profondeur. Les GPU de l'entreprise sont utilisés par des chercheurs, des laboratoires, des sociétés technologiques et des entreprises. En 2009, Nvidia a participé à ce qu'on a appelé le big bang de l'apprentissage en profondeur, car les réseaux de neurones d'apprentissage en profondeur ont été combinés aux unités de traitement graphique de l'entreprise. La même année, Google Brain a utilisé les GPU de Nvidia pour créer des réseaux de neurones profonds capables d'apprentissage automatique, où Andrew Ng a déterminé qu'ils pourraient augmenter la vitesse des systèmes d'apprentissage profond de 100 fois.
En avril 2016, Nvidia a présenté le supercalculateur DGX-1 basé sur un cluster à 8 GPU pour améliorer la capacité des utilisateurs à utiliser l'apprentissage en profondeur en combinant les GPU avec des logiciels spécialement conçus. Nvidia a également développé les machines virtuelles Nvidia Tesla K80 et P100 basées sur GPU, disponibles via Google Cloud, que Google a installées en novembre 2016. Microsoft a ajouté des serveurs basés sur la technologie GPU de Nvidia dans un aperçu de sa série N, basé sur la carte Tesla K80. Nvidia s'est également associé à IBM pour créer un kit logiciel qui augmente les capacités d'intelligence artificielle de ses GPU. En 2017, les GPU de Nvidia ont également été mis en ligne au RIKEN Center for the Advanced Intelligence Project for Fujitsu.
En mai 2018, des chercheurs du département d'intelligence artificielle de Nvidi a ont réalisé la possibilité qu'un robot puisse apprendre à faire un travail en observant simplement la personne faisant le même travail. Pour y parvenir, ils ont créé un système qui, après un bref examen et test, peut maintenant être utilisé pour contrôler des robots universels de prochaine génération.
Volta est le nom de code de la microarchitecture GPU la plus avancée développée par Nvidia, c'est l'architecture successeur de Pascal et a été annoncé dans le cadre d'une future ambition de feuille de route en mars 2013. L'architecture est nommée d'après Alessandro Volta, physicien, chimiste et inventeur de la batterie électrique. L'architecture Volta n'a pas atteint le secteur des jeux, bien qu'elle l'ait fait avec la carte graphique Nvidia Titan V, axée sur le secteur des consommateurs et qui peut également être utilisée dans les équipements de jeux.
Ce Nvidia Titan V est une carte graphique de base GV100 et trois piles de mémoire HBM2, le tout dans un seul boîtier. La carte dispose d'un total de 12 Go de mémoire HBM2 qui fonctionne via une interface mémoire de 3072 bits. Son GPU contient plus de 21 millions de transistors, 5 120 cœurs CUDA et 640 cœurs Tensor pour offrir 110 performances TeraFLOPS en apprentissage profond. Ses fréquences de fonctionnement sont de 1200 MHz en base et 1455 MHz en mode turbo, tandis que la mémoire fonctionne à 850 MHz, offrant une bande passante de 652, 8 Go / s. Une version CEO Edition a récemment été annoncée qui augmente la mémoire jusqu'à 32 Go.
La première carte graphique fabriquée par Nvidia avec l'architecture Volta était la Tesla V100, qui fait partie du système Nvidia DGX-1. La Tesla V100 utilise le noyau GV100 qui a été publié le 21 juin 2017. Le GPU Volta GV100 est construit dans un processus de fabrication FinFET de 12 nm , avec 32 Go de mémoire HBM2 capable de fournir jusqu'à 900 Go / s de bande passante.
Volta donne également vie au dernier SoC Nvidia Tegra, appelé Xavier, qui a été annoncé le 28 septembre 2016. Xavier contient 7 milliards de transistors et 8 cœurs ARMv8 personnalisés, ainsi qu'un GPU Volta avec 512 cœurs CUDA et un TPU de open source (Tensor Processing Unit) appelé DLA (Deep Learning Accelerator). Xavier peut encoder et décoder des vidéos en résolution Ultra HD 8K (7680 × 4320 pixels) en temps réel, le tout avec un TDP de 20-30 watts et une taille de puce estimée à environ 300 mm2 grâce au processus de fabrication 12. nm FinFET.
L'architecture Volta se caractérise par être la première à inclure le Tensor Core, des cœurs spécialement conçus pour offrir des performances bien supérieures dans les tâches d'apprentissage en profondeur par rapport aux cœurs CUDA ordinaires. Un Tensor Core est une unité qui multiplie deux matrices FP16 4 × 4 puis ajoute une troisième matrice FP16 ou FP32 au résultat, en utilisant des opérations d'addition et de multiplication fusionnées, obtenant un résultat FP32 qui pourrait éventuellement être rétrogradé en résultat FP16. Les noyaux tenseurs sont destinés à accélérer la formation du réseau neuronal.
Volta se distingue également par l'inclusion de l'interface NVLink propriétaire avancée, qui est un protocole de communication filaire pour les communications à semi-conducteurs à courte portée développé par Nvidia, qui peut être utilisé pour les transferts de code de données et le contrôle dans les systèmes de processeur basés sur CPU et GPU et ceux basés uniquement sur GPU. NVLink spécifie une connexion point à point avec des débits de données de 20 et 25 Gb / s par voie de données et par adresse dans ses première et deuxième versions. Les débits de données totaux dans les systèmes du monde réel sont de 160 et 300 Go / s pour la somme totale des flux de données d'entrée et de sortie. Les produits NVLink introduits à ce jour se concentrent sur l'espace applicatif haute performance. NVLINK a été annoncé pour la première fois en mars 2014 et utilise une interconnexion de signalisation haute vitesse exclusive développée et développée par Nvidia.
Le tableau suivant résume les caractéristiques les plus importantes des cartes basées sur Volta:
CARTES GRAPHIQUES NVIDIA VOLTA |
||||||||
CUDA Cores | Tenseur de base | Fréquences (MHz) | La mémoire | Interface mémoire | Bande passante mémoire (Go / s) | TDP (W) | ||
Tesla V100 | 5120 | 640 | 1465 | 32GB HBM2 | 4, 096 bits | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 Go HBM2 | 3 072 bits | 652 | 250 | |
GeForce Titan V CEO Edition | 5120 | 640 | 1200/1455 | 32GB HBM2 | 4, 096 bits | 900 | 250 |
L'avenir de Nvidia passe par Turing et Ampère
Les deux futures architectures Nvidia seront Turing et Ampere selon toutes les rumeurs qui sont apparues à ce jour, il est possible que lorsque vous lisez ce billet, l'une d'elles ait déjà été officiellement annoncée. Pour l'instant, rien n'est connu avec certitude sur ces deux architectures, bien qu'il soit dit que Turing serait une version simplifiée de Volta pour le marché des jeux, en fait, il devrait arriver avec le même processus de fabrication à 12 nm.
Ampere ressemble à l'architecture successeur de Turing, bien qu'il pourrait également être le successeur de Volta au secteur de l'intelligence artificielle. On ne sait absolument rien à ce sujet, bien qu'il semble logique de s'attendre à ce qu'il arrive fabriqué à 7 nm. Les rumeurs suggèrent que Nvidia annoncera ses nouvelles cartes GeForce à Gamecom au cours du prochain mois d'août, alors seulement nous laisserons des doutes sur ce que seront Turing ou Ampère, si elles existent vraiment.
NVIDIA G-Sync, mettant fin aux problèmes de synchronisation d'image
G-Sync est une technologie de synchronisation adaptative propriétaire développée par Nvidia, dont le principal objectif est d'éliminer la déchirure de l'écran et le besoin d'alternatives sous forme de logiciels comme Vsync. G-Sync élimine le déchirement de l'écran en le forçant à s'adapter au débit d'images du périphérique de sortie, la carte graphique, plutôt que le périphérique de sortie étant adapté à l'écran, entraînant une déchirure de l'image l'écran.
Pour qu'un moniteur soit compatible G-Sync, il doit contenir un module matériel vendu par Nvidia. AMD (Advanced Micro Devices) a publié une technologie similaire pour les écrans, appelée FreeSync, qui a la même fonction que G-Sync mais ne nécessite aucun matériel spécifique.
Nvidia a créé une fonction spéciale pour éviter la possibilité qu'un nouveau cadre soit prêt tout en dessinant un doublon sur l'écran, ce qui peut générer un retard et / ou un bégaiement, le module anticipe la mise à jour et attend que le prochain cadre soit terminé. La surcharge de pixels devient également trompeuse dans un scénario de mise à jour non fixe, et les solutions prédisent quand la prochaine mise à jour aura lieu, donc la valeur de surmultiplication doit être implémentée et ajustée pour chaque panneau afin d'éviter l'effet fantôme.
Le module est basé sur un FPGA de la famille Altera Arria V GX avec 156K éléments logiques, 396 blocs DSP et 67 canaux LVDS. Il est produit dans le processus TSMC 28LP et est combiné avec trois puces pour un total de 768 Mo de DRAM DDR3L, pour atteindre une certaine bande passante. Le FPGA utilisé dispose également d'une interface LVDS pour contrôler le panneau du moniteur. Ce module est destiné à remplacer les grimpeurs courants et à être facilement intégré par les fabricants de moniteurs, qui n'ont qu'à s'occuper de la carte d'alimentation et des connexions d'entrée.
G-Sync a fait l'objet de critiques en raison de sa nature exclusive et du fait qu'il est toujours promu lorsqu'il existe des alternatives gratuites, telles que la norme VESA Adaptive-Sync, qui est une fonctionnalité facultative de DisplayPort 1.2a. Alors que FreeSync d'AMD est basé sur DisplayPort 1.2a, G-Sync nécessite un module Nvidia au lieu du scaler à l'écran habituel pour les cartes graphiques Nvidia GeForce pour fonctionner correctement, étant compatible avec Kepler, Maxwell, Pascal et les microarchitectures. Volta.
La prochaine étape a été franchie avec la technologie G-Sync HDR qui, comme son nom l'indique, ajoute des capacités HDR pour améliorer considérablement la qualité d'image du moniteur. Pour que cela soit possible, il a fallu faire un bond significatif dans le matériel. Cette nouvelle version G-Sync HDR utilise un FPGA Intel Altera Arria 10 GX 480, un processeur hautement avancé et hautement programmable qui peut être encodé pour une large gamme d'applications, qui est accompagné de 3 Go de mémoire DDR4 à 2400 MHz fabriqués par Micron. Cela rend le prix de ces moniteurs plus cher.
Ici se termine notre article sur tout ce que vous devez savoir sur Nvidia. N'oubliez pas que vous pouvez le partager sur les réseaux sociaux afin qu'il atteigne plus d'utilisateurs. Vous pouvez également laisser un commentaire si vous avez une suggestion ou quelque chose à ajouter.
Que sont les drones? toutes les informations
Guide complet qui nous explique ce que sont les drones, à quoi ils servent, leurs utilisations et nos modèles recommandés pour les amoureux de ces quadcopters.
Que sont les DNS et à quoi servent-ils? toutes les informations que vous devez savoir
Nous expliquons ce qu'est le DNS et à quoi il sert dans notre quotidien. Nous parlons également de la mémoire cache et de la sécurité DNSSEC.
Nvidia rtx 【toutes les informations】
Nous avons déjà avec nous les nouvelles cartes graphiques NVIDIA RTX. Du modèle phare: NVIDIA RTX 2080 Ti, au modèle pour la plupart des joueurs en 4K: