Android

▷ Intel xeon 【toutes les informations】

Table des matières:

Anonim

Parmi le vaste catalogue d'Intel, nous pouvons trouver des processeurs Intel Xeon, qui sont les moins connus des utilisateurs pour ne pas se concentrer sur le secteur domestique. Dans cet article, nous expliquons ce que sont ces processeurs et quelles sont les différences avec les domestiques.

Index du contenu

Qu'est-ce que Intel Xeon?

Xeon est une marque de microprocesseurs x86 conçue, fabriquée et commercialisée par Intel, ciblant les marchés des stations de travail, des serveurs et des systèmes embarqués. Les processeurs Intel Xeon ont été introduits en juin 1998. Les processeurs Xeon sont basés sur la même architecture que les processeurs de bureau normaux, mais ont des fonctionnalités avancées telles que la prise en charge de la mémoire ECC, un plus grand nombre de cœurs, la prise en charge de grandes quantités de RAM., une mémoire cache accrue et davantage de fonctionnalités de fiabilité, de disponibilité et de facilité de maintenance de niveau entreprise chargées de gérer les exceptions matérielles via l'architecture Machine Check. Ils sont souvent capables de poursuivre l'exécution en toute sécurité là où un processeur normal ne peut pas en raison de leurs caractéristiques RAS supplémentaires, selon le type et la gravité de l'exception de vérification de la machine. Certains sont également compatibles avec les systèmes multiprises à 2, 4 ou 8 prises en utilisant le bus Quick Path Interconnect.

Nous vous recommandons de lire notre article sur AMD Ryzen - Les meilleurs processeurs fabriqués par AMD

Certaines lacunes qui rendent les processeurs Xeon inappropriés pour la plupart des PC grand public incluent des fréquences plus basses pour le même prix, car les serveurs exécutent plus de tâches en parallèle que les ordinateurs de bureau, le nombre de cœurs est plus important que les fréquences de montre, généralement l'absence d'un système GPU intégré, et le manque de prise en charge de l'overclocking. Malgré ces inconvénients, les processeurs Xeon ont toujours été populaires auprès des utilisateurs de bureau, principalement des joueurs et des utilisateurs extrêmes, principalement en raison du potentiel de nombre de cœurs plus élevé et d'un rapport prix / performances plus attractif que le Core i7 en termes de la puissance de calcul totale de tous les cœurs. La plupart des processeurs Intel Xeon n'ont pas de GPU intégré, ce qui signifie que les systèmes construits avec ces processeurs nécessitent soit une carte graphique discrète, soit un GPU séparé si une sortie moniteur est souhaitée.

Intel Xeon est une gamme de produits différente de Intel Xeon Phi, qui porte le même nom. La première génération de Xeon Phi est un type d'appareil complètement différent, plus comparable à une carte graphique, car il est conçu pour un slot PCI Express et est destiné à être utilisé comme coprocesseur multicœur, comme le Nvidia Tesla. Dans la deuxième génération, Xeon Phi est devenu un processeur principal plus similaire à Xeon. Il s'adapte au même socket qu'un processeur Xeon et est compatible avec x86; cependant, par rapport à Xeon, le point de conception du Xeon Phi met l'accent sur plus de cœurs avec une bande passante mémoire plus élevée.

Que sont les processeurs Intel Xeon évolutifs?

De grands changements sont en cours dans le centre de données de l'entreprise. De nombreuses organisations subissent une transformation généralisée basée sur les données et services en ligne, exploitant ces données pour de puissantes applications d'intelligence artificielle et d'analyse qui peuvent les transformer en idées qui changent l'entreprise, puis implémenter des outils et des services qui font fonctionner ces idées.. Cela nécessite un nouveau type d'infrastructure de serveur et de réseau, optimisé pour l'intelligence artificielle, l'analyse, les ensembles de données massifs, etc., alimenté par un nouveau processeur révolutionnaire. C'est là qu'intervient la gamme évolutive Xeon d'Intel.

Intel Xeon Scalable représente probablement le plus grand changement d'étape en vingt ans de CPU Xeon. Ce n'est pas simplement un Xeon ou un Xeon plus rapide avec plus de cœurs, mais une famille de processeurs conçus autour d'une synergie entre les capacités de calcul, de réseau et de stockage, apportant de nouvelles fonctionnalités et des améliorations de performances aux trois.

Alors que Xeon Scalable offre une augmentation de performance moyenne de 1, 6 fois par rapport aux processeurs Xeon de la génération précédente, les avantages vont au-delà des normes pour couvrir les optimisations du monde réel pour l'analyse, la sécurité, l'IA et le traitement d'image. Il y a plus de puissance pour exécuter des complexes de haute performance. En ce qui concerne le centre de données, c'est une victoire à tous points de vue.

Le changement le plus important et le plus évident est peut-être le remplacement de l'ancienne architecture Xeon basée sur un anneau, où tous les cœurs de processeur étaient connectés via un seul anneau, avec un nouveau maillage ou architecture de maillage. Cela aligne les cœurs plus le cache associé, la RAM et les E / S, dans des lignes et des colonnes qui se connectent à chaque intersection, permettant aux données de se déplacer plus efficacement d'un cœur à l'autre.

Si vous l'imaginez en termes de système de transport routier, l'ancienne architecture Xeon était comme une circulaire à grande vitesse, où les données se déplaçant d'un cœur à l'autre devraient se déplacer sur le ring. La nouvelle architecture maillée ressemble plus à un réseau routier, juste une qui permet au trafic de circuler à une vitesse point à point maximale sans encombrement. Cela optimise les performances sur les tâches multithread où différents cœurs peuvent partager des données et de la mémoire, tout en augmentant l'efficacité énergétique. Dans le sens le plus élémentaire, c'est un objectif d'architecture créé pour déplacer de grandes quantités de données autour d'un processeur pouvant avoir jusqu'à 28 cœurs. De plus, c'est une structure qui est développée plus efficacement, que nous parlions de plusieurs processeurs ou de nouveaux CPU avec encore plus de cœurs plus tard.

Si l'architecture de maillage vise à déplacer les données plus efficacement, les nouvelles instructions AVX-512 tentent d'optimiser la façon dont elles sont traitées. S'appuyant sur le travail qu'Intel a commencé avec ses premières extensions SIMD en 1996, l' AVX-512 permet de traiter encore plus d'éléments de données simultanément qu'avec l'AVX2 de nouvelle génération, doublant la largeur de chaque enregistrement et en ajoutant deux autres pour améliorer les performances. AVX-512 permet deux fois plus d'opérations en virgule flottante par seconde par cycle d'horloge et peut traiter deux fois plus d'éléments de données que AVX2 pourrait avoir dans le même cycle d'horloge.

Mieux encore, ces nouvelles instructions sont spécifiquement conçues pour accélérer les performances dans des charges de travail complexes et gourmandes en données telles que la simulation scientifique, l'analyse financière, le deep learning, le traitement d'images, audio et vidéo et la cryptographie.. Cela aide un processeur Xeon Scalable à gérer les tâches HPC plus de 1, 6 fois plus rapidement que l'équivalent de la génération précédente, ou à accélérer les opérations d'intelligence artificielle et d'apprentissage en profondeur de 2, 2 fois.

AVX-512 aide également au stockage, accélérant des fonctionnalités clés telles que la déduplication, le chiffrement, la compression et la décompression afin que vous puissiez utiliser plus efficacement vos ressources et renforcer la sécurité des services sur site et du cloud privé.

En ce sens, l' AVX-512 fonctionne main dans la main avec la technologie Intel QuickAssist (Intel QAT). QAT permet l'accélération matérielle pour le chiffrement, l'authentification, la compression et la décompression des données, augmentant les performances et l'efficacité des processus qui imposent des exigences élevées à l'infrastructure réseau d'aujourd'hui, et qui ne feront qu'augmenter à mesure que vous implémentez plus de services et outils numériques.

Utilisé en conjonction avec l'infrastructure définie par logiciel (SDI), le QAT peut vous aider à récupérer les cycles d'UC perdus consacrés aux tâches de sécurité, de compression et de décompression afin qu'ils soient disponibles pour les tâches à forte intensité de calcul qui apportent une réelle valeur à la entreprise. Étant donné qu'un processeur compatible QAT peut gérer la compression et la décompression à grande vitesse, presque gratuitement, les applications peuvent fonctionner avec des données compressées. Cela a non seulement une plus petite empreinte de stockage, mais nécessite moins de temps pour transférer d'une application ou d'un système à un autre.

Les processeurs évolutifs Intel Xeon s'intègrent aux chipsets Intel série C620 pour créer une plate-forme pour des performances équilibrées à l'échelle du système. La connectivité Ethernet Intel avec iWARP RDMA est intégrée, offrant des communications 4x10GbE à faible latence. La plate-forme offre 48 lignes de connectivité PCIe 3.0 par CPU, avec 6 canaux de RAM DDR4 par CPU avec des capacités de support allant jusqu'à 768 Go à 1, 5 To par CPU et des vitesses allant jusqu'à 2666 MHz.

Le stockage reçoit le même traitement généreux. Il y a de la place pour un maximum de 14 disques SATA3 et 10 ports USB3.1, sans parler du contrôle RAID NMMe virtuel intégré du processeur. La prise en charge de la technologie Intel Optane de nouvelle génération augmente encore les performances de stockage, avec des effets positifs spectaculaires sur la base de données en mémoire et les charges de travail analytiques. Et avec Intel Xeon Scalable, la prise en charge de la structure Omni-Path d'Intel est intégrée sans avoir besoin d'une carte d'interface discrète. En conséquence, les processeurs évolutifs Xeon sont prêts pour les applications à large bande passante et à faible latence dans les clusters HPC.

Avec Xeon Scalable, Intel a fourni une gamme de processeurs qui répondent aux besoins des centres de données de nouvelle génération, mais que signifie toute cette technologie dans la pratique? Pour commencer, les serveurs qui peuvent gérer des charges de travail analytiques plus importantes à des vitesses plus élevées, obtenant des informations plus rapides à partir de jeux de données plus volumineux. Intel Xeon Scalable a également la capacité de stockage et de calcul pour les applications avancées d'apprentissage en profondeur et d'apprentissage automatique, permettant aux systèmes de s'entraîner en quelques heures, et non en quelques jours, ou "inférer" la signification de nouvelles données avec une vitesse et une précision accrues en traiter des images, de la parole ou du texte.

Le potentiel d'applications de base de données et d'analyse en mémoire, telles que SAP HANA, est énorme, avec des performances jusqu'à 1, 59 fois supérieures lors de l'exécution de charges de travail en mémoire sur le Xeon de nouvelle génération. Lorsque votre entreprise dépend de la collecte d'informations à partir de vastes ensembles de données avec des sources en temps réel, cela peut être suffisant pour vous donner un avantage concurrentiel.

Xeon Scalable a les performances, la mémoire et la bande passante système pour héberger des applications HPC plus grandes et plus complexes, et trouve des solutions pour des problèmes commerciaux, scientifiques et d'ingénierie plus complexes. Il peut offrir un transcodage vidéo plus rapide et de meilleure qualité tout en diffusant de la vidéo à plus de clients.

Une augmentation de la capacité de virtualisation pourrait permettre aux organisations d'exécuter quatre fois plus de machines virtuelles sur un serveur Xeon Scalable que sur un système de nouvelle génération. Avec des frais généraux presque nuls pour la compression, la décompression et le chiffrement des données au repos, les entreprises peuvent utiliser leur stockage plus efficacement, tout en renforçant la sécurité en même temps. Il ne s'agit pas uniquement de repères, il s'agit de technologies qui transforment le fonctionnement de votre centre de données et, ce faisant, de votre entreprise également.

Qu'est-ce que la mémoire ECC?

ECC est une méthode de détection et de correction des erreurs de mémoire sur un seul bit. Une erreur de mémoire sur un seul bit est une erreur de données dans la production ou la production du serveur, et la présence d'erreurs peut avoir un impact important sur les performances du serveur. Il existe deux types d'erreurs de mémoire sur un seul bit: les erreurs matérielles et les erreurs logicielles. Les erreurs physiques sont causées par des facteurs physiques, tels qu'une variation de température excessive, une contrainte de stress ou une contrainte physique qui se produit sur les bits de mémoire.

Des erreurs logicielles se produisent lorsque les données sont écrites ou lues différemment de ce qui était initialement prévu, telles que les variations de tension de la carte mère, les rayons cosmiques ou la désintégration radioactive qui peuvent provoquer le retour des bits en mémoire volatile. Étant donné que les bits conservent leur valeur programmée sous la forme d'une charge électrique, ce type d'interférence peut modifier la charge sur le bit de mémoire, provoquant une erreur. Sur les serveurs, il existe plusieurs endroits où des erreurs peuvent survenir: dans l'unité de stockage, dans le cœur du processeur, via une connexion réseau et dans différents types de mémoire.

Pour les postes de travail et les serveurs où les erreurs, la corruption des données et / ou les défaillances du système doivent être évitées à tout prix, comme dans le secteur financier, la mémoire ECC est souvent la mémoire de choix. C'est ainsi que fonctionne la mémoire ECC. En informatique, les données sont reçues et transmises via des bits, la plus petite unité de données dans un ordinateur, qui sont exprimées en code binaire en utilisant un ou zéro.

Lorsque les bits sont regroupés, ils créent du code binaire, ou «mots», qui sont des unités de données qui sont routées et se déplacent entre la mémoire et le CPU. Par exemple, un code binaire 8 bits est 10110001. Avec la mémoire ECC, il existe un bit ECC supplémentaire, appelé bit de parité. Ce bit de parité supplémentaire provoque la lecture du code binaire 101100010, où le dernier zéro est le bit de parité et est utilisé pour identifier les erreurs de mémoire. Si la somme de tous les 1 dans une ligne de code est un nombre pair (sans compter le bit de parité), alors la ligne de code est appelée parité paire. Le code sans erreur a toujours une parité paire. Cependant, la parité a deux limites: elle est seulement capable de détecter des nombres impairs d'erreurs (1, 3, 5, etc.) et permet aux nombres pairs d'erreurs de passer (2, 4, 6, etc.). La parité ne peut pas non plus corriger les erreurs, elle ne peut que les détecter. C'est là que la mémoire ECC entre en jeu.

La mémoire ECC utilise des bits de parité pour stocker le code crypté lors de l'écriture de données dans la mémoire, et le code ECC est stocké en même temps. Lorsque les données sont lues, le code ECC stocké est comparé au code ECC qui a été généré lors de la lecture des données. Si le code lu ne correspond pas au code stocké, il est déchiffré par les bits de parité pour déterminer quel bit était en erreur, puis ce bit est corrigé immédiatement. Au fur et à mesure que les données sont traitées, la mémoire ECC balaye constamment le code avec un algorithme spécial pour détecter et corriger les erreurs de mémoire sur un seul bit.

Dans les industries critiques comme le secteur financier, la mémoire ECC peut faire une grande différence. Imaginez que vous modifiez les informations dans un compte client confidentiel, puis échangez ces informations avec d'autres institutions financières. Lorsque vous envoyez les données, disons qu'un chiffre binaire est retourné par une sorte d'interférence électrique. La mémoire du serveur ECC aide à préserver l'intégrité de vos données, empêche la corruption des données et empêche les pannes et les pannes du système.

Nous vous recommandons de lire:

Ceci termine notre article sur Intel Xeon et tout ce que vous devez savoir sur ces nouveaux processeurs, n'oubliez pas de le partager sur les réseaux sociaux afin qu'il puisse aider plus d'utilisateurs qui en ont besoin.

Android

Le choix des éditeurs

Back to top button