Tutoriels

Intel Pentium 4: histoire, ce que je veux dire sur le PC et son influence

Table des matières:

Anonim

Intel Pentium 4 a été un changement radical dans le monde du PC et c'est qu'avec la fin d'une décennie entière qui se cache au coin de la rue, c'est un moment idéal au sein d'un portail tel que Professional Review pour faire le point sur ce qui nous a menés là où nous nous rencontrons aujourd'hui.

Le véhicule pour ce voyage sera le saut de Netburst à Nehalem sur les processeurs Intel; ou ce qui est pareil, l'adieu des processeurs Pentium 4, passant par le Core 2 (et le Core 2 Quad) avant l'actuel Intel Core. Un voyage de plus de deux décennies et dont nous ne verrons peut-être pas les fondements prochainement. Sans surprise, l'histoire est censée être une incitation à recommencer.

Index du contenu

Intel Pentium 4: la fin d'une décennie

Le lancement de Conroe (2007) a été un véritable jalon pour Intel. Ce fut l'adieu sur le bureau de Netburst (micro-architecture), qui avait jusqu'à présent articulé le mythique Pentium 4; ainsi que le retour (en quelque sorte) à la micro-architecture P6, sur laquelle serait basé le premier Intel Core. Bien que le saut ait eu lieu auparavant via Pentium M sur les ordinateurs portables.

L'abandon de Netburst a entraîné avec lui l'abandon de ses hautes fréquences, ainsi que des technologies développées pour lui (comme l' Hyper-Threading ) à court terme; mais ce n'était pas une décision arbitraire.

Pentium 4. Image: Flickr, JiahuiH

Les avantages du Pentium 4 ont été étouffés par ses graves problèmes de température et d'évolutivité, qui ont rendu la micro-architecture Netburst irréalisable pour les ordinateurs portables et les serveurs, deux marchés aussi puissants à l'époque qu'aujourd'hui.

Intel Pentium 4 avec Netburst et segmentation des données

Ces problèmes présentés par Netburst provenaient principalement de l'énorme pipeline de données à travers lequel fonctionnait la micro-architecture et des problèmes de prédiction des instructions.

En gros, la segmentation d'instructions ( pipeline de données en anglais) est une méthode pour décomposer l'exécution d'une instruction de processeur par étapes et ainsi augmenter sa vitesse. Sans cette segmentation, il faudrait attendre de terminer l'exécution d'une instruction avant de commencer la suivante, un processus très lent. Avec cette segmentation, nous pouvons commencer chaque étape à la fin.

Netburst avait un pipeline d' instructions de plus de 20 segments (31 dans des revues ultérieures) gardant constamment le processeur occupé et donnant naissance aux hautes fréquences qui ont rendu le Pentium 4 célèbre.

Malheureusement, une telle longue ligne était très préjudiciable à la prédiction d'instructions déjà nommée, car si cette prédiction échouait, le nombre d'étapes que le processeur devait refaire était énorme. De plus, le maintien de telles hautes fréquences de manière inefficace a entraîné un sérieux problème de température. Intel s'est heurté à un mur physique qui n'a pas pu sauter avec cette architecture.

Architecture de base via Conroe

C'est à la suite de ces problèmes que nous avons vu naître la micro-architecture Core. Intel a pris du recul et repensé sa stratégie de développement; Ils ne rechercheraient plus les fréquences les plus élevées possibles, mais une efficacité maximale grâce à un ensemble petit et fonctionnel.

Ils ont trouvé cette efficacité en développant l'expérience réalisée avec le processeur Pentium M, dérivé de la micro-architecture P6 déjà nommée, le prédécesseur de Netburst.

DIE intérieur d'un Core 2 Duo.

Le Pentium M partage de nombreuses similitudes avec ce qui deviendra plus tard Core, comme le jeu d'instructions en 12 étapes (augmenté à 14) ou la configuration de la mémoire L2 (augmentée par la suite). En outre, il a augmenté le nombre d'unités d'exécution à quatre et a introduit de nouvelles technologies axées sur son évolutivité, telles que Micro-Core.

Intel a publié sous Conroe en 2007 les processeurs Intel Core 2 Duo, mettant en évidence les modèles E6400, E6600 et X6800 dans la gamme extrême; ainsi que différentes itérations de l'architecture à des fins différentes, où Merom se démarque pour le marché portable et Kentsfield pour ses processeurs quad-core, le Core 2 Quad (mettant en évidence le Q6600).

Nehalem: le "tac" après le "tic"

En 2007, Intel a présenté le curieux modèle "tic-tac". Planification à long terme (communément appelée feuilles de route ) pour le développement et le lancement de vos architectures. Dans ce modèle, le «tic» correspond à l' amélioration du processus de fabrication (réduction du DIE), tandis que le «tac» est attribué aux changements d'architecture.

Le tac après le lancement de Conroe était Nehalem, l'architecture qui donnerait vie aux premiers processeurs Intel Core modernes, tout en accueillant les marques i3, i5 et i7.

Un saut générationnel dans la série Intel

Conroe a vécu plusieurs révisions au cours de ses deux années de vie: Wolfdale, Yorkfield ou Woodcrest en sont quelques exemples, mais le saut de première génération au sein d'Intel Core serait Nehalem.

Cette architecture a suivi les mêmes principes d'efficacité et d'évolutivité qu'Intel cherchait à s'éloigner de Netburst, mais elle a sauvé certaines des caractéristiques qui définissaient cette micro-architecture.

Intel Pentium dans Nehalem

L'intérieur de Nehalem. Image: Appaloosa (Wikimedia Commons)

Avec Nehalem, les pipelines avec plus de vingt étages reviendraient, ainsi que des technologies telles que l' Hyper-Threading ; mais les problèmes de prédiction ont également disparu, grâce à l'utilisation d'un prédicteur de second niveau et à l'amélioration d'autres technologies connexes, comme le détecteur de boucle . De plus, certaines des caractéristiques qui définissaient Conroe ont été conservées en faisant glisser les bases de cette architecture avec elle.

Pour éviter les problèmes du passé, Intel a commencé à appliquer une règle de proportion à partir du développement de l'architecture elle-même, toutes les fonctionnalités de l'architecture qui augmentent la consommation du processeur devraient avoir un double impact sur ses performances.

De plus, il s'agissait d' une architecture développée dans un souci de modularité. Les cœurs qui composaient chaque puce étaient indépendants et réplicables, ce qui facilitait la création de processeurs avec différentes configurations de cœur et étendait l'architecture au marché portable ou au monde des serveurs.

Nous vous recommandons de lire les guides et tutoriels suivants:

Avec Nehalem, Intel était conscient de ne pas tomber dans les mêmes problèmes Netburst. Un objectif que nous pensons qu'il a pu atteindre.

Police RetailEdge

Tutoriels

Le choix des éditeurs

Back to top button