Cartes graphiques

Ati technologies inc: histoire, modèles et développement

Table des matières:

Anonim

ATI Technologies était une entreprise incontournable dans l'histoire des cartes graphiques. A l'intérieur, on vous raconte toute son histoire. Voulez-vous le savoir?

L'histoire des ordinateurs personnels est marquée par des sociétés comme ATI Technologies car elles ont réussi à développer ce qui était auparavant des ordinateurs. Dans ce cas, ATI s'est consacré à la fabrication de cartes graphiques et au monde du graphisme 3D dans un contexte marqué par d'autres constructeurs comme 3dfx interactive ou Nvidia. Plus tard, il a fini par être absorbé par AMD et son nom deviendrait AMD Radeon en 2010.

Ensuite, vous avez à votre disposition l'histoire d'un des meilleurs fabricants de cartes graphiques de l'histoire: ATI Technologies.

Index du contenu

1985, l'année de sa fondation

ATI est fondée par Lee Ka Lau, Kwok Yuen Ho, Francis Lau et Benny Lau au Canada. Ensuite, il s'appellerait Array Technology Inc et ce serait un «simple» fabricant d'équipement, en particulier des cartes graphiques intégrées. En ce sens, IBM et Commodore travaillaient également sur la même chose; en fait, IBM était l'un des fabricants les plus puissants au monde.

En octobre de la même année, ATI a utilisé la technologie ASIC pour développer son premier contrôleur graphique, qui serait le premier graphique intégré.

Tout a commencé avec " Small Wonder ".

1987, EGA Wonder

En lisant, vous verrez que les cartes graphiques seront marquées par la technologie des moniteurs. De plus, on pourrait dire que le développement des cartes graphiques et des écrans va de pair.

A l'heure actuelle, ATI sort sa première carte graphique: l' EGA Wonder. Il a été nommé ainsi parce que les moniteurs de la fin des années 1980 incorporaient des graphiques EGA. Cette carte fonctionnait avec n'importe quelle interface graphique, système d'exploitation ou moniteur.

Ce fabricant s'intéressait aux ordinateurs personnels, il a donc essayé de leur fournir des graphiques plus rapides.

1988, VGA Wonder

Chez ATI, ils se demandaient encore à quoi ressemblerait le monde des cartes graphiques, mais cette fois avec la VGA Wonder. Il avait deux versions: une avec 256 ko DRAM et l'autre avec 512 ko DRAM. Ce graphique était une carte ISA 16 bits fonctionnant dans un emplacement ISA 8 bits.

Il avait une puce appelée ATI 18800 et il supportait le mode graphique SVGA. De plus, il se synchronise automatiquement avec le moniteur.

Cette entreprise commençait à montrer sa tête dans un secteur délicat avec beaucoup de concurrence. Cependant, je ne savais pas que la guerre des graphismes 3D se profilait dans les années 90.

1990 ATI Mach 8

Ce graphique sorti dans les années 90, a été le début des accélérateurs graphiques 2D sur les ordinateurs personnels. Mach8 était comme une extension de la Wonder et ils portaient une puce clonée de l' IBM 8514 / A avec des extensions. Ce fut l'une des premières puces d'accélération graphique 2D sur le marché.

Cependant, une autre carte VGA supplémentaire était nécessaire pour utiliser le Mach8. Cela coûterait très cher de profiter des graphismes 2D car il fallait acheter une carte VGA et la Mach8. Cet ATI branché sur le port ISA ou MCA, reproduisait des couleurs 8 bits et avait deux versions:

  • 512 KB . 1 Mo.

La puce Mach8 serait utilisée dans les modèles ultérieurs et serait un graphique capable de traiter des graphiques sans processeur.

1992 Mach32

Avec le Mach32, les choses commençaient à devenir sérieuses parce que nous commencions à voir plus que des cartes décentes sur le marché. À l'époque, il y avait MS-DOS, donc Mach32 incorporait un accélérateur GUI 32 bits pour ce système d'exploitation. De plus, l'interface mémoire était de 64 bits et nous avions deux modèles: un 1 Mo et l'autre 2 Mo.

Le Mach32 a intégré un processeur VGA, de sorte qu'il suffisait à lui seul pour fonctionner. Comme dernières données, j'utilisais toujours ISA et MCA, mais aussi PCI … un slot qui serait très célèbre dans les années 90. De plus, il était compatible avec les nouveaux modes de couleurs: 15 bbp, 16 bbp et 24 bbp, comme avec la puce IBM 8514 / A.

En 1993, ATI Technologies Inc. serait inscrite aux bourses de Toronto et NASDAQ. Par curiosité, son symbole commercial ne serait pas ATI, mais ATY.

1994 Mach 64

Cette année, ATI lancerait l'une des dernières cartes graphiques de la famille "Mach". Nous commençions à entrer dans le préambule du graphisme 3D. Pendant ce temps, ATI fait sa propre chose:

  • Accélérateur GUI 64 bits. 1 Mo jusqu'à 8 Mo de mémoire vidéo DRAM, VRAM ou SGRAM, une mémoire pour les adaptateurs graphiques qui avaient des fonctions supplémentaires. Interface de mémoire 64 bits. Ports ISA, VLB et PCI.

La puce Mach64 était complètement nouvelle et a été l'une des premières cartes graphiques à accélérer la vidéo en mouvement. Cette puce serait le protagoniste de la 3DRage, que nous verrons plus tard.

Cette même année, ATI lance un logiciel multilingue compatible avec 13 langues différentes. Ce graphique donnerait vie à Graphics Xpression ou Graphics Pro Turbo.

1996, 3D Rage I, II

Les graphiques 3D sont venus sur les ordinateurs personnels de 3dfx Interactive, nVidia et ATI. Plus précisément, la 3D Rage combine l' accélération 3D, l' accélération vidéo et l'accélération 2D. En plus d'être le successeur de la série Mach, il utilisait la même puce que le Mach 64.

3D Rage est sorti en avril 1996 et utiliserait 3D Xpression, car il serait compatible avec MPEG-1. Il s'agissait de la première puce 3D de l'histoire des cartes graphiques, ce qui signifiait plus d'un million de puces vendues.

Mais cela ne faisait que commencer.

Rage II

La 3D Rage 2 a presque incliné son prédécesseur en termes de graphismes 3D. Il intègre une puce mach64 restructurée pour de meilleures performances 2D. En fait, il est compatible avec sa sœur aînée, Rage 1.

Ce graphique a amélioré la génération précédente dans presque tout:

  • Compatible PCI. Augmentation de 20% des performances 2D . Prise en charge des pilotes MPEG-2 pour Direct3D, Criterion RenderWare, Reality Lab et QuickDraw, entre autres. Prise en charge de solutions professionnelles, telles que AutoCAD. Compatible avec Windows 95, Mac OS, Windows NT, OS / 2 et Linux.Support DirectX 5.0.

De plus, son cœur fonctionnait à 60 MHz, sa mémoire SGRAM jusqu'à 83 MHz et il avait une bande passante de 480 Mo / s. C'était un excellent produit, présent dans de nombreux ordinateurs personnels, tels que le Macintosh G3.

1997 Rage Pro et le début de la guerre

Nous disons que la guerre est servie car nous sommes dans une année 1997 très compétitive en termes de graphisme 3D avec le nouveau nVidia RIVA 128 et le Voodoo de 3dfx. Le Rage Pro était la solution contre ces deux-là, mais ATI a fait plusieurs erreurs: ils n'ont pas surpassé leurs rivaux, ni soutenu OpenGL.

A cette époque, OpenGL était indispensable pour profiter des meilleurs jeux vidéo. ATI essaie à nouveau avec Rage Pro Turbo, mais échoue à nouveau contre ses rivaux car ses performances ne sont pas celles annoncées et le Turbo ne s'est pas beaucoup amélioré sur le Pro.

Par conséquent, nous trouvons une ATI en tant que fabricant solide de cartes graphiques pour avoir conclu des contrats avec des sociétés comme Apple pour l' intégration de graphiques sur Mac. De plus, il travaille à apporter des puces graphiques à la télévision. Sans oublier qu'elle présente la première puce 3D pour ordinateurs portables, qui porterait le nom de Rage LT.

Cependant, la concurrence pour les graphismes 3D serait plus difficile que ce que l'on pensait auparavant car, malgré le fait que la Rage dispose d'un accélérateur Direct3D 6 avec accélération DVD, ils ne semblaient pas prendre leur envol contre leurs rivaux.

1999 Rage 128 et Rage 128 PRO

Rage 128 était compatible avec Direct3D 6 et OpenGL 1.2. Il a apporté la nouveauté d' IDCT, le premier rendu à double texture d' ATI. De plus, nous avons appris à connaître leur processeur capable de reproduire des couleurs 32 bits, comme le 16 bits, bien qu'explicablement pire dans ce mode.

Cette carte graphique était destinée à concurrencer la RIVA TNT et la Voodoo 3, une carte décadente. En revanche, Matrox a gêné ses G200 et G400. Enfin, il a pu rivaliser avec eux et cela s'est très bien passé car le Voodoo 3 ne supportait pas le 32 bits.

Pour finir de le décrire, il incorporait 250 MHz RAMDAC et 2 ports AGP.

Rage 128 PRO

Lancé en août 1999, il a intégré des puces de 250 nm et pris en charge DirectX 6.0. C'était le successeur du Rage 128 et sa puce avait des améliorations liées à la compression DirectX, un meilleur filtrage de texture, la prise en charge DVI et plus de ports AGP. Ce graphique a émergé pour rivaliser avec le Voodoo 3 2000, le TNT2 et le Matrox 6400.

La vérité est que ce n'était pas un produit qui pouvait vous concurrencer avec les modèles mentionnés parce que son horloge était plus lente. Certes, ATI a réussi à briser tous les repères, mais en fin de compte, ses performances de jeux vidéo ont déçu.

La prochaine série s'appellerait Rage 6, mais elle changerait son nom en Radeon, l'un des noms les plus connus sur les cartes graphiques.

2000, ATI Radeon DDR

De Rage, nous irions à Radeon, une ligne qui donnerait beaucoup à parler tout au long du 21e siècle. Cette nouvelle série arrivera en avril 2000, date à laquelle la Radeon DDR sera présentée. Confrontée à des échecs continus contre nVidia, ATI ne voulait pas échouer, elle a donc pris le DDR très au sérieux.

Pour clarifier le contexte, nous étions à l'ère du Pentium 4 et d' AMD Athlon, il y avait donc des graphismes 3D marqués par des jeux comme Quake.

Introduit cette série, passons à entrer pleinement dans le DDR. Il a été construit sur des puces de 180 nm fabriquées par TSMC. Il a pris en charge DirectX 7.0 et a apporté les nouvelles de 2 pixels shaders et 1 vertex shader ainsi que 6 TMU et 2 ROP. En outre, il était compatible avec OpenGL 1.3. Enfin, il apporterait la technologie HyperX et incorporerait la première puce de la série: la R100.

Nous avions deux modèles: 32 Mo et 64 Mo. Le dernier, a une horloge plus rapide (183Mhz) et avec une capacité LIVE. Son principal rival était la série GeForce de nVidia, mais ATI n'a pas rendu le monde fou avec ses Radeon, même si c'était un produit qui fonctionnait très bien.

Radeon 8500 2001

En 2001 , ATI a opté pour le rapport qualité / prix, car elle n'a pas réussi à déloger nVidia. Dans ce domaine, il était difficile de battre ATI car cela a fait un grand mouvement commercial.

L'ATI Radeon 8500 est sortie le 14 août 2001. Il utilisait des puces de 150 nm et était destiné à la plupart des joueurs . Dans cette série, nous aurions 3 cartes:

  • 8500, les haut de gamme. Ils ont incorporé 4x, 64 Mo ou 128 Mo AGP, 250 MHz et un haut débit de 8 Go / s. 8500LE, les milieu de gamme. Ils sont venus avec 4x, 64mb ou 128mb AGP, 275MHz et un haut débit 8, 8 Go / s 8500XT, la gamme enthousiaste. Il ne s'est pas lancé, mais transporterait 4x, 128 Mo, 300 MHz AGP et un haut débit de 9, 6 Go / s

Le XT a été annulé car avec seulement 300 MHz il aurait été écrasé par la GeForce 4 Ti4600. ATI s'est donc concentré sur le milieu de gamme et l'extrémité inférieure.

2002 Radeon 9000

La même année, ATI sort le 8500 All-In-Wonder, qui est un succès car il intègre un tuner de télévision analogique et une radio FM. Dans le secteur multimédia, il a dévasté sans complexes.

Entrant pleinement dans le graphisme 3D, la Radeon 9000 appartient à la série R300 et a été lancée en août 2002. Il s'agit d'un GPU qui a pris en charge Direct3D 9.0 et OpenGL 2.0. En outre, il était compatible avec Windows 98, 98SE, Me, 2000 et XP.

Il avait 64 Mo ou 128 Mo de DDR, 200 MHz de cœur et 500 MHz de mémoire. Enfin, sa bande passante était de 8 Go / s. C'était un graphisme quelque peu léger, car il avait des spécifications inférieures à celles du 8500.

Radeon 9600 Pro 2003

Les choses deviennent sérieuses avec la sortie de la Radeon 9600 Pro le 1er octobre 2003. Avec des puces de 130 nm et une mémoire de 128 Mo, il était capable de fournir une bande passante de 9, 6 Go / s. Il a pris en charge OpenGL 2.0 et DirectX 9.0. Il avait des sorties DVI, VGA et S - Video. Il montait la puce RV360.

Il est vrai que le 9600 Pro avait pour mission de remplacer le 9500 Pro, mais il ne l'a pas fait, même s'il était beaucoup moins cher. Nous sommes entrés dans une montre de 600 MHz concentrée sur un milieu de gamme qui a donné des performances spectaculaires.

Le seul inconvénient était qu'il ne supportait pas Shader Model 3.0. D'un autre côté, il faut souligner l'avancée que Mobility Radeon 9600 représentait dans les graphiques pour ordinateurs portables.

9800XT

Cependant, ATI a surpris avec le 9800XT la même année, une carte qui faisait peur. C'était un graphique qui avait 256 Mo de mémoire, une bande passante de 23, 36 Go / s et une horloge GPU de 412 MHz, comme une horloge mémoire de 365 MHz, capable de 730 MHz.

ATI est revenue sur le ring et a rivalisé de vous à vous avec Nvidia. Bien sûr, à un prix très élevé.

2004 Radeon X700

La nouvelle série Radeon R420 serait marquée par les graphiques X700 et X800. Le X700 n'avait pas une bonne entrée car il n'était pas compatible avec le Shader Pixel 3.0, malgré un prix très abordable. Les GeForce 6600 et 6800 ont plongé le chat dans l'eau. PCI - Express a commencé à être utilisé.

ATI a continué de lancer des modèles haut, moyen et bas de gamme. Dans ce cas, le X700 SE, X700 LE, X700, X700 Pro et celui qui n'est jamais sorti: le X700XT. Cette série ne s'est pas arrêtée, il faudrait donc attendre encore un an.

NOUS RECOMMANDONS AMD baisse le prix de ses cartes graphiques

Cette année, nous avons vu la plate-forme Nvidia SLI (appropriée à partir de 3dfx), mais ATI a répondu avec Crossfire, qui était une plate-forme très similaire qui combinait la puissance de ses graphiques x2, x3 ou x4, en fonction des graphiques installés.

2005 Radeon X850 XT

Nvidia a sorti le FX 5800 Ultra, donc ATI l'a concurrencé avec son nouveau modèle: X850 XT.

Ce graphique était vraiment rapide, mais la situation avec le Shader Model 3.0 s'est aggravée car il y avait beaucoup de jeux qui ne fonctionnaient pas sur l'équipement AMD. Nous avions donc un graphisme spectaculaire, mais cela dépendait d'une communauté d'utilisateurs pour «pirater» le jeu en question et pouvoir y jouer.

Le X850 XT avait 256 Mo de GDDR3, une bande passante de 34, 56 Go / s, une horloge de 520 MHz et une mémoire capable d'atteindre 1080 Mhz. Son gros inconvénient: le Shader Model 2.0b.

Il faut dire qu'ATI a battu Nvidia dans d'autres gammes, comme cela est arrivé à la GeForce 6800 GT.

En 2005, ATI a recommencé avec le X1300 Pro. Malgré sa compatibilité avec Shader Model 3.0… il a de nouveau été battu par Nvidia.

2006 X1650 Pro

Nous faisons partie de la série R520 développée par ATI et produite TSMC. Toute cette série aurait Direct3D 9.0c, Shader Model 3.0 et OpenGL 2.0. Cela ne serait pas suffisant, même s'il pouvait rivaliser avec Nvidia.

Le X1650 Pro a utilisé un noyau RV535, ce qui le rend plus frais et plus efficace. Nous étions en DDR2, 256 Mo, fréquence 800 Mhz et une bande passante de 12, 8 Go / s. Il a bien concouru dans le milieu de gamme, mais rien de plus.

X1950 XTX, un coup sur la table

Le nom était effrayant, et ce n'était pas moins parce que le X1950XTX avait vaincu la Geforce 7, renversant le royaume à Nvidia. C'était très cher, un poêle, mais terriblement rapide. Il a été présenté le 23 août 2006.

Il supportait la mémoire GDDR4, fonctionnait à 1 GHz et offrait 64 Go / s de bande passante. Non seulement cela, il avait un GPU Core 650 MHz et 512 Mo de mémoire vidéo.

2007 HD 2900 XT

Nous sommes passés à la série R600, sortie le 28 juin 2007. Ce sont les cartes graphiques HD 2000, qui rivaliseraient avec GeForce 8. En tant que modèle hors concours, le HD 2900 XT était extrême même dans sa conception de flammes argentées dans son boîtier rouge.

Ses performances étaient brutales, mais elles ont été encore améliorées avec la mise à jour du pilote. Il incorporait un ventilateur qui faisait plus de bruit que la guerre et qui était insuffisant pour garder les graphiques frais. Bien qu'il ait été annoncé qu'il incorporerait 1 Go de mémoire, ils étaient finalement de 512 Mo.

HD 3850

ATI a dû se recentrer sur d'autres niches car la nouvelle GeForce l'a laissé en échec. De cette façon, le HD 3850 a émergé, des cartes graphiques qui fonctionnaient très bien et sont devenues populaires pour leurs performances dans les gammes moyennes.

2008, le retour au trône

Nvidia a dominé les graphismes haut de gamme et ATI semblait Rocky Balboa étourdi, donnant des accroupissements précis dans les derniers tours. Les deux marques poussaient sans pitié.

HD 3870 X2

Vous ne devez jamais abandonner. ATI a lutté tous les 8 mois pour sortir quelque chose qui pourrait rivaliser avec Nvidia. Cette fois, ils ont mis beaucoup de force brute, car il s'agissait de 2 cartes graphiques en 1.

Sans surprise, les besoins en électricité étaient brutaux et il fallait tenir compte des alimentations (et de la facture d'électricité). Quoi qu'il en soit, ce graphique a regagné le trône grâce à ses excellentes performances.

HD 4670

ATI savait que son principal atout était le milieu de gamme car elle pouvait vendre de très bonnes cartes graphiques à un prix modéré. Nous étions à une époque où la HD régnait et 720p occupait tous les ordinateurs. Cette carte graphique GDDR3 de 512 Mo fonctionnait très bien et était compatible avec DirectX 10.1, OpenGL 3.3 et Shader Model 4.1.

Ce mini graphique était parfait pour l'équipement multimédia ou les petits ordinateurs (HTPC) Bien pensé ATI!

HD 4870, le plus populaire de tous

Elle est rapidement devenue populaire car c'était la meilleure carte graphique au meilleur rapport qualité / prix du marché. Il a renversé Nvidia une fois de plus avec un graphique rond dans tous les sens. Ce qui a le plus attiré, c'est son prix bon marché, 299 $. Il a été publié le 25 juin 2008.

Ses spécifications étaient magnifiques:

  • PCIe 2.0. 1 Go ou 512 Mo GDDR5. Horloge GPU: 750 MHz. Horloge mémoire: 3600 MHz au maximum de performances. Elle nécessitait 350 W d'alimentation.

ATI a sorti une version X2 pour les plus exigeants. Cependant, il semble que les pilotes auraient pu mieux profiter de leurs performances.

2009, HD 4890, HD 5770 et HD 5970

HD 5770

Nous sommes dans la dernière année d'ATI en tant que société indépendante de cartes graphiques. Pratiquement personne ne le savait, mais cela n'a pas été un changement brutal aujourd'hui.

À partir du HD 4890, ce fut une refonte du HD 4870 et n'a pas eu le succès que l'ATI attendait de lui. Il avait de bonnes spécifications et de bonnes performances en Full HD, mais rien n'était plus éloigné de la réalité: Nvidia dominait une fois de plus fortement avec sa GTX.

Pour cette raison, la même année, le HD 5770 serait présenté, une carte de milieu de gamme qui a conquis de nombreuses maisons. Ses principales raisons:

  • Faible consommation Très économique Très bonne performance

Cette société avait été reléguée dans la gamme moyenne inférieure, donc personne ne s'attendait à un autre coup à la table, comme ils l'ont fait avec le HD 4870 ou le X1950XTX. En cette année, AMD était déjà présent dans l'entreprise, donc l'acquisition était un secret de polichinelle.

2009 se terminerait pour ATI avec deux dernières versions: le HD 5780 et le HD 5970. C'étaient des cartes graphiques haut de gamme pour le prix, mais pas pour les performances. Ne vous méprenez pas, ses performances étaient bonnes, mais elles ne correspondaient pas au meilleur de Nvidia, dont les modèles valaient beaucoup plus cher.

Le HD 5970 était un graphique X2, comme ceux que nous avions l'habitude de voir. ATI est revenu pour répondre à Nvidia avec cette superbe carte graphique, mais sa consommation a distancé chaque acheteur.

2010, fin de l'ATI

La fin d'ATI allait de pair avec sa dernière version: la HD 5670. Ce graphique a ouvert une nouvelle possibilité pour le milieu de gamme sur le marché car il a apporté de très bonnes spécifications à un prix compétitif. Malgré l' achat d' AMD en 2006, la marque ATI a fini par disparaître en 2010. Le premier graphique AMD serait le HD 6850, un graphique assez bon et continu.

C'est ainsi que finissent les tristes histoires. ATI a connu de très bons moments dans les années 90, mais le 21e siècle a été difficile. Le truc Nvidia avait beaucoup de mérite car il n'avait pas besoin de prendre des graphismes monstrueux comme ATI pour avoir les meilleures performances dans les jeux vidéo. Sa R&D était meilleure que celle d'ATI, sans débat.

Nous vous recommandons de lire les meilleures cartes graphiques

Que pensez-vous de l'histoire d'ATI? Partagez vos impressions!

Cartes graphiques

Le choix des éditeurs

Back to top button