Processeurs

Nnp, dlboost et keem bay, nouvelles puces Intel pour réseaux ia et neuronaux

Table des matières:

Anonim

Intel a annoncé un nouveau matériel dédié lors de son événement AI Summit le 12 novembre loin du marché de masse, NNP, DLBoost et Keem Bay. Ces produits sont sans aucun doute l'aboutissement de plus de trois ans de travail depuis les acquisitions de Movidius et Nervana au second semestre 2016 et la création de leur groupe AI Products, dirigé par Naveen Rao, co-fondateur de Nervana.

NNP, DLBoost et Keem Bay, nouvelles puces Intel pour l'IA et les réseaux de neurones

Rao a noté qu'Intel est déjà un grand acteur dans le secteur de l'IA et que ses revenus en IA dépasseront 3, 5 milliards de dollars, contre plus de 1 milliard en 2017. Intel a déjà un matériel différent pour tous. Fronts OpenVINO pour IOt, Agilex FPGA, Ice Lake sur PC, DLBoost de Cascade Lake, et encore plus loin, ses futurs graphiques discrets.

Processeurs: DLBoost

Intel a démontré la compatibilité avec bfloat16 au Cooper Lake 56-core qui sera disponible l'année prochaine dans le cadre de sa gamme de fonctions AI DLBoost dans ses processeurs. Bfloat16 est un format numérique qui atteint une précision similaire à celle de la virgule flottante simple précision (FP32) dans la formation AI.

Intel n'a pas fourni d'estimation de l'amélioration des performances, mais a indiqué que, à des fins d'inférence, Cooper Lake est 30 fois plus rapide que Skylake-SP. Côté PC, Ice Lake intègre les mêmes instructions DLBoost AVX-512_VNNI que celles de Cascade Lake.

Movidius: Keem Bay VPU

Dans le cadre de sa stratégie vers l'intelligence artificielle, comme les caméras intelligentes, les robots, les drones et la VR / AR, Intel a acquis Movidius en 2016. Movidius appelle ses puces basse consommation des «unités de traitement de la vision» (VPU). Ils disposent de capacités de traitement du signal d'image (ISP), d'accélérateurs matériels, de processeurs MIPS et de processeurs vectoriels programmables 128 bits (VLIW) que vous appelez cœurs SHAVE.

Visitez notre guide sur les meilleurs processeurs du marché

Intel a maintenant détaillé ce qu'il appelle le "Mov Genus VPU" Gen 3 "de Keem Bay. Selon Intel, il a une performance d'inférence plus de 10 fois supérieure à celle du Myriad X et consomme la même quantité d'énergie.

Processeurs de réseau neuronal Nervana (NNP)

Intel a des NNP pour la formation et l'inférence du réseau de neurones profond. Le NNP-I d'Intel pour l'inférence est basé sur deux cœurs Ice Lake Sunny Cove et douze cœurs d'accélérateur ICE. Intel affirme qu'il offrira d'excellentes performances par watt et une densité de calcul. Dans son facteur de forme M.2, il est capable de 50 TOPS à 12W, ce qui équivaut à 4, 8 TOPS / W, comme annoncé précédemment. Intel a révélé que le facteur de forme de la carte PCIe consomme 75 W et produit jusqu'à 170 TOPS (avec une précision INT8).

Intel a réitéré sa grande efficacité de mise à l'échelle quasi-linéaire de 95% pour 32 cartes, contre 73% pour Nvidia.

Intel a préparé un large assortiment de puces pour tous les fronts, IA, 5G, réseaux de neurones, conduite autonome, etc., sur un marché qui a généré cette année des revenus estimés à 10 milliards de dollars. Nous vous tiendrons informés.

Tomshardware font

Processeurs

Le choix des éditeurs

Back to top button