Intel annonce ses GPU Arc, mais pas encore pour PC de bural ! |
————— 30 Mars 2022 à 16h00 —— 26621 vues
Intel annonce ses GPU Arc, mais pas encore pour PC de bural ! |
————— 30 Mars 2022 à 16h00 —— 26621 vues
Si l’agencement interne des futures GPU ARC d’Intel n’est plus un secret depuis l’Architecture Day sauce 2021, les produits n’étaient, eux, pas encore entre nos mains. Bonne nouvelle : cette période est désormais derrière nous : en cet auguste début de soirée, le fondeur de Santa Clara se fend en effet de l’annonce de ses cartes graphiques dédiées — la fameuse série ARC Alchemist — mais… uniquement sur les PC portables. La chose est classique pour les premières séries d’une nouvelle génération (Broadwell y avait notamment eu droit, tout comme Ice Lake et Tiger Lake) et ne manquera pas de faire quelques déçus, mais c’est comme ça épicétout !
Notez le teasing des versions PCIe, prévues pour l’été (@18:00)
Tout comme les CPU, Intel a organisé sa gamme selon 3 dénominations : les ARC 3 sont destinés à l’entrée de gamme, les ARC 5 pour le milieu de gamme et les ARC 7 pour les cartes les plus performantes. Au niveau des dates de disponibilités, seule la série 3 est commercialisée dans la foulée ; pour les 5 et 7, il faudra attendre cet été. De plus, si les GPU sont bien en vente, il faut comprendre « pour les intégrateurs » — famille mobile obligeante —, nous attendons ainsi une mise en rayon effective des modèles équipés courant avril.
Nomenclature héritée de la série Core : pourquoi pas ?
Mais trêve de blabla, et regardons d’un peu plus près les puces annoncées, au nombre de 5 (dont seuls les A350M et A370M sont annoncés disponible aujourd’hui) :
Avec entre les 6 à 32 cœurs Xe, 4 et 16 Gio de GDDR6 maximum pour un TDP (maximal toujours) de 150 W pour des cartes mobiles, cette série s’annonce plutôt positivement, sur le papier tout du moins. Les 64 bits de bus devraient suffire pour l’entrée de gamme mobile, mais nous émettons par contre des doutes sur leur bien-fondé une fois transposés sur une carte PCIe.
En ce qui concerne la fréquence, Intel s’est voulu très rassurant : Xe intègre un système de contrôle dynamique qui nous a fortement rappelé le GPU Boost des verts : ainsi, la fréquence rapportée ici n’est qu’indicative et représente qu’une « moyenne conservative » des fréquences observées. En clair : vous pouvez espérer mieux, et des variations autour de ces chiffres sont tout à fait normales, surtout si la carte a été configurée avec un TDP supérieur au TDP minimal annoncé sur ces caractéristiques.
Autre point positif : toutes les puces sont munies du même Display Engine et des Media Encoders : de quoi supporter 4 écrans simultanément (DP 1.4 et 2.0 10G ainsi que le HDMI 2,0 b), avec un maximum de 2 écrans 8K 60 Hz (ou 4 4K 120 Hz, et le 360 Hz pour le 1080p et 1440p) : de quoi satisfaire la majorité des clients ! Côté encodage, Intel promeut le AV1 (en plus du VP9, AVC et HEVC) avec le support du décodage 8K 60 FPS 12-bit, et l’encodage 8K en 10-bit.
Si vous êtes choqués par le faible nombre de cœurs, alors un petit rappel architectural s’impose : Xe est divisé en slices, 8 maximum ici — celles des Intel ARC Alchemist étant 1,5 fois plus efficaces énergétiquement que celles de la génération précédente, au passage. Une slice se décompose elle-même en 4 « cœurs » Xe, eux-mêmes comportant 192 Kio de cache convertible en scratchpads, 16 unités vectorielles 256-bit (demi précision à un ratio 2:1 soit 32 ops/cycle, et support de l’INT8/à raison de 64 ops/cycle) et 16 unités matricielles 1024-bit (organisation systolique pour 128 multiplications-accumulation/cycle). Notez que tout ce beau monde peut fonctionner en parallèle de manière similaire à l’Async Compute, et les unités vectorielles peuvent également paralléliser leurs calculs entier et flottant : si c’est pas beau la technologie !
Dans la pratique, deux puces (seulement) sont au programme, tout du moins pour le moment : l’ACM-G10 et l’ACM-G11. Les GPU annoncés ici ne sont ainsi que des dérivés castrés de ces deux bousins, et il n’est pas trop dur de deviner qui est quoi : les ARC 3 tiennent de l’ACM-G11, et les autres de l’ACN-G10 : il n’y a qu’à comparer les caractéristiques !
Notez les 96 bits de bus du G11, qui laissent présager une version légèrement gonflée, possiblement pour les déclinaisons PCIe ? Mystère, même si cela ne devrait pas trop tarder !
Niveau performance, Intel ne se mouille pas trop — et cela n’est pas bon signe, en règle générale — : ARC aurait 8x les performances de la Gen9 (l’iGPU de Skylake : pas trop dur !) et représenterait un facteur 2 par rapport aux Xe LP actuellement dans le commerce. Selon les mesures des bleus, cela serait suffisant pour dépasser les 60 FPS sur un bon tas de titres, à condition de rester raisonnable sur les détails. À ce petit jeu, mieux vaut attendre les tests indépendants pour obtenir un résultat fiable…
Espérons que « The Witcher » soit bien le troisième opus de la série !
Puisque la firme est à la fois sur le marché des CPU et des GPU, les bleus — tout comme les rouges — ont développé un système de partage dynamique du TDP. Nommé Dynamic Power Share, son rôle et d’attribuer à la volée tous les 100 ms l’enveloppe thermique du processeur et de la carte graphique pour des performances optimales. Typiquement, en jeu, le proco n’a pas besoin d’utiliser tout sa puissance, là où le GPU crache souvent ses tripes sur le rendu 3D.
Dans le même genre, mais pas du tout les mêmes applications, la puissance des différents accélérateurs présents (CPU, iGPU et dGPU) peut être combinée, par exemple sur des tâches de machine learning par une technologie nommée HyperCompute (avec le framework OpenVINO en toile de fond). Un bousin qui sera plus utile pour les créateurs que les joueurs, mais bienvenu : espérons que la chose s’étende aux autres combinaisons CPU/GPU!
De plus, les Media Encoders de l’iGPU et du dGPU peuvent aussi être utilisés conjointement : il s’agit alors d’HyperEncode (c’est HyperChouette, dis donc !). Cette fois-ci, c’est au framework oneVPL d’officier afin de répartir des Group Of Frames (GOP) entre les différents modules d’encodage pour des performances toujours plus élevées.
Enfin, XeSS, le DLSS sauce bleu, est bien sûr de la partie, avec 14 titres annoncés compatibles pour cet été : à voir comme l’écosystème évolue de ce côté-là.
Côté logiciel, Intel déclare avoir bien bossé sur son ARC CONTROL : un gestionnaire de pilotes chargé de leur paramétrage et de leur mise à jour (automatique/sur une période définie/manuelle). Entre la possibilité de vérifier ses températures, fréquence, tension, le contrôle de la puissance et des ventilateurs (enfin, pour les cartes PCIe seulement…), ainsi qu’une intégration avec les plateformes de streaming tierces — Intel a annoncé travailler avec OBS, mais sans plus de détail —, nous sentons fortement l’influence d’AMD sur la chose, pour notre plus grand plaisir !
De plus, deux technologies sont présentées aujourd’hui par Intel afin de réduire le tearing et réduire la latence en jeu : le Speed Sync et le Smooth Sync. Le premier consiste à se baser sur la V-Sync : de base, sur cette technologie, le moniteur envoie un signal lorsqu’une nouvelle image est prête à être affichée, et la carte se tourne les pouces tant qu’une image est disponible pour le moniteur. Ici, il est question de faire tourner le GPU à balle, comme si la V-Sync n’existait pas, mais de n’envoyer que la dernière image entièrement calculée à l’écran. Ainsi, la latence est minimisée entre le calcul et l’affichage de l’image… mais, si votre PC a du mal à calculer plus d’images que ce que votre moniteur ne peut afficher, le Speed Sync ne vous sera d’aucune utilité : à réserver donc pour des titres orientés e-sport, compétitifs et peu gourmands (League of Legends ?).
Quant au Smooth Sync, l’idée est bête comme chou : puisque le tearing est désagréable de par la séparation nette entre deux frames, hé bien une post-passe va venir effectuer un gradient (une transition « douce » style fondu) entre les deux images. Résultat : la séparation devrait être nettement moins perceptible à l’œil, bien qu’il s’agisse d’un cache-misère plus que d’une réelle solution technique. À voir ce qu’il en sera en pratique !
Une astuce probablement efficace sur les titres peu nerveux
Un poil avant ?De l'APU AMD pour la dernière machine de minage d'ASRock ? | Un peu plus tard ...Comptoiroscope • Le DLDSR, l'anti anti-aliasing signé NVIDIA ? |