COMPTOIR
register

Preview • Intel ARC A770 LE 16 Go & A750 LE

pcat

• Consommation des cartes

Pour déterminer la consommation des cartes graphiques (seules), nous avions introduit fin 2015 un protocole s'appuyant sur un Riser PCIe x16 à partir duquel nous "extrayions" les différentes alimentations 12 V et 3.3 V fournies par ce port. Nous mesurions ensuite les tensions et intensités sur ces alimentations, ainsi que celles externes (connecteurs PCIe à 6 ou 8 pins), à l'aide de 3 pinces ampèremétriques Fluke 325 et d'un multimètre Fluke 179. Cela nous permettait de calculer la consommation réelle des cartes. Nous utilisons à présent PCAT, qui est en fait une version professionnalisée de notre protocole, tout en contrôlant certaines mesures de manière aléatoire, via notre précédent kit.

 

• Consommation au repos

Lors de nos premières mesures, les 2 cartes d'Intel absorbaient plus de 40 W et aucune différence n'était à noter entre le mode 60 et 144 Hz. Contacté à ce sujet, Intel nous a invités à éditer le profil de consommation sous Windows pour forcer l'économie maximum au niveau du lien PCIe. La consommation a alors été divisée par 2 pour les Arc A7. Malgré tout, le niveau de consommation reste élevé en comparaison des solutions concurrentes, la fréquence mémoire calée à sa vitesse maximale, pouvant potentiellement expliquer cela. Quoi qu'il en soit Intel nous a indiqué investiguer à ce sujet. A 144 Hz, l'augmentation est significative à l'instar des Radeon.

 

 

• Consommation en charge

En charge à présent, l'Arc A750 va absorber un peu plus de 200 W, sa grande sœur étant plutôt autour des 220 W. Elles ne sont donc a priori pas limitées par leur enveloppe thermique fixée à 225 W. Cela étant, la plus petite des deux se retrouve en face de la RTX 3060 Ti, qui n'a pas du tout les mêmes performances en jeu. Si ces valeurs de consommation restent tout à fait acceptables dans l'absolu, elles n'ont rien d'exceptionnel surtout lorsque l'on prend en compte l'avantage du procédé de gravure dont dispose pour le moment Intel. 

 

 

Nous verrons ce qu'il en est des conséquences sur l'efficience un peu plus bas, mais avant cela, rappelons que depuis que nous utilisons PCAT, nous ne nous contentons pas de relever la consommation au sein d'un ou deux jeux, mais de l'intégralité de ces derniers. Pour avoir une vue plus exhaustive, voici donc le tableau récapitulant les consommations moyennes relevées (la plus élevée parmi les "passes" de chaque jeu).

 

Puissance moyenne absorbée (W) :
A750 LEA770 LE 16 Go
Cyberpunk 2077 199

217

DeathLoop 210 228
Doom Eternal 219 229
Dying Light 2 205 221
F1 22 192 214
Far Cry 6 186 212
Flight Simulator 221 229
Forza Horizon 5 177 200
Ghostwire Tokyo 221 229
God of War 199 226
Hitman III 211 227
Metro Exodus 206 222
Quake II RTX 221 228
Total War : Warhammer III 202 223

 

Comme vous pouvez le remarquer, il y a des variations selon les jeux poussant parfois l'A750 au-delà des 200 W, mais le niveau de consommation reste toutefois du même ordre.

 

 

• Efficacité énergétique

Afin d'évaluer l'efficacité énergétique des cartes, nous réalisons un indice basé sur les performances et consommations respectives de ces dernières, lors des sessions de mesure. Bien entendu, cet indice ne représente que la situation au travers des jeux mesurés, avec ces scènes et niveaux de détails.

 

Les cartes d'Intel sont chanceuses, puisque nous avons repris les mêmes titres que ceux utilisés dans de précédents dossiers, et parmi ceux-ci, les deux où elles s'en sortent spécifiquement le mieux. Ainsi, sous Metro Exodus EE imposant le RT, le niveau atteint est supérieur à toutes les concurrentes du jour, à l'exception de la RTX 3060 Ti. Sous Dying Light 2 sans RT cette fois, elles s'en sortent à nouveau plutôt bien puisque seules les RX 6600 et à nouveau 3060 Ti font mieux. Dans un jeu beaucoup moins favorable par contre (CP 2077 sans RT), pas de miracle puisqu'elles terminent en queue de peloton.

 

 

Il est temps de passer, page suivante, à notre verdict.



Un poil avant ?

Réclamez votre câble 12VHPWR pour votre Seasonic

Un peu plus tard ...

2 moniteurs chez NZXT, les Canvas 25F et 27F

Les 48 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur de transit en Île-de-France, le Jeudi 29 Décembre 2022 à 10h14  
Hello la team.
Et uid des perfs en utilisation "pro" retouche photo, transcodage ? J'ai parcouru ce test depuisblon petit smartphone mais j'ai rien vu concernant ces utilisations.
Mise à jour de prévue ?
Merci
Bonne fin d'année
par SeBL4RD, le Mercredi 12 Octobre 2022 à 22h25  
par Un ragoteur 'ArthaX' du Centre-Val de Loire le Vendredi 07 Octobre 2022 à 17h06
Tant que c'est du DirectX 12 et du Vulkan, les GPU d'Intel s'en sortent bien pour un premier jet. Par contre pour du DirectX 9 et du OpenGL, c'est pas fameux, mais c'est dû aux traductions des fonctions DirectX9 vers du DirectX12.

Je vais attendre pour voir les ARC A580, mais c'est deux fois la puissance que je recherche, donc ça va dépasser les 200€. Je dois vraiment changer ma carte graphique.

Ce qui me rebut pour l'achat d'une carte graphique en ce moment, c'est que j'ai pas puissance et le prix exorbitant. J'ai juste besoin d'une carte milieux de gamme pour moins de 200€, comme au bon vieux temps des Radeon HD6850. Je veux juste joué en 1280x800 en 60ips, sans être en ultra. Je peux faire des concessions sur la beauté du rendu final.
Avec ma carte actuelle, je peux avoir du 200 à 250ips sur CSGO, et pourtant je limite à 122ips pour que 95%+ du temps je suis entre 118 et 120ips.
Une puce de GPU milieu de gamme n'a pas besoin de 400+mm², même en 10nm, c'est 200-mm². Je vais encore espérer avec la nouvelle génération qui va arriver, mais c'est pas gagné.

@++
Regarde le prix des occaz, les mineurs d'Eth ont finis leurs carabistouilles, tu trouve des 2070 Super dans les 200€. A ce prix la c'est la violence pour pas cher.
En 1920x1080 60 fps tu fais presque tout tourner en ultra. Perso je suis grand fan de SCUM, ça bouge pas d'un poil.
par Un ragoteur 'ArthaX' du Centre-Val de Loire, le Vendredi 07 Octobre 2022 à 17h06  
Tant que c'est du DirectX 12 et du Vulkan, les GPU d'Intel s'en sortent bien pour un premier jet. Par contre pour du DirectX 9 et du OpenGL, c'est pas fameux, mais c'est dû aux traductions des fonctions DirectX9 vers du DirectX12.

Je vais attendre pour voir les ARC A580, mais c'est deux fois la puissance que je recherche, donc ça va dépasser les 200€. Je dois vraiment changer ma carte graphique.

Ce qui me rebut pour l'achat d'une carte graphique en ce moment, c'est que j'ai pas puissance et le prix exorbitant. J'ai juste besoin d'une carte milieux de gamme pour moins de 200€, comme au bon vieux temps des Radeon HD6850. Je veux juste joué en 1280x800 en 60ips, sans être en ultra. Je peux faire des concessions sur la beauté du rendu final.
Avec ma carte actuelle, je peux avoir du 200 à 250ips sur CSGO, et pourtant je limite à 122ips pour que 95%+ du temps je suis entre 118 et 120ips.
Une puce de GPU milieu de gamme n'a pas besoin de 400+mm², même en 10nm, c'est 200-mm². Je vais encore espérer avec la nouvelle génération qui va arriver, mais c'est pas gagné.

@++
par Nicolas D., le Vendredi 07 Octobre 2022 à 01h03  
par dfd le Jeudi 06 Octobre 2022 à 19h50
Un pwal chères et un pwal trop tard les ARC Alchemist.
Ca fait mal de voir un GPU de 400 mm² faire jeu égal (pour être gentil) avec des plus petites puces déjà bien éprouvées.
A 50€-80€ de moins, on pourrait être joueur...
Mais faut parier sur l'envie des Bleus de persévérer dans le GPU grand public/gaming au moins 2/3 ans pour voir ses drivers se bonifier et prendre la mesure de la puissance brute de ses GPU.
Pour moi, les 400 mm² c'est principalement les unité matricielles ; mais pour en faire correctement usage faut 1) une charge de travail adaptée et 2) un support logiciel bon... et Intel pour les jeux n'a ni l'un ni l'autre, encore plus en l'absence de XeSS. Le tet sera à refaire dans 4-5 mois à mon avis, pour un verdict tout autre (entre les nouvelles gen AMD et NVIDIA et la maturation des pilotes, il y aura pour sûr du changement !).
par dfd, le Jeudi 06 Octobre 2022 à 19h50  
Un pwal chères et un pwal trop tard les ARC Alchemist.
Ca fait mal de voir un GPU de 400 mm² faire jeu égal (pour être gentil) avec des plus petites puces déjà bien éprouvées.
A 50€-80€ de moins, on pourrait être joueur...
Mais faut parier sur l'envie des Bleus de persévérer dans le GPU grand public/gaming au moins 2/3 ans pour voir ses drivers se bonifier et prendre la mesure de la puissance brute de ses GPU.
par Superubu, le Jeudi 06 Octobre 2022 à 18h39  
par Scrabble le Jeudi 06 Octobre 2022 à 17h38
Pourtant, la traduction littérale de "not that bad", c'est en français "pas si mauvais", le québécois "pas si pire" correspondant alors plutôt à "not that worse"
Concédé
par Scrabble, le Jeudi 06 Octobre 2022 à 17h38  
par Superubu le Mercredi 05 Octobre 2022 à 19h52
Ça s'appelle un Québécisme, c'est la traduction littéral de "Not that bad".
Pourtant, la traduction littérale de "not that bad", c'est en français "pas si mauvais", le québécois "pas si pire" correspondant alors plutôt à "not that worse"
par Darth Moule, le Jeudi 06 Octobre 2022 à 17h33  
par Pascal M. le Jeudi 06 Octobre 2022 à 09h12
Tab corrigé . Le sommaire étant sticky, pas sur d'en voir l'intérêt ?
Hoooo my bad j'avais pas vu que c'etait sticky ! (Ça réapparaît que si on rescroll un peu vers le haut sur ifoune)
Merci pour l'info
par LeĞmed GiGilü, le Jeudi 06 Octobre 2022 à 11h22  
Merci pour ce test comme d'habitude excellent

Je trouve les Arc pas si mauvais seulement un peu tard au début d'année en pleine crise cela aurait cartonné.

Je ne sais pas si les drivers vont changer beaucoup à l'avenir mais j'ai fais sur deux jeux d'époque un teste de igpu du core i3 4160 et j'ai été surpris par deux choses

1. Les performances sur serious sam 2 plus de 80fps qualité élevée et l'autre sur Oblivion en détection auto 150fps, en élevé on passe a 30 fps tout ça em 1680x1050 16/10

2.Activation du aa meme en x2 plombe les perfs et on tombe à moins 20fps pour les deux jeux mais aucun souci avec af 16x

Par contre bug d'affichage l'image ce déchire, et la vsync fais tomber les fps a moins 20fps comme pour aa

Bonus sur 3dmark05 et 3dmark06 on obtient 11600point et 6432
C'est plus ou moins les perfs d'une 8600gts oc

J'espère qu'il vont règler leur problème de pilote, on sent bien qu'il peine depuis des années sur cette voie

par Pascal M., le Jeudi 06 Octobre 2022 à 09h12  
par Darth Moule ?? le Mercredi 05 Octobre 2022 à 18h59
Je sais pas trop où mettre ça (en attendant le poste sur la version mobile du site) mais certains tableaux sont pas possible à lire ou je m'y prends mal (pas possible de faire défiler latéralement) (exemple page 4).
Le menu déroulant pour la navigation est super pratique mais devrait être dupliqué en bas de page (pour le confort)
Tab corrigé . Le sommaire étant sticky, pas sur d'en voir l'intérêt ?
par Jemporte, le Jeudi 06 Octobre 2022 à 00h36  
On parle souvent de consommation en regardant la conso dans des taches lourdes à fond... sauf que ce n'est pas la règle et il ne faut pas oublier l'usage basique, bureautique, vidéo etc.

Et bien les A750/770 sont les cartes qui consomment le plus sur les 10 dernières années quand elles sont proches du idle. C'est jamais moins de 50w en gros. De plus elles consomment plus qu'une RTX 3060 dans les tâches lourdes alors qu'elles sont à peu près égales niveau perfs.
C'est vraiment à méditer car même un CPU 16 cores, en idle, à faire de la bureautique, ça consomme pas grand chose.
Donc à perfs égales la carte consomme en moyenne 50 watts de plus que la RTX 3060 quelque soit l'usage. Ca doit aussi être pris en compte pour les onduleurs. En cas de panne de courant (ce qui pourrait être fréquent cet hiver - j'espère que tout le monde a préparé son onduleur), on sauvegarde son travail et on a une bonne dizaine de minutes pour le faire avec une conso proche du idle, sauf que là, c'est quelques minutes en moins.
A noter aussi que ces GPU nécessitent une config récente avec ReBar actif, sinon on perd autour de 20% de perf ; donc beaucoup plus que chez AMD et Nvidia. Très probablement à cause d'une mémoire cache embarquée moindre (chose à vérifier).
par Jemporte, le Mercredi 05 Octobre 2022 à 22h38  
par Un ragoteur de passage de Bretagne le Mercredi 05 Octobre 2022 à 21h06
Ca équivaut une 3060 ce qui est pas mal au final, encore une génération et Intel devrait battre la 3070, qui est suffisante pour 90% des joueurs. Reste à voir la stabilité, les pilotes, etc.
Par contre il faut qu'ils la vendent 100€ de moins sinon aucun intérêt.
Rien niveau OpenCL, par exemple sur du rendu 3D ? Blender, Indigo etc.

En fait j'ai la réponse à partir d'autres sites, notamment Hot Hardware.
Les Arc 750 et 770 font à peu près jeu égal en calcul.
Sous Blender, One API, intel, bat tranquillement HIP AMD (RX 6600XT), mais se fait complètement recadrer sur Optix avec la 3060. Donc 3 API et langages différents.

Avec Indogobench (rendu moteur Indigo), sous OpenCL, elle fait jeu égal ou un poil mieux que la RX 6600XT, mais selon le contexte (scène plus simple) se fait dépasser par la RTX 3060 ou égalise dans les scènes lourdes.

Avec Luxmark 4.0 (moteur Luxrender) sous OpenCL aussi, il y a par contre un avantage net aux Intel Arc, qui larguent méchamment la 3060, elle-même un peu devant la RX 6600XT (entre 1.5x et 2x mieux pour Intel).

Donc, apparemment les Intel Arc sont de bonnes cartes pour un usage Pro, compte tenu de leur prix. Notamment la A770 et ses 16Go de Vram, en bonne concurrence dans certaines applications avec le haut de gamme AMD pour un prix inférieur.

Ces résultats font penser à une manque d'optimisation du pilote et de l'architecture pour les jeux.
Donc, en gardant l'architecture il y a une bonne marge pour les pilotes et une optimisation générale hardware sur Battelimage, avec notamment de la mémoire cache comme les concurrents (les limitations de la bande passante mémoire semble beaucoup gêner ces cartes).