COMPTOIR
register

Quel TDP pour les cartes graphiques Lovelace ?

Alors que la gamme Lovelace des verts ne s’arrête plus de fuir dans tous les sens, voilà que le cher @kopite7kimi a des informations prétendument véridiques sur les limites des dégagements thermiques des GPU de la gamme. Voyons cela en détail :

 

Quelle puce ?GPCCoeurs CUDACache L2Taille de busTDP (version PC de bureau)TDP (Version mobile)
AD102 12 18432 96 Mio 384-bit 800 W 'à pas !
AD103 7 10752 64 Mio 256-bit 450 W 175 W
AD104 5 7680 48 Mio 192-bit 400 W 175 W
AD106 3 4608 32 Mio 128-bit 260 W 140 W

 

Pas moins de 800 W pour l’AD102 : quoi que le caméléon nous réserve, voilà qui risque de chauffer ! Quant aux versions mobiles, nous restons dubitatifs sur une enveloppe thermique de 140 W pour la version la moins grosse : il est plus que probable que le TDP réel (configurable ?) se retrouve inférieur (voire largement inférieur sur des ultraportables), sans compter les Max-Q optimisées pour une finesse accrue.

 

Devant ces chiffres impressionnants, notre leaker se permet de nuancer, précisant que ces limites ne seraient apparemment pas souvent atteintes dans la pratique. Reste à voir ce que cela signifie : la carte aura-t-elle une fréquence maximale de fonctionnement arrivant plus tôt que la puissance ? Un étage d’alimentation ne délivrant cette quantité de courant que sur de brèves périodes ? Une chose est sûre : NVIDIA voit (très) large pour sa nouvelle série ; il ne reste qu’à attendre les tests pour voir ce qu’il en sera en pratique !

 

qui sont ces gpu cdh

 

Un poil avant ?

La RX 6700 n'est pas une exclu Sapphire, voici le tour de Powercolor

Un peu plus tard ...

Gamotron • Cowabunga !!

Les 41 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Superubu, le Lundi 20 Juin 2022 à 19h34  
par Jemporte, le Lundi 20 Juin 2022 à 18h45
Il est quand même bon d'avoir une peu de marge. Vaut mieux aller mettre une bonne alim 800W mini, et pour prévoir dans la durée pourquoi pas 1000W.

Moi, avec le Vega 64 je prévoyais déjà des 800W de qualité.
Tant qu'à faire, t'aurais dût prendre du 2000W avec l'onduleur et la gégène au pétrole en renfort à côté, on est jamais trop prudent
par Jemporte, le Lundi 20 Juin 2022 à 18h48  
par piratees, le Lundi 20 Juin 2022 à 18h44
j'ai une EVGA et une enermax tout les 2 en 1500w alors bon OSEF des conso des nouvelle cartes ça peux même faire du 1000w le gpu rien n'a carré
Il faut aussi vérifier au niveau des rails etde la qualité des cables, des fois que ce serait une alim destinée aux mineurs.
par Jemporte, le Lundi 20 Juin 2022 à 18h45  
par Vaark, le Lundi 20 Juin 2022 à 12h13
Est-ce qu'il y a un vrai risque de flinguer une alim', le GPU ne va pas simplement se retrouver à tourner en sous-régime ?

Parce que les 750W recommandés pour la 3080 FE... A la maison elle tourne sur mon alim 650W (top tier, une Corsair RMi), sans OC, sans RGB de partout mais avec pas mal de ventilos dans la config... Jusqu'ici tout va bien mais s'il y a un risque de flinguer le PSU et le reste c'est assez moyen
Il est quand même bon d'avoir une peu de marge. Vaut mieux aller mettre une bonne alim 800W mini, et pour prévoir dans la durée pourquoi pas 1000W.

Moi, avec le Vega 64 je prévoyais déjà des 800W de qualité. J'ai mis 600W de qualité sur du ITX avec des GPU nettement sous les 250W de TDP et du 450W en ITX pour des GPU sous les 75W de TDP. Donc pour moi, les cartes qui dépassent 350W doivent viser l'alim de 1000W, probablement 1200W minimum strict avec une 4090, plutôt plus si on la trouve en alim de qualité.
Au vu du prix de ces GPU, c'est judicieux d'investir dans une grosse alim même si elle est plus chère. C'est une sécurité incomparable.
par piratees, le Lundi 20 Juin 2022 à 18h44  
j'ai une EVGA et une enermax tout les 2 en 1500w alors bon OSEF des conso des nouvelle cartes ça peux même faire du 1000w le gpu rien n'a carré
par Vaark, le Lundi 20 Juin 2022 à 12h59  
par Nicolas D., le Lundi 20 Juin 2022 à 12h48
Ah non non à l'heure actuelle le GPU n'a aucun mécanisme permettant de savoir sur quelle alim il tourne (et donc de throttle en fonction). Si tu as une alim de qualité, par contre, elle devra s'éteindre avant de cramer normalement, et donc te prévenir. Un ventilateur ça ne consomme rien, il faut voir le CPU et les jeux que tu utilises. Avec RTX + DLSS, je fera vachement gaffe, mais si c'est de la pure rastérisation la conso devrait rester raisonnable.
J'me suis fait C2077 cet automne, tout à fond, en 240Hz avec RT en DQHD et j'ai jamais eu de plantage.
J'suis peut-être passé entre les goutes ou bien la recommandation de 750W est comme tu le supposes pour les Lovelace : une reco un peu surévaluée au cas où les gens utilisent des alims avec un mauvais rendement ou un OC de malade. Je touche du bois '
par Nicolas D., le Lundi 20 Juin 2022 à 12h48  
par Vaark, le Lundi 20 Juin 2022 à 12h13
Est-ce qu'il y a un vrai risque de flinguer une alim', le GPU ne va pas simplement se retrouver à tourner en sous-régime ?
Ah non non à l'heure actuelle le GPU n'a aucun mécanisme permettant de savoir sur quelle alim il tourne (et donc de throttle en fonction). Si tu as une alim de qualité, par contre, elle devra s'éteindre avant de cramer normalement, et donc te prévenir. Un ventilateur ça ne consomme rien, il faut voir le CPU et les jeux que tu utilises. Avec RTX + DLSS, je fera vachement gaffe, mais si c'est de la pure rastérisation la conso devrait rester raisonnable.
par Vaark, le Lundi 20 Juin 2022 à 12h13  
par Nicolas D., le Lundi 20 Juin 2022 à 08h39
@all: Vu les pics de consommation observés sur les 3090 / 3080 ; il est aussi possible que le 800 W/450 W soient une protection de NVIDIA pour éviter les représailles des consommateurs si une carte bousille une alimentation a cause d'un courant trop fort ; avec une consommation moyenne largement inférieure. On vous dira de toute manière tout lors des tests .
Est-ce qu'il y a un vrai risque de flinguer une alim', le GPU ne va pas simplement se retrouver à tourner en sous-régime ?

Parce que les 750W recommandés pour la 3080 FE... A la maison elle tourne sur mon alim 650W (top tier, une Corsair RMi), sans OC, sans RGB de partout mais avec pas mal de ventilos dans la config... Jusqu'ici tout va bien mais s'il y a un risque de flinguer le PSU et le reste c'est assez moyen
par Nicolas D., le Lundi 20 Juin 2022 à 08h39  
par Scrabble, le Dimanche 19 Juin 2022 à 10h10
Ce n'est pas dommage, puisque c'est normal. On ne pouvait pas faire autrement
Maintenant, avec les CPU, sous Windows, on peut toujours mettre le Maximum processor state à 99% au lieu de 100%, ça permet de diviser par deux la puissance dissipée sur les Ryzen
Ça doit te désactiver le boost ça (100 % c'est - il me semble - le fréquence hors boost, et a 100 % seulement il a le droit de monter plus). Selon ton CPU et ton utilisation, ça peut avoir ou non une influence sur sa vitesse.

@all: Vu les pics de consommation observés sur les 3090 / 3080 ; il est aussi possible que le 800 W/450 W soient une protection de NVIDIA pour éviter les représailles des consommateurs si une carte bousille une alimentation a cause d'un courant trop fort ; avec une consommation moyenne largement inférieure. On vous dira de toute manière tout lors des tests .
par Nicolas D., le Lundi 20 Juin 2022 à 08h35  
par Un #ragoteur connecté des Pays de la Loire, le Samedi 18 Juin 2022 à 18h00
460 832 cuda coeur pour le "petit" ad106... je pense qu'il y a une erreur là non ?
Il y a eu une fusion entre deux colonnes ' c'est 4698 coeurs CUDA et 32 Mio de cache (colonne d'apres)
par round up the tares en Auvergne-Rhône-Alpes, le Lundi 20 Juin 2022 à 07h17  
alors qu'aux usa , rien que pour cet été, un peu de clim risque de rudoyer le reseau electrique alors qu'en UE il y aura des rationnements electriques, sortir de tels trucs energivores est insensé, et woke
par Un Inconnu des Pays de la Loire, le Lundi 20 Juin 2022 à 06h17  
C'est bien, on ne jouera plus qu'en hiver.
par BX lover du Grand Est, le Lundi 20 Juin 2022 à 06h17  
par Un ragoteur sans nom embusqué, le Dimanche 19 Juin 2022 à 20h11
Comment tuer le secteur GPU mobile voir plus, jusqu'à 275 w de différence, c'est vraiment devenu du n'importe quoi et on ne parle même pas du plus haut de gamme où il ne peut exister en version mobile
Pour info on a jamais eu de GF110/GK110/GM200/GP102/TU102/GA102 équivalent au desktop sur laptop, toutes les cartes mobiles sorties avec ces puces étaient minable en terme de perf ou dans un châssis très spécifique.

J'ai du mal à comprendre les personnes "outrées" de la consommation, ce n'est pas la faute à Nvidia qui a conçu une archi "qui consomme beaucoup", c'est plutôt celle du process qui permet les grosses fréquences et une très faible résistance interne, la combinaison des deux entrainent une consommation excessive.

C'est aussi un soucis de la société de consommation, on veut toujours voir le plus gros gain en terme de perf, peu importe le reste. Doubler le TDP ne doublera pas les perfs, ce sera plutôt une question de 10 à 20% de perf. Entre faire tourner une carte à presque 1V et 0.7V on a un rapport de consommation plus que doublé pour des perfs qui se tiennent à 10~20% près. Avec ma 3080 à 0.7V, je reste à 180w en jeu (Cyberpunk avec RT) à 1550MHz, face aux 0.88v 1750~1800MHz à stock/320W.

On pourrait se dire que Nvidia n'a qu'à sortir des version "LP" (Low Power) basse consommation pour desktop, mais le soucis c'est que ces versions serraient simplement au même niveau de perf que les générations précédentes et le grand public non averti (99% des acheteurs) ne verraient que la perf et n'achèteraient pas.

Mais bon, perso je pense que les chiffres avancés concernent plutôt les versions serveur et non gaming, surtout pour le AD106.