COMPTOIR
  
register

La conso des RTX 4080 et RTX 4070 aurait soudainement baissé...

Jusqu'à présent, le niveau de consommation avancé pour la prochaine gamme RTX 40 fut toujours plus ou moins relativement gargantuesque, quelle que fût la rumeur, un point qui en inquiétait plus d'un à juste raison, et ce en dépit des « promesses » de performances potentiellement sensiblement supérieures à la génération actuelle - elle-même déjà suffisamment énergivore et chaude. Comme il est aujourd'hui question des RTX 4080 et RTX 4070, rappelons que celles-ci furent données jusqu'ici le plus souvent avec un TBP respectivement de 420 (parfois 450) et 300 W, que l'on peut choisir de comparer avec les TBP des RTX 3080 et RTX 3070, de 320 et 220 W respectivement.

 

Mais voilà, il se trouve que la donne aurait changé entre-temps derrière les rideaux et que les RTX 40 susnommées seraient soudainement virtuellement devenues beaucoup moins gourmandes ! Selon kopite7kimi (encore lui !), qui avait un peu plus tôt également affirmé que la consommation élevée de la prochaine série était devenue problématique, il faudrait désormais s'attendre à une RTX 4080 à 320 W (soit - 29 %) et une RTX 4070 à 285 W (soit - 5 %) ! Voilà qui serait déjà plus acceptable, bien que toujours élevé dans l'immédiat. La RTX 4080 aurait ainsi un TBP identique à la RTX 3080. 

 

 

 

Ce revirement soudain peut être interprété de plusieurs manières. D'une part, il est tout à fait possible que les premiers chiffres ne fussent jamais vraiment les bons, ou alors ne correspondaient qu'à la consommation des cartes de tests, qui sont généralement débridés. Il ne fait aucun doute que l'introduction récente du nouveau connecteur PCIe 16 pins 12PWHR - permettant d'aller jusqu'à 600 W - a également énormément aidé les spéculations en faveur d'une consommation importante. Et puis bon, les premières fuites sont rarement les plus précises. Toutefois, on peut également imaginer que les ingénieurs de NVIDIA ont travaillé dur pour réduire la consommation sans trop nuire aux performances. Qui sait, c'est peut-être aussi avec de nouveaux batchs de puces en 5 nm de chez TSMC qu'ils ont désormais pu déterminer les meilleures fréquences, tensions et niveaux de puissance pour la nouvelle architecture. 

Accessoirement, on pourrait aussi choisir d'y deviner une réaction de NVIDIA à des propos récents d'AMD. En effet, ce dernier avait confirmé que les prochains GPU consommeraient effectivement plus, mais qu'il s'en sortirait mieux que son concurrent grâce à l'efficacité de son design. On se doute que le Caméléon n'a pas trop dû apprécier cette pique de son rival et chercherait désormais à le faire mentir.

 

nvidia geforce rtx logo

 

Finalement, cette « baisse » apparente de la consommation peut être considérée comme étant une très bonne chose, puisque cela sous-entend en principe des GPU moins chauds et moins énergivores, donc plus faciles à refroidir. Cependant, une réduction de la puissance pourrait aussi impliquer une réduction plus ou moins importante des performances du GPU, particulièrement en ce qui concerne la RTX 4080. N'oublions pas aussi que cette nouvelle arrive pile après la rumeur d'une réduction du nombre de CUDA cores de la RTX 4080. Des choix qui pourraient d'ailleurs être parfaitement volontaires, potentiellement pour proposer une gamme un peu moins performante qu'elle aurait pu être et ainsi faciliter l'écoulement des stocks de RTX 30 encore conséquents, par exemple. Éventuellement, cela laisserait aussi plus de marge pour des modèles Ti, voire un refresh.  

 

Au fond, les fuites resteront toujours des fuites et des quasi-devinettes, sans oublier qu'il y a certainement aussi beaucoup de désinformation dans le tas. En effet, il n'est probablement pas rare à ce que tout ceci soit plus ou moins contrôlé (particulièrement dans le cas de NVIDIA) et une manière de communiquer comme une autre. Après tout, nous sommes tout de même passés en un clin d'œil de « Omg, la RTX 4080 consommera plus de 400 W, quelle gourmande, c'est inacceptable ! » à « Oh ça va en fait, elle n'en ponctionnera que 320 W finalement, c'est trop cool ! ». Bien joué NVIDIA ? (Sources diverses)

Un poil avant ?

Quels changements pour Proton 7.0-4 ?

Un peu plus tard ...

AMD Ryzen 7000 : une nouvelle boiboite premium et du blabla sur les prix

Les 30 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Ragoti Ragota, le Mardi 16 Août 2022 à 14h55  
par Un rat goth à l'heure du Grand Est le Jeudi 11 Août 2022 à 09h24
Même 250w serait déjà trop
complètement d'accord avec toi, les gros problèmes actuels sont les architectures qui ne sont pas vraiment pensées pour faire dans l'efficience énergétique tout en délivrant des perfs de haut niveau, là c'est tout le contraire et cela se ressent en terme de factures d'électricité, d'équipements à avoir pour refroidir l'ensemble et je passe des détails auxquels sont confrontés les gens pour pouvoir faire tourner des jeux ou autres applicatifs de manière descente sans exploser la conso.
C'est à croire que les ingés s'en contrefoutent totalement de bosser sur une architecture a la feu Kepler délivrant des perfs de haut vol avec une conso maîtrisée en tout point.
Perso je pense sincèrement que cela est dû a des pressions commerciales, marketing et concurrentielles qui empêchent les départements R&D de faire correctement leur taf jusqu'au bout.
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Dimanche 14 Août 2022 à 18h24  
par Un hardeur des ragots en Bourgogne-Franche-Comté le Jeudi 11 Août 2022 à 12h47
C'est un peu différent. Les cartes graphiques ont vu leur consommation augmenter très fortement à gamme équivalente . Ce n'est pas forcément trop le cas pour une voiture . La Ferrari actuelle ne consomme pas forcément beaucoup plus que la F40 il y a 40 ans . Les Mustang corvette essaie ( un peu ) de limiter la consommation etc.

On peut comprendre que le haut de gamme consomme plus que le bas de gamme , mais moins que le haut de gamme consomme de plus en plus.
Tu veux comparer la conso d'une F40 400 chevaux à une ferrari V12 à 800 chevaux ? .
Bref tu peux prendre la conso d'une 1080 Ti à 244 watts et pour une 3080 Ti c'est 350 watts alors oui 100 watts de plus mais niveaux perfs c'est 5 ou 6 fois plus rapide

Après voir une 4080 à 400 watts mais 2 fois plus rapide qu'une 3080 moi j'signe....... Après faudra voir si le cooling sera capable de garder la carte dans les 70 degrés pour éviter une surchauffe excessive et dangereuse pour l'électronique.
par Un ragoteur qui pipotronne en Communauté Valencienne, le Samedi 13 Août 2022 à 16h30  
Les gilets jaunes c'étaient contre une augmentation planifié de la fiscalité sur les carburants, plus précisément. Manifester contre une décision gouvernemental c'est une chose, manifester contre le cours mondial du pétrole et la baisse de l'euro c'est une autre histoire..
par Un ragoteur sans nom embusqué le Jeudi 11 Août 2022 à 15h12
Combien consommait une GTX 1080ti déjà...et une GTX 1060, donc franchement si ses rumeurs farfelues se verifiaient ce serait encore beaucoup trop en consommation.Un bon doigt mouillé cette rumeur, le leader de la new n'en sait pas plus que nous.Il faudra attendre encore pour avoir les consommations réelles des rtx 4000.Cela me fait en tous cas à un commentaire sur un autre site hardware avec lequel je suis parfaitement d'accord, les gilets jaunes ont bloqué la France avec l'essence à 1,60 euros alors que maintenant les gens trouvent super déjà que l'essence soit à
1,75 euros et aucun gilet jaune a l'horizon.Et c'est pareil pour les cartes graphiques, on annonce des consommations de malade et puis on baisse un peu au final mais c'est toujours beaucoup trop de consommation mais au final les gens disent que c'est super.On peut faire la même chose pour les prix aussi, etc.
par Back Orifice, le Samedi 13 Août 2022 à 14h41  
par Un hardeur des ragots d'Occitanie le Vendredi 12 Août 2022 à 07h15
La 1080ti est donnée pour 220-250watt, en pratique la mienne tourne aux alentours de 200w ...
Ça dépends des modèles et des choix des fabricants, j'ai eu une Kfa 1080 HoF qui consommait autant qu'une 1080ti fe qui faisait 180/200w maximum.
par Un ragoteur RGB du Grand Est, le Vendredi 12 Août 2022 à 09h48  
Honnêtement ils peuvent consommer ce qu'ils veulent, jamais je ne rachèterai de Nvidia
par Un hardeur des ragots d'Occitanie, le Vendredi 12 Août 2022 à 07h15  
par Un ragoteur sans nom embusqué le Jeudi 11 Août 2022 à 15h12
Combien consommait une GTX 1080ti déjà...et une GTX 1060, donc franchement si ses rumeurs farfelues se verifiaient ce serait encore beaucoup trop en consommation.Un bon doigt mouillé cette rumeur, le leader de la new n'en sait pas plus que nous.Il faudra attendre encore pour avoir les consommations réelles des rtx 4000.Cela me fait en tous cas à un commentaire sur un autre site hardware avec lequel je suis parfaitement d'accord, les gilets jaunes ont bloqué la France avec l'essence à 1,60 euros alors que maintenant les gens trouvent super déjà que l'essence soit à
1,75 euros et aucun gilet jaune a l'horizon.Et c'est pareil pour les cartes graphiques, on annonce des consommations de malade et puis on baisse un peu au final mais c'est toujours beaucoup trop de consommation mais au final les gens disent que c'est super.On peut faire la même chose pour les prix aussi, etc.
La 1080ti est donnée pour 220-250watt, en pratique la mienne tourne aux alentours de 200w ou moins dans les jeux suivant la charge que ces derniers imposent. Ce n'est peut-être pas responsable pour la planète, c'est toujours 200W de trop, mais cela me permet de tourner avec une "petite" alim de 650W sans souci, avec 4 SSD dont un nvme récent, un DD et 4 ventilos de 140mm et un de 120mm et une pompe d'AIO.
Et comme j'ai bloqué les fps max à 120fps, pour ne pas la surexploiter sur un écran en 120Hz, elle tourne souvent à bien moins de watt dans les jeux qui ne la chargent pas trop, et se cale automatiquement vers 0,75V ou 0,825V environ dans ces cas, chauffe moins et souffle moins.
La 1060 est mesurée vers les 115W max dans son test ici sur The witcher III.
par Pipotronator, le Vendredi 12 Août 2022 à 06h11  
par Un #ragoteur connecté embusqué le Jeudi 11 Août 2022 à 17h16
Avec ma RTX 3060 (MSI Ventus), je suis passer de 170W max à 145W max (-15%) en undervolt stable avec un score de 11683 et 11751 sous Superposition respectivement (sois sans perte de performance). Et je suis sûr qu´il y a encore de la marge, si on accepte une légère perte de performance (de l´ordre de 5%) sans que cela soit perceptible en jeux.

Comme quoi, il y a de la marge dans l´optimisation de W/ips.
Mais toutes les puces ne sont pas égales, ça vaut pour l'overclocking ET l'underclocking. nVidia choisit probablement le meilleur compromis en ayant tester un ensemble de puces sur plusieurs séries sortient des moules à gaufres.
par Un ragoteur sans nom du Grand Est, le Jeudi 11 Août 2022 à 21h48  
Ils brident surtout les perfs pour avoir des versions Ti sous le coude, voir pour la gen suivante.
par Un plouc des ragots embusqué, le Jeudi 11 Août 2022 à 21h00  
Pourquoi ne pas proposer alors des cartes graphiques avec potentiomètre (physique) et chacun pousse la bestiole comme il le souhaite. Les écolos au mini et les autres à donf! Après chacun payera sa facture d'électricité à la fin du mois!!!
par Un #ragoteur connecté embusqué, le Jeudi 11 Août 2022 à 17h16  
Avec ma RTX 3060 (MSI Ventus), je suis passer de 170W max à 145W max (-15%) en undervolt stable avec un score de 11683 et 11751 sous Superposition respectivement (sois sans perte de performance). Et je suis sûr qu´il y a encore de la marge, si on accepte une légère perte de performance (de l´ordre de 5%) sans que cela soit perceptible en jeux.

Comme quoi, il y a de la marge dans l´optimisation de W/ips.

par Pounyet, le Jeudi 11 Août 2022 à 15h41  
Ma MSI consomme 297w au max de sa forme (non overclockée).
Et non les gens ne se disent pas que c'est super mais a t'on vraiment le choix ?
Tu as vu du changement avec les gilets jaunes ? A part des yeux et des mains en moins ?
Bref.
par Un ragoteur sans nom embusqué le Jeudi 11 Août 2022 à 15h12
Combien consommait une GTX 1080ti déjà...et une GTX 1060, donc franchement si ses rumeurs farfelues se verifiaient ce serait encore beaucoup trop en consommation.Un bon doigt mouillé cette rumeur, le leader de la new n'en sait pas plus que nous.Il faudra attendre encore pour avoir les consommations réelles des rtx 4000.Cela me fait en tous cas à un commentaire sur un autre site hardware avec lequel je suis parfaitement d'accord, les gilets jaunes ont bloqué la France avec l'essence à 1,60 euros alors que maintenant les gens trouvent super déjà que l'essence soit à
1,75 euros et aucun gilet jaune a l'horizon.Et c'est pareil pour les cartes graphiques, on annonce des consommations de malade et puis on baisse un peu au final mais c'est toujours beaucoup trop de consommation mais au final les gens disent que c'est super.On peut faire la même chose pour les prix aussi, etc.
par Un ragoteur sans nom embusqué, le Jeudi 11 Août 2022 à 15h12  
Combien consommait une GTX 1080ti déjà...et une GTX 1060, donc franchement si ses rumeurs farfelues se verifiaient ce serait encore beaucoup trop en consommation.Un bon doigt mouillé cette rumeur, le leader de la new n'en sait pas plus que nous.Il faudra attendre encore pour avoir les consommations réelles des rtx 4000.Cela me fait en tous cas à un commentaire sur un autre site hardware avec lequel je suis parfaitement d'accord, les gilets jaunes ont bloqué la France avec l'essence à 1,60 euros alors que maintenant les gens trouvent super déjà que l'essence soit à
1,75 euros et aucun gilet jaune a l'horizon.Et c'est pareil pour les cartes graphiques, on annonce des consommations de malade et puis on baisse un peu au final mais c'est toujours beaucoup trop de consommation mais au final les gens disent que c'est super.On peut faire la même chose pour les prix aussi, etc.