COMPTOIR
  
register

Les RTX 40 repoussées à décembre ?

Le planning qui semblait se dessiner était le suivant : RTX 4090 en octobre, RTX 4080 en novembre, RTX 4070 en décembre, RTX 4060 en janvier, RTX 4050 après tout ça. Mais voilà qu'une rumeur lancée par MLID envoie ce plan aux poubelles, sans qu'aucun d'eux ne soit bien sûr officiel. Alors pourquoi ? D'abord parce que selon les revendeurs, ils assistent à une grosse baisse des ventes et de la demande. Et la faute viendrait surtout des mineurs qui revendent leurs GPU à des prix défiant toute concurrence, surtout celle venant du neuf. Le marché de l'occasion serait donc le nouvel eldorado des gens en recherche de GPU pas chers, mais performants, même s'ils ont miné des mois durant non stop. Après tout, il y a la garantie cessible, et il sera compliqué pour les marques de différencier un GPU ayant miné de celui qui ne l'a pas fait.

 

Afin de retrouver une forte demande, et donc d'être sûr de vendre ses cartes neuves, NVIDIA préfèrerait attendre que les choses se tassent. Il y a un point cependant qui pourrait contredire cette hypothèse, ce point se nomme RDNA 3. Si AMD déploie ses Ryzen 7000 en septembre, alors il pourra dès le mois d'après déployer sa nouvelle génération graphique, et nous ne voyons pas NVIDIA laisser deux ou trois mois le champ libre à son concurrent, les deux sont comme des frères et des soeurs, ils s'aiment autant qu'ils se détestent, et l'un ne fera rien sans que l'autre lui emboîte le pas. Au final, on n'est pas plus avancé, car si effectivement le marché sature de RTX 30 usagées, ça ne signifie pas que l'attente se prolongera !

 

asus dual rtx 3070

Un poil avant ?

Linux vs Windows, on en remet une couche ?

Un peu plus tard ...

Specifications de Meteor Lake en fuite : 128 EUs seulement ?

Les 46 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Mardi 12 Juillet 2022 à 16h58  
par Scrabble, le Samedi 09 Juillet 2022 à 20h10
Jensen Huang est redoutable en affaires. Entre les RTX 3060Ti/3070/3070Ti qui sont condamnées à moyen terme par leurs 8 Go de VRAM, et maintenant le retard de sortie des RTX 40XX, ainsi que la baisse probable de la production pour organiser la pénurie, il sait comment faire payer le gamer
Toujours dans ton délire CM AMD
par Bruce lee van cleef du Centre-Val de Loire, le Lundi 11 Juillet 2022 à 16h52  
par Jemporte, le Dimanche 10 Juillet 2022 à 20h24
Oui en moyenne 1.5x moins puissante sauf quand on active le RT qu'on la met sur une CM PCI 4 et dans certains jeux plus récents. Au niveau des calculs RT (rendu d'image pro donc toutes unités CUDA) c'est entre 0 et 20% moins puissante selon les paramètres que la 2080 Ti. Pour être 1.5x moins puissante en moyenne dans les jeux et de façon régulière, il faut être en PCI 3.0 et désactiver le RT ce que la plupart des tests font. Comme le RT de la 3060 est différent et plus puissant par certains cotés, si on diminue la qualité raster et qu'on met du RT à fond, la 3060 rattrape la 2080Ti. Après quand on joue en FHD ou 1440p ou 4K ça varie aussi en fonction du jeu et des réglages. J'ai un copain dont les enfants ont les deux, et à l'usage l'un et l'autre les trouves équivalentes (sur même type d'écran FHD 27 pouces). Et d'autant plus équivalentes que la 2080Ti consomme pas tant que ça d'après ce que j'ai compris. je crois que c'est deux configs avec alims 600W (l'une d'elle Antec Gold, c'est mois qui leur ait fait...). La 3060 plus récente est sur une CM X570 et CPU 8 c/16t 3700 ou 3800 (m'en rappelle plus) et donc PCI 4, l'autre du Intel plus vieux donc PCi 3, un 6 cores simple skylake série 8 je crois (c'est pas moi qui leur ai fait acheter). Les 2 ont 32Go de DDR4. ils jouent en réseau aux même jeux... et en même temps, donc quand ils disent que le ressenti est pareil je les crois.
Donc oui;, la 2080ti a un CPU plus vieux aussi mais je crois meilleur en mono-thread...
Mais biensûr, en descente avec le vent dans le dos et les bras en arrière.....Quand on met une blinde dans une carte c'est pas pour jouer en 1080 détails moyen hein, donc rt ou pas elle est larguée ta 3060
un petit lien tout mignon
par Un champion du monde en Bourgogne-Franche-Comté, le Lundi 11 Juillet 2022 à 08h36  
par Jemporte, le Lundi 11 Juillet 2022 à 01h34
...
En sachant que Samsung à gravure égale a une qualité de production moins bonne et surtout, les circuits consomment plus. Et on le constate à chaque itération au moins depuis le 14/16nm.
Pour rappel :
Nvidia - AMD :
-Pascal 16nm TSMC - Polaris/Vega 14nm Samsung (Nvidia consomme moins malgré une finesse plus grossière - et ça a été prouvé sur le même CPU Apple)
-Turing 12nm TSMC - Vega/RDNA1 7nm TSMC (là AMD rattrape Nvidia dans les jeux sans RT en avec une finesse nettement meilleure chez le même fondeur)
-Ampere 8nm Samsung - RDNA 2 7nm+ TSMC et même 6nm selon GPU (là AMD utilise une gravure plus fine et aboutie et chez les meilleure fondeur niveau conso... et arrive à égaler à perfs égales Nvidia).
A venir:
-Lovelace 4nm TSMC - RDNA3 6+5nm TSMC (dans ce cas on inverse les avantages fondeur et Nvidia prend le meilleur niveau conso et avec la gravure le plus fine et aboutie...).

Bref, AMD améliore un peu sa gravure quand Nvidia fait un énorme saut. Ca explique pourquoi les cartes Nvidia devraient voir leurs perfs évoluer fortement sur cette génération, et plus qu'auparavant. C'est quasiment un double saut générationnel.
...
Beaucoup de blabla avec des nombres balancés par ci par là sans forcément qu'ils aient le sens que tu veux leur donner. La conso d'une puce n'est pas uniquement liée à la gravure ou à sa finesse. Conclure rapidement que Samsung est systématiquement moins bon en comparant uniquement deux générations de gravures avec TSMC, surtout sur la base d'un comparo Pascal/Vega, il fallait oser. Relire les tests concernant les choix et arbitrages opposés qui ont été faits lors de la conception des puces Pascal/Vega ne te ferait pas de mal.
par Jemporte, le Lundi 11 Juillet 2022 à 01h34  
par Un ragoteur qui pipotronne en Communauté Valencienne, le Lundi 11 Juillet 2022 à 00h26
A chaque génération les fabricants annoncent des gains théorique gargantuesques, après en pratique..
Oui mais là, ça se comprend et Nvidia a tout entrepris pour redistancer AMD sinon il seront obligés de vendre au même prix, ce que Jensen ne supporterait pas.
En sachant que Samsung à gravure égale a une qualité de production moins bonne et surtout, les circuits consomment plus. Et on le constate à chaque itération au moins depuis le 14/16nm.
Pour rappel :
Nvidia - AMD :
-Pascal 16nm TSMC - Polaris/Vega 14nm Samsung (Nvidia consomme moins malgré une finesse plus grossière - et ça a été prouvé sur le même CPU Apple)
-Turing 12nm TSMC - Vega/RDNA1 7nm TSMC (là AMD rattrape Nvidia dans les jeux sans RT en avec une finesse nettement meilleure chez le même fondeur)
-Ampere 8nm Samsung - RDNA 2 7nm+ TSMC et même 6nm selon GPU (là AMD utilise une gravure plus fine et aboutie et chez les meilleure fondeur niveau conso... et arrive à égaler à perfs égales Nvidia).
A venir:
-Lovelace 4nm TSMC - RDNA3 6+5nm TSMC (dans ce cas on inverse les avantages fondeur et Nvidia prend le meilleur niveau conso et avec la gravure le plus fine et aboutie...).

Bref, AMD améliore un peu sa gravure quand Nvidia fait un énorme saut. Ca explique pourquoi les cartes Nvidia devraient voir leurs perfs évoluer fortement sur cette génération, et plus qu'auparavant. C'est quasiment un double saut générationnel.

La grosse inconnue ce n'est pas Nvidia mais la solution multichip AMD. On ne connaît pas l'impact d'un cache extravagant et on ne sait pas de combien AMD va réussir à réduire ses prix grâce au multichip et puis rien n'exclut une montage monstrueux.
par Jemporte, le Lundi 11 Juillet 2022 à 01h15  
par Scrabble, le Dimanche 10 Juillet 2022 à 20h48
Répartition des CG en fonction de la VRAM chez LDLC:
- 2 Go : 4 modèles
- 4 à 6 Go : 29 modèles
- 8 Go : 104 modèles
- 10 à 12 Go : 76 modèles
- 16 à 24 Go : 29 modèles
C'est là qu'on voit que 8 Go est devenu le minimum syndical, et que 12 Go sera désormais recommandé
On verra si c'est le cas. Je crois que ça dépend aussi de la taille des chips et du bus.
La 3060 a un bus 192 bits là ou la 4060 aura un bus 128 bits. Et on ne connait pas encore les types de Vram, bien que la GDDR6X casse pas la baraque niveau perfs.
... et puis, pour la quantité de Vram c'est Nvidia et AMD qui décident. S'il n'y en a pas assez, il faut prendre le plus gros modèle...
par Un ragoteur qui pipotronne en Communauté Valencienne, le Lundi 11 Juillet 2022 à 00h26  
A chaque génération les fabricants annoncent des gains théorique gargantuesques, après en pratique..
par Jemporte, le Dimanche 10 Juillet 2022 à 14h04
Les MSRP c'est pour les cartes de fabricant de GPU. Quand il n'y en a pas il y a un MSRP qui traine qui veut rien dire. A noter que les cartes AMD sorties sur le tard ont bénéficié d'une MSRP gonflé par la pénurie. Ce MSRP est bien sûr surévalué actuellement.Qu'on finisse par trouver d'ici peu des RX 6600 à 250 euros, neuves, ça ne m'étonnerait nullement.
Qu'on se le dise, si AMD annonce 50% de gain sur les RDNA3 en 5nm par rapport au 7nm TSMC, il faut s'attendre à 100% pour le passage Nvidia du 8nm Samsung au 4nm TSMC. La gamme actuelle va se prendre une grosse claque d'ici quelques mois. Même en supposant que les nouvelles cartes soient vendues très cher, les anciennes, s'il y a du stock (et il semblerait qu'il y en ait) vont être TRES décotées.
par Un ragoteur qui aime les BX de Bretagne, le Dimanche 10 Juillet 2022 à 21h42  
D'accord, donc maintenant ce sont les modèles référencés chez LDLC qui déterminent la quantité de VRAM minimum nécessaire pour jouer ?
Ne le prenez pas mal, mais vous teniez exactement le même discours avant la sortie de la gen actuelle. Pourtant les faits vous ont donné tort
Que 12go deviennent assez rapidement le minimum requis pour jouer en 4k semble évident. Pour ce qui est des résolutions inférieures, c'est pas pour tout de suite.
Alors calmez vous
Bien cordialement
par Scrabble, le Dimanche 10 Juillet 2022 à 20h48
Répartition des CG en fonction de la VRAM chez LDLC:
- 2 Go : 4 modèles
- 4 à 6 Go : 29 modèles
- 8 Go : 104 modèles
- 10 à 12 Go : 76 modèles
- 16 à 24 Go : 29 modèles
C'est là qu'on voit que 8 Go est devenu le minimum syndical, et que 12 Go sera désormais recommandé
par Scrabble, le Dimanche 10 Juillet 2022 à 20h48  
Répartition des CG en fonction de la VRAM chez LDLC:
- 2 Go : 4 modèles
- 4 à 6 Go : 29 modèles
- 8 Go : 104 modèles
- 10 à 12 Go : 76 modèles
- 16 à 24 Go : 29 modèles
C'est là qu'on voit que 8 Go est devenu le minimum syndical, et que 12 Go sera désormais recommandé
par Jemporte, le Dimanche 10 Juillet 2022 à 20h41  
par Passage en coup de vent des Hauts-de-France, le Dimanche 10 Juillet 2022 à 16h30
"Quand une 4060 va égaler une 3090"
Je note. Rdv au test.
Facile à prévoir. 2x moins de cores que la 3090, Mais fréquence 1.75x supérieure en présérie. 2x plus au finish, donc plus de 3Ghz, n'aurait rien d'incongru.
PCI4 ou mieux, PCI5. Hors des CUDA cores on n'a pas de repère parce que Nvidia a a chaque fois remanié les RT et surtout les tenseurs.
La 4060 pourrait dépasser la 3090 dans certains domaines...
Par contre probablement beaucoup moins de VRAM. Même pas sûr que Nvidia remette 12Go comme sur la 3060. C'est probablement la 4070 qui en profitera (des 12Go).
Nvidia va certainement fractionner le marché des RTX 4000 par la quantité de VRAM. Pour de la 4K, et faire du rendu sous Blender ou autres, il vaut mieux avoir plus que 8Go. Ce qui ont une 3060 seront incités à passer au moins à une 4070...
par Jemporte, le Dimanche 10 Juillet 2022 à 20h24  
par Bruce lee van cleef du Centre-Val de Loire, le Dimanche 10 Juillet 2022 à 16h48
Une RTX 3060 c'est bien en dessous une 2080TI : un petit lien tout mignon
Oui en moyenne 1.5x moins puissante sauf quand on active le RT qu'on la met sur une CM PCI 4 et dans certains jeux plus récents. Au niveau des calculs RT (rendu d'image pro donc toutes unités CUDA) c'est entre 0 et 20% moins puissante selon les paramètres que la 2080 Ti. Pour être 1.5x moins puissante en moyenne dans les jeux et de façon régulière, il faut être en PCI 3.0 et désactiver le RT ce que la plupart des tests font. Comme le RT de la 3060 est différent et plus puissant par certains cotés, si on diminue la qualité raster et qu'on met du RT à fond, la 3060 rattrape la 2080Ti. Après quand on joue en FHD ou 1440p ou 4K ça varie aussi en fonction du jeu et des réglages. J'ai un copain dont les enfants ont les deux, et à l'usage l'un et l'autre les trouves équivalentes (sur même type d'écran FHD 27 pouces). Et d'autant plus équivalentes que la 2080Ti consomme pas tant que ça d'après ce que j'ai compris. je crois que c'est deux configs avec alims 600W (l'une d'elle Antec Gold, c'est mois qui leur ait fait...). La 3060 plus récente est sur une CM X570 et CPU 8 c/16t 3700 ou 3800 (m'en rappelle plus) et donc PCI 4, l'autre du Intel plus vieux donc PCi 3, un 6 cores simple skylake série 8 je crois (c'est pas moi qui leur ai fait acheter). Les 2 ont 32Go de DDR4. ils jouent en réseau aux même jeux... et en même temps, donc quand ils disent que le ressenti est pareil je les crois.
Donc oui;, la 2080ti a un CPU plus vieux aussi mais je crois meilleur en mono-thread...
par Superubu, le Dimanche 10 Juillet 2022 à 18h50  
par Un ragoteur sans nom du Grand Est, le Dimanche 10 Juillet 2022 à 18h11
Il a oublié le TI p'tet, une 2080 TI est entre une 3060TI et une 3070.
Il a rien oublié, il le sait très bien et balance en toute connaissance de cause des âneries plus grosses que lui pour attirer l'attention. Ça fait clairement partie de sa stratégie, quitte à passer pour un cave...Ce dont il ne se soucie guère.
par Un ragoteur sans nom du Grand Est, le Dimanche 10 Juillet 2022 à 18h11  
par Bruce lee van cleef du Centre-Val de Loire, le Dimanche 10 Juillet 2022 à 16h48
Une RTX 3060 c'est bien en dessous une 2080TI : un petit lien tout mignon
Il a oublié le TI p'tet, une 2080 TI est entre une 3060TI et une 3070.
un petit lien tout mignon