COMPTOIR
  
register

Nvidia veut des wafers de 450mm

Nvidia vient de faire un appel du pied auprès des fondeurs, avec TSMC en première ligne. Tout d'abord sur un plan purement technique, le caméléon affirme que d'ici 2020, les puces graphiques seront jusqu'à 232 fois plus complexes que le plus balèze des GPU aujourd'hui. Et donc étant donné les diverses étapes de fabrication avant d'aboutir à un produit fini, les fondeurs se doivent de basculer sur des wafers de 450mm contre 300 actuellement, et ce afin de rentabiliser au mieux les infrastructures.

 

Sur un plan plus coquin, le caméléon avoue à demi-mot que cela ferait aussi chuter les prix d'achat, sans oublier que les volumes ne seraient plus aléatoires, traduire par plus de puces en continu dans les rayons des revendeurs. Pour terminer, Nvidia pense que la prochaine étape à franchir dans la réduction des process de gravure sera de diminuer significativement les tensions d'application, encore trop élevées à son goût. Dernier point, que l'on comprend dans ces propos, c'est l'agacement du géant vert d'être à ce point freiné dans son expansion, en plus des nombreux mois à patienter avant de pouvoir passer une puce au stade de production. TSMC ferait-il tout son possible pour ses clients ? En voilà une autre question ! (Source X bit-labs)

 

nvidia_logo.jpg  

Un poil avant ?

Bon plan: SSD 120Go Sandisk Extreme à 102,99€ (terminé)

Un peu plus tard ...

Ivy dans 10 jours ?

Les 22 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur inspiré, le Samedi 14 Avril 2012 à 21h59  
EEtimes (février 2011) : 450-mm brings confusion to supply chain
par Un ragoteur nullisime, le Samedi 14 Avril 2012 à 13h33  
Ce que j'ai simplement envie de dire, nvidia est trop dépendant de TSMC, que leur retard suite au succès de la 680 leur permette de mettre tout le retard occasionné sur le dos de TSMC et qu'eux profitent de l'occasion pour dire qu'ils attendent plus parce qu'ils sont déjà sur l'avenir de la complexité des puces...Alors que TSMC à côté de ça est énormément critiqué suite au retard de ces nombreux gros clients...

Nvidia voudrait passer devant tous ces gros clients pour récupérer leurs erreurs au niveau de la fabrication du kepler...lamentable...

J'aurai envie de dire comme certains, qu'ils se construisent leurs propres usines, le marché serait plus mature et avancerait plus intelligemment...

Aider votre prochain, merci pour le beau geste de nvidia a en rajouter une couche sur TSMC
par Un ragoteur qui se tâte, le Samedi 14 Avril 2012 à 13h31  
par Un ragoteur P4G, le Vendredi 13 Avril 2012 à 21h57
Disons qu'Apple choisit ses composants pour rentrer dans des châssis très fins et dont la capacité première n'est pas de dissiper dans de bonnes conditions. Aux dernières nouvelles, KEPLER est plus efficace que GCN au petit jeu de qui chauffe le moins, et les GK107 - que personne n'a vu je l'accorde - mettraient une petite fessée au milieu de gamme. Il y a donc fort à parier qu'Apple colle du NVIDIA dans ses macs, et comme la nouveauté Ivy est bientôt là, les annonces GPU vont arriver aussi. Apple va donc indirectement confirmer ou infirmer les ragots du moment.
Bah justement, les dernières cartes ATI (HD 7700/7800) ont un meilleur rendement (perf/watt) que la GTX 680.
Mais c'est vrai qu'il est plus dur d'obtenir un bon rapport perf/watt lorsqu'on monte en gamme (et donc en perf), on verra bien si nvidia réussi à améliorer son architecture pour avoir un meilleur rendement sur ses carte milieu de gamme...

par Un ragoteur P4G, le Vendredi 13 Avril 2012 à 21h57  
par Un ragoteur qui revient, le Vendredi 13 Avril 2012 à 12h11
En quoi Apple serait une référence en GPU? Leurs machines n'ont jamais les meilleurs GPU. Mon mac à son achat avait pas mal de retard à ce niveau.
Disons qu'Apple choisit ses composants pour rentrer dans des châssis très fins et dont la capacité première n'est pas de dissiper dans de bonnes conditions. Aux dernières nouvelles, KEPLER est plus efficace que GCN au petit jeu de qui chauffe le moins, et les GK107 - que personne n'a vu je l'accorde - mettraient une petite fessée au milieu de gamme. Il y a donc fort à parier qu'Apple colle du NVIDIA dans ses macs, et comme la nouveauté Ivy est bientôt là, les annonces GPU vont arriver aussi. Apple va donc indirectement confirmer ou infirmer les ragots du moment.
par Un ragoteur qui se tâte, le Vendredi 13 Avril 2012 à 18h20  
par jkonéri1, le Vendredi 13 Avril 2012 à 12h05
En 2020 il y aura encore des PC ? <img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />
Oh le bon gros trollll
On aura des cartes 3D seulement 2 à 4 fois plus puissantes que les plus puissantes d'aujourd'hui...
par Vonarg, le Vendredi 13 Avril 2012 à 17h59  
par , le Vendredi 13 Avril 2012 à 17h35
Ils veulent simplement des wafers plus grands pour avoir un meilleur rendement et ne pas être en pénurie de puces...je vois pas ou est le problème.
Et de ce fait pouvoir s' agrandir,ça sera bénéfique pour nous.
Et puis c'est interne,on n'a pas à juger...
Les gens aiment bien s'arroger le rôle de procureur.
C'est une position que l'on jugera confortable.
par , le Vendredi 13 Avril 2012 à 17h35  
Ils veulent simplement des wafers plus grands pour avoir un meilleur rendement et ne pas être en pénurie de puces...je vois pas ou est le problème.
Et de ce fait pouvoir s' agrandir,ça sera bénéfique pour nous.
Et puis c'est interne,on n'a pas à juger...
par Un ragoteur inspiré, le Vendredi 13 Avril 2012 à 14h47  
par fire du 57, le Vendredi 13 Avril 2012 à 13h12
Je veux bien comprendre l'agacement des ingé' mais la quand même si ils sont pas content ils ont qu'un construire leur propre Fab' ! Nan mais sérieux , le process' est pourri ? Il faut faire avec ! Les quantités n'est pas suffisante ? Il faut faire avec !
"A top Nvidia engineer is calling for a move to 450mm wafers as one part of the solution to the growing complexity, cost and time-to-market challenges in chip design. [...] In his keynote, Halepete ran through a laundry list of challenges that are slowing time-to-market and straining profitability for chip designs." (EETimes)

Mais voilà c'est Thibaut qui "revisite" à sa sauce l'article de Anton Shilov qui résume l'article plus complet de EETimes.
par fire du 57, le Vendredi 13 Avril 2012 à 13h12  
Je veux bien comprendre l'agacement des ingé' mais la quand même si ils sont pas content ils ont qu'un construire leur propre Fab' ! Nan mais sérieux , le process' est pourri ? Il faut faire avec ! Les quantités n'est pas suffisante ? Il faut faire avec !

J'en ai un peu marre que se soit toujours les fondeurs qui s'en prennent plein la gueule ! Sérieux Nvidia ne fait que critiquer , ils devraient se calmer et investir de l'argent des les finesses de gravure et puis c'est tout <img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />
par Un ragoteur qui trépasse, le Vendredi 13 Avril 2012 à 13h10  
 
T'as déjà vu une même puce passer d'une finesse de gravure à une autre ?


les nvidia G92 et GT200 sont passés de 65 à 55nm

par Un ragoteur qui revient, le Vendredi 13 Avril 2012 à 12h11  
par Un ragoteur P4G, le Vendredi 13 Avril 2012 à 11h38
Ca veut surtout dire une chose: NVIDIA payant au wafer, ils veulent des wafers plus gros pour avoir moins de "chutes"; en fait ils avouent à demi mot qu'il perdent des ronds à vitesse grand V. Et que le rendement doit être tellement merdique qu'ils ne savent plus ou gratter pour avoir plus de prod.
Leur souci aujourd'hui, c'est qu'ils n'ont qu'un seul GPU en 28nm en pratique et qu'ils ne couvrent qu'un seul segment avec, et qui plus est le moins rentable. En gros ils ont techniquement la puce la plus efficace en 28nm "à priori", j'ai tendance à penser que Pitcairn (HD7870/50) est plus efficace, et personne pour produire. Nous aurons de toute façon l'hure de vérité très vite avec Apple, en fonction du choix de leur fournisseur de GPU.
En quoi Apple serait une référence en GPU? Leurs machines n'ont jamais les meilleurs GPU. Mon mac à son achat avait pas mal de retard à ce niveau.
par jkonéri1, le Vendredi 13 Avril 2012 à 12h05  
En 2020 il y aura encore des PC ? <img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />