COMPTOIR
  
register

Orin : une nouvelle puce pour le machine learning chez NVIDIA

Alors que les rumeurs vont bon train quant à la seconde prochaine architecture des verts, voilà que la firme lâche un peu de lest à propose d’Ampère, la supposée successeure de Turing. Remballer par contre vos langues pendues, il ne s’agit que d’un module dédié à la conduite autonome, qui, officiellement, intègre un GPU nouvelle génération.

 

Malheureusement, nous n’en saurons pas plus sur son organisation interne. Mais ce ne sont pas les détails qui manquent : équipés de surcroît de 12 cœurs Hercules, les tout derniers design hautes performances d’ARM en date prévus pour les 7 nm et 5 nm, le bousin se nomme Orin et remplace l’ancien Drive PX Pegasus. En sortant les gros chiffres, cela donne 7 fois la puissance des modules Xavier soit 200 TOPS répartis sur 17 milliards de transistors gravés en 7 nm EUV — ça y est, le premier pas dans cette finesse est fait pour le caméléon !

 

nvidia orin soc jensen

 

Le bousin verra le jour sous différentes saveurs : de la version 15 W/36 TOPS gérant une caméra à celle contenant 2 puces Orin et 2 GPU pour 750 W et 2 000 TOPS, en passant par deux modèles intermédiaires, l’un à un Orin pour 40 W (et 100 TOPS), l’autre à deux Orin pour 400 TOPS dans 130 W. Ce qui signifie que 2 GPU tiennent dans environ 600 W, soit 1 GPU à 300 W pour fournir 800 TOPS, ce qui est 3,5 fois plus que les RTX 8000 actuelles. Néanmoins, tout cela doit être pris avec des grosses pincettes puisque des éventuelles améliorations des tensors cores peuvent résulter en des puces bien plus puissantes pour le machine learning, mais sans traduction autre qu’un DLSS plus rapide en jeu !

 

Bref, inutile de se tripoter davantage sur des chiffres extrapolés : NVIDIA avance bien dans son domaine et n’a aucun problème à présenter des design 7 nm, ce qui est de bon augure pour le marché Gaming. Néanmoins, puisque le refresh Super tient encore bien la tête à Navi, il ne faut pas s’attendre à un changement d’architecture immédiat sur ce segment. À voir ce qui sera annoncé au CES ! (Source : WCCFTech)

Un poil avant ?

Démontage du Mac Pro : une belle rape à fromage ?

Un peu plus tard ...

Comptoiroscope • Les versions PS4 et PC de Detroit comparées

Les 9 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur de transit en Auvergne-Rhône-Alpes, le Vendredi 20 Décembre 2019 à 17h48  
Beaucoup (trop) de spéculation chez Wccftech pour (trop) peu
d'informations...

 

The platform is powered by a new system-on-a-chip (SoC) called Orin,
which consists of 17 billion transistors and is the result of four
years of R&D investment.


source:
https://nvidianews.nvidia.com/news/nvidia-introduces-drive-agx-orin-advanced-software-defined-platform-for-autonomous-machines

La seule info véritable c'est le nombre de transistors dans le SoC,
cependant nVidia n'a fait aucune annonce sur le type d'architecture
(monolithique ou multidie), le procédé de gravure (16 nm ou 7 nm)
et encore moins le type de source (DUV ou EUV) de ce dernier.

Bref circulez il n'y a rien à voir!
par Cristallix, le Vendredi 20 Décembre 2019 à 15h56  
17 milliards en 7nm J'me demande c'est quoi le rendement du binz par TSMC. Ça m'étonnes pas qu'ils aient pris leur temps pour faire la puce vu la quantités et la taille de la puce faut que ça soit nickel.
par Un ragoteur blond en Île-de-France, le Jeudi 19 Décembre 2019 à 21h40  
"Néanmoins, tout cela doit être pris avec des grosses pincettes puisque des éventuelles améliorations des tensors cores peuvent résulter en des puces bien plus puissantes pour le machine learning, mais sans traduction autre qu'un DLSS plus rapide en jeu !"
Ca c'est en supposant que ces GPU data centers et conduite auto intégrent des RT cores, ce qui n'a rien d'évident. Sur les variantes gaming, c'est justement là qu'aura lieu le boost. De plus ce sont ces RT cores qu'on avait trouvé non optimisés (peut-être intégrés à la hâte), ce qui se retrouvait dès les résultats réels. Qu'on ait un saut au moins équivalent entre Xavier et Orin sur le RT gaming, à savoir X7 ne serait pas étonnant. Sur la partie raster on a juste besoin d'atteindre le 4K sur toute la gamme et on y est déjà avec le 2080Ti soit une saut minimal pour Ampere pour le bas de gamme. La 7nm EUV Samsung est fiable, coûte pas cher, et permet une densité supérieure à x3 tout en permettant des fréquences supérieures. Suffit de faire le calcul pour voir la marge considérable de Nvidia pour exploser les perfs RT sur des GPU moins chers et/ou avec + de VRAM.
par Un ragoteur blond en Île-de-France, le Jeudi 19 Décembre 2019 à 21h24  
milliards bien sûr. Bon sinon visiblement ça leak que Ampère le GPU haut de gamme A100 et Titan, sa version castrée, plus chers que RTX et avec HBM2, lancés au 1er trimestre mais gamme gaming moins chère sur le HDG que Turing lancée au second trimestre, avec plus de RAM. Donc probable différence de GPU entre Titan et 3080Ti. La Titan remplacerait le GPU Volta, donc avec des FP64.
A mon avis le Navi 23 "tueur de Nvidia" va pas pouvoir s'attaquer au haut de gamme et va devoir jouer dans la cour de seconds couteaux qu'AMD va devoir solder à un prix gamer.
par dfd, le Jeudi 19 Décembre 2019 à 18h43  
par Rockfort, le Jeudi 19 Décembre 2019 à 18h12
17 milliards. c'est juste 1000 fois plus que 17 millions.
A la louche, à 10% près, ça doit être ça, hein ?
par Rockfort, le Jeudi 19 Décembre 2019 à 18h12  
par Un champion du monde en Île-de-France, le Jeudi 19 Décembre 2019 à 17h56
Pas très net qui a 17 millions de tr, qui est 3.5 fois plus puissant... alors qu'il y a visiblement plusieurs solutions différentes avec plusieurs chips.
17 milliards. c'est juste 1000 fois plus que 17 millions.
par Un champion du monde en Île-de-France, le Jeudi 19 Décembre 2019 à 17h56  
Pas très net qui a 17 millions de tr, qui est 3.5 fois plus puissant... alors qu'il y a visiblement plusieurs solutions différentes avec plusieurs chips.
par Un ragoteur qui draille en Île-de-France, le Jeudi 19 Décembre 2019 à 15h22  
par Unragoteurdu69 embusqué, le Jeudi 19 Décembre 2019 à 14h29
manque plus les écrans
Écran? LG UltraGear qui seront là bien avant
par Unragoteurdu69 embusqué, le Jeudi 19 Décembre 2019 à 14h29  
manque plus les écrans