COMPTOIR
  
register

Tesla T4 : Turing débarque dans les centres de calcul

A l'occasion de la GTC - GPU Technology Conference - organisée par NVIDIA au pays du soleil levant, le concepteur de GPU vert a dévoilé un nouvelle carte en sus des RTX : la Tesla T4. Destinée aux serveurs de calcul, la bête se chargera de propulser tous vos algorithmes d'IA grâce à la plateforme TensorRT de la firme.

 

nvidia tesla t4

 

Au niveau des caractéristiques, on retrouve une carte fanless de 75W seulement, ce qui est surprenamment peu pour ce genre de produit. Cependant, les détails de la puce sont officiels : 320 Turing Tensor Cores et 2560 CUDA Cores, soit un gros demi TU-104 si l'on se fie aux dernières rumeurs ; le TU-104 se profilant pour être la puce de la RTX 2080.

 

Niveau puissance, NVIDIA communique sur 8.1 TFLOPS en simple précision, 65 en précision mixte et un fabuleux 260 TOPS en INT4 pour ceux que cela intéresse. Sinon, on garde une classique connexion en PCIe 3.0 x16, 16 Go de VRAM en GDDR6 offrant une bande passante de plus de 320 Go/s. La surface de la puce reste cependant inconnue, on peut imaginer qu'il s'agit d'un design similaire à un autre GPU destiné au grand public ; ce qui jette d'autant plus le trouble autour de la RTX 2070. Vivement la fin officielle du NDA pour obtenir plus de tests et de détails !

 

Un poil avant ?

Forza Horizon 4 : la démo est là !

Un peu plus tard ...

TrendForce : délais des CPU mobile 14nm d'Intel à l'horizon, au profit de Ryzen Mobile ?

Les 4 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par Aquina, le Samedi 15 Septembre 2018 à 05h37  
par Dark, le Jeudi 13 Septembre 2018 à 20h12
Soit tu es un expert dans le domaine des semi-conducteurs, soit c'est un bel exemple de l'effet Dunning-Kruger.
par Dark, le Jeudi 13 Septembre 2018 à 20h12  
par Jemporte, le Jeudi 13 Septembre 2018 à 19h35
Effectivement, un telle carte semble destinée à faire profiter de sa basse consommation un serveur qui autrement n'accepterait pas plus.
Sinon, entre Volta, RT Cores, Ai, ce n'est pas du tout le rapport.
Il faut imaginer les RTX comme des GTX Pascal avec deux coprocesseurs séparés : un coprocesseur destiné à des calculs nécessaires pour calculer l'impact des photons dans un rendu (raytrace) et un autre pour calculs orientés tensors (qu'on aime décrire comme les moteurs de l'IA). La vérité c'est que ce sont juste des unités de calculs spécifique supplémentaires. Rien ne forçait Nvidia à ne pas les implémenter dans les CUDA cores, hors, probablement un chamboulement trop gros de leur cartes et pilotes. Donc que ces cores fassent de l'IA ou le café, ça relève juste de leur capacité de calcul.
AMD, au contraire de Nvidia implémente dans GCN toutes les fonctionnalités dans chaque core GPU. C'est le cas sur les Vega existantes et ça sera le cas sur Vega 20.
Soit tu es un expert dans le domaine des semi-conducteurs, soit c'est un bel exemple de l'effet Dunning-Kruger.
par Jemporte, le Jeudi 13 Septembre 2018 à 19h35  
par AntiZ, le Jeudi 13 Septembre 2018 à 15h20
Le fait qu'elle soit fanless est pas étonnant, c'est prévu pour être installé dans des serveurs avec des Delta tournant à au moins 3000RPM.

Par contre, qu'il n'y ait pas plus gros signifie que ça ne passerait pas avec un tel système de refroidissement ?

Ce que je note aussi, c'est qu'nVidia pourrait abandonner Volta au profit de Turing étant donné que les Tensor cores qui on étés transformés en RT cores sont maintenant de nouveau capables de faire de l'IA.
...
En soit, tout autant AMD qu'nVidia se reposent sur une architecture sans cesse améliorée de 2012 (GCN et Kepler).
Je me demande si ça ne signifie pas un renouveau total des architectures GPU d'ici 2020-2021...
Effectivement, un telle carte semble destinée à faire profiter de sa basse consommation un serveur qui autrement n'accepterait pas plus.
Sinon, entre Volta, RT Cores, Ai, ce n'est pas du tout le rapport.
Il faut imaginer les RTX comme des GTX Pascal avec deux coprocesseurs séparés : un coprocesseur destiné à des calculs nécessaires pour calculer l'impact des photons dans un rendu (raytrace) et un autre pour calculs orientés tensors (qu'on aime décrire comme les moteurs de l'IA). La vérité c'est que ce sont juste des unités de calculs spécifique supplémentaires. Rien ne forçait Nvidia à ne pas les implémenter dans les CUDA cores, hors, probablement un chamboulement trop gros de leur cartes et pilotes. Donc que ces cores fassent de l'IA ou le café, ça relève juste de leur capacité de calcul.
AMD, au contraire de Nvidia implémente dans GCN toutes les fonctionnalités dans chaque core GPU. C'est le cas sur les Vega existantes et ça sera le cas sur Vega 20.
par AntiZ, le Jeudi 13 Septembre 2018 à 15h20  
Le fait qu'elle soit fanless est pas étonnant, c'est prévu pour être installé dans des serveurs avec des Delta tournant à au moins 3000RPM.

Par contre, qu'il n'y ait pas plus gros signifie que ça ne passerait pas avec un tel système de refroidissement ?

Ce que je note aussi, c'est qu'nVidia pourrait abandonner Volta au profit de Turing étant donné que les Tensor cores qui on étés transformés en RT cores sont maintenant de nouveau capables de faire de l'IA.

Si je suis bien:
- Volta = Volta 1.0
- Turing = Volta 1.1
- Tesla T4 = Volta 1.2

C'est juste très bizarre comme manière de faire.

Mais du coup:
- Kepler = Kepler 1.0
- Maxwell = Kepler 1.5
- Pascal = Kepler 1.6
- Volta = Kepler 1.7
- Turing = Kepler 1.8
- Tesla T4 = Kepler 1.9 ?



En soit, tout autant AMD qu'nVidia se reposent sur une architecture sans cesse améliorée de 2012 (GCN et Kepler).
Je me demande si ça ne signifie pas un renouveau total des architectures GPU d'ici 2020-2021...