COMPTOIR
  
register

Tegra K1 : des performances de consoles pour un TDP de 5W ? Pas si sûr ...

Le Tegra K1, SoC de NVIDIA et successeur du Tegra 4, a été dévoilé cette année au CES. Les premiers benchs ainsi que le test du SoC au sein d'un AIO ThinkVision 28" réalisé par TomsHardware laissaient rêveurs. Le Tegra K1 se permettait de mettre une claque aux Apple A7 et Snapdragon 800 pour un TDP de 5W. Mais est-ce que quelqu'un a mesuré la véritable consommation du SoC à plein régime ? Il semblerait que non.

 

Et John Carmack le rappelle à sa manière sur Twitter en nous indiquant de prendre avec des pincettes l'annonce de NVIDIA réalisée au CES concernant la comparaison entre les Xbox 360 et PS3 par rapport au Tegra K1. Ce dernier serait, aux dires de NVIDIA, plus puissant tout en consommant 5W au lieu des 100W des consoles. Mais le CTO d'Oculus Rift précise qu'il faut comparer l'expérience de jeu et non pas les performances par watts. Et même si le SoC de NVIDIA permet de faire tourner des jeux PC comme Team Fortress 2, le Tegra K1 devrait équiper des tablettes qui ne disposeront pas du même catalogue de jeux que les consoles, et surtout, qui ne pourront pas dissiper la chaleur émise par le SoC.

 

nvidia_tegra_k1_console_ces.jpg

 

On a en effet des doutes sur le TDP de 5W quand on lit l'article de Semiaccurate qui a tenté d'en savoir plus sur la consommation réelle de la puce. Si le ThinkVision 28" permet de faire tourner le Tegra à 2 GHz au lieu des 2,4 GHz maximum, c'est surement pour une raison de dissipation thermique. Et on s'en rend encore plus compte lorque l'on jette un oeil au prototype NVIDIA présenté au CES. Celui-ci utilise un dissipateur beaucoup trop imposant pour refroidir seulement 5W. L'auteur de l'article penche plutôt pour 10W. Et avec une telle consommation, on comprend aisément pourquoi le K1 se permet de mettre une fessée déculotée aux SoC concurrents qui trouvent, eux, leur place au sein des smartphones. En ce sens, la déclaration de Carmack rejoint complètement celle de Qualcomm il y a un peu plus d'un mois et qui déjà ciblait les problèmes de dissipation thermique pour expliquer la différence entre chiffres avancée et réalité non virtuelle !

 

Il faudra donc attendre l'arrivée réelle du Tegra K1 au sein des tablettes et smartphones avec une version surement bridée pour savoir si on a réellement entre les main la console dont NVIDIA faisait référence. Mais les performances risquent d'en prendre un coup sans un système de refroidissement digne de ce nom. Système qu'on ne devrait pas retrouver dans les tablettes et smartphones.

Un poil avant ?

LibreOffice passe déjà en 4.2.1

Un peu plus tard ...

Google Chrome passe en version 806... euh 33, de façon très discrète

Les 39 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par lulu-nico, le Vendredi 21 Février 2014 à 21h01  
par davs63 le Vendredi 21 Février 2014 à 20h40

Mario est en réel 1080 certes moins groumant , mais pas moins beau ;p
Un jeux mario n'utilise pas des detail complexe un terrain de jeux vaste ......
C'est donc plus facile d'etre en 1080p.
Mario kart sera lui en 720p pour être fluide.
par davs63, le Vendredi 21 Février 2014 à 20h40  
par cabou83 le Vendredi 21 Février 2014 à 10h57
C'est souvent du simple uspcale.

Mario est en réel 1080 certes moins groumant , mais pas moins beau ;p
par Un ragoteur sans nom de Midi-Pyrenees, le Vendredi 21 Février 2014 à 20h29  
par Un ragoteur d'Auvergne le Vendredi 21 Février 2014 à 15h35
quand je parle des HD48XX, je rappelle quand même que c'était le haut de gamme d'AMD DEUX ANS après les 7800 donc c'est en quelque sorte comparable, ne vas pas me dire qu'une HD4870/50 vaut une GT630-540M car je t'appellerai troll (et ça tombe bien, on est vendredi)
Les 4850/4870 ça n'a jamais était du haut de gamme, et le gpu de la wii u n'arrive pas a leur cheville c'est pour dire.
Le gpu de la wii un un processeur custom d'amd basé sur leur bas de gamme de l'époque le tout a une fréquence de 550mhz, cad a peine la moitié de qui a sur les gpu bas de gamme, donc non ce n'est définitivement pas un modèle de puissance...
par 007sivade, le Vendredi 21 Février 2014 à 18h50  
Semiaccruate ?
Sérieusement ?
Vous baissez au comptoir là !

C'est demander à Marine Le Pen de commenter les chiffres du coût/gain de l'immigration en France ! Objectivité inférieur à 0!
par Un ragoteur d'Auvergne, le Vendredi 21 Février 2014 à 15h35  
par Un ragoteur sans nom de Midi-Pyrenees le Vendredi 21 Février 2014 à 00h45
Tu prend une 8800 GTX ça explose une 630, la génération ça fait pas tout, alors certes le gpu de la wii u est légèrement au dessus de la ps360 mais pas de beaucoup, ça reste un gpu mobile bas de gamme et le proco est complétement à la ramasse même en comparaison des ps360
quand je parle des HD48XX, je rappelle quand même que c'était le haut de gamme d'AMD DEUX ANS après les 7800 donc c'est en quelque sorte comparable, ne vas pas me dire qu'une HD4870/50 vaut une GT630-540M car je t'appellerai troll (et ça tombe bien, on est vendredi)
par lulu-nico, le Vendredi 21 Février 2014 à 12h14  
par davs63 le Vendredi 21 Février 2014 à 10h23
D'où tu tient l'info que la WiiU n'affiche que du 720 ? son principale atout face aux ps3 c'est justement le 1080. Pour avoir mi les deux consoles (+tv) cote à cote , la différence est est flagrante
Elle peut afficher du 1080p mais la one et la ps4 tous lers jeux ne sont pas en 1080p alors pour une console moins puissante c'est encore plus compliqué.
La ps3 tous les jeux ne sont pas en 720p sur wii u c'est déjà plus largement rependue d'ou les jeux plus jolie.
Il doit y avoir aussi plus d'anti-aliasing sur wii u.
par cabou83, le Vendredi 21 Février 2014 à 10h57  
par davs63 le Vendredi 21 Février 2014 à 10h23
D'où tu tient l'info que la WiiU n'affiche que du 720 ? son principale atout face aux ps3 c'est justement le 1080. Pour avoir mi les deux consoles (+tv) cote à cote , la différence est est flagrante
C'est souvent du simple uspcale. La ps3 elle affiche souvent moins de 720p (640p parfois).
La Wii U n'affiche pas du vrai 1080p, sur des titres comme tu cites (assassin creed 4), mais une définition moindre upscalé à 1080p.
par Hornpipe, le Vendredi 21 Février 2014 à 10h56  
par Vincent S. le Vendredi 21 Février 2014 à 08h30
Malheureusement pour toi, il n'y a aucun parti pris dans l'article, juste une analyse du K1 avec les sons de cloches entendus ci et là sur le Net. Et même au delà du rédacteur que je suis, je n'ai aucune animosité envers NVIDIA ou AMD. J'ai eu les deux, j'ai les deux et j'aurai les deux, du moment que je suis satisfait par un produit.
Hey, c'est de la polygamie çà, c'est interdit par la loi !
par davs63, le Vendredi 21 Février 2014 à 10h23  
par lulu-nico le Jeudi 20 Février 2014 à 20h32
Pour la wii u elle n'affiche que du 720p ça suffit empalement.
D'où tu tient l'info que la WiiU n'affiche que du 720 ? son principale atout face aux ps3 c'est justement le 1080. Pour avoir mi les deux consoles (+tv) cote à cote , la différence est est flagrante
par Un ragoteur "ArthaX" du Centre, le Vendredi 21 Février 2014 à 10h18  
par Un ragoteur qui draille d'Ile-de-France le Vendredi 21 Février 2014 à 10h08
Faudrait m'expliquer comment le mec il arrive à faire tourner TF2 pour linux x86 sur un proc arm.
Fake?
Il a peut être une licence du Source Engine. Et dans ce cas, il peut utiliser le SDK pour faire ce qu'il veut en matière de prototypage pour voir si c'est possible de faire un portage.
Le Source Engine de base tourne très bien sur un Athlon XP 2000+. Et un Double coeur Cortex-A15 @2GHz peut fournir au moins la même puissance en calcul à virgule flottante.
@++
par davs63, le Vendredi 21 Février 2014 à 10h14  
par mart666 le Jeudi 20 Février 2014 à 19h29
Donc plus puissant que la Wii-U aussi je croit bien, il me semble que la Wii-U était équivalente à une ps3...
La wiiU est bien plus puissante qu'une ps3 ( ainsi que le Tegra ) , certe mario n'est pas un exemple de benchmark mais des titres comme assassin creed4 se montre super fluide en 1080. Sur ps3/x360 la grande majorité des jeux sont en 720 et offre moins de détail graphique que les next gen et pc.
par Un ragoteur qui draille d'Ile-de-France, le Vendredi 21 Février 2014 à 10h08  
Faudrait m'expliquer comment le mec il arrive à faire tourner TF2 pour linux x86 sur un proc arm.
Fake?