COMPTOIR
  
register

×

MSI RTX 2070 ARMOR : face avant

Test • NVIDIA GeFORCE RTX 2070
MSI RTX 2070 ARMOR : face avant
MSI RTX 2070 ARMOR : face arrière
MSI RTX 2070 ARMOR : alimentation
MSI RTX 2070 ARMOR : connectique vidéo
MSI RTX 2070 ARMOR : plaque arrière
MSI RTX 2070 ARMOR : refroidisseur
MSI RTX 2070 ARMOR : plaque avant
MSI RTX 2070 ARMOR : PCB
MSI RTX 2070 ARMOR : GPU & Mémoire
MSI RTX 2070 ARMOR : étage d'alimentation
Fréquences typiques de la MSI RTX 2070 ARMOR

• MSI RTX 2070 ARMOR

Pour ce test, une fois n'est pas coutume, NVIDIA ne nous a pas fait parvenir de modèle de référence dans un premier temps, soucieux de présenter des modèles plus accessibles. Nous nous sommes donc tournés vers ses partenaires et après un bon moment, nous avons réussi à mettre la main sur le modèle MSI RTX 2070 ARMOR. Il ne s'agit pas à proprement parler d'un modèle premier prix comme par exemple la KFA² Ex que l'on peut trouver à 499 €, puisque son tarif officiel est de 589 €.

 

Il respecte toutefois les caractéristiques de référence dans sa version "vanilla" que nous testons, puisqu'il existe également une version OC. La carte utilise 2 ventilateurs axiaux d'un diamètre de 95 mm à 14 pâles courbées (Torx 2.0). Les PCB et carénage sont intégralement noirs, hormis une bande blanche autour du premier ventilateur. À la pesée, la carte accuse 1340 g, sa longueur totale est de 30 cm, elle dépasse également de 3 cm l'équerre de fixation. Enfin, la face arrière est recouverte d'une backplate.

 

MSI RTX 2070 ARMOR : face avant [cliquer pour agrandir]MSI RTX 2070 ARMOR : face arrière [cliquer pour agrandir]

Face avant et arrière

 

Le TDP de la carte est fixé comme toutes les RTX 2070 de référence à 175 W, toutefois, MSI ne s'est pas contenté d'un seul connecteur à 8 pins amplement suffisant pour une telle valeur, puisque il lui a adjoint un second connecteur à 6 pins. De quoi overclocker en toute sérénité vis-à-vis du respect de la norme PCIe (300 W max. avec une telle configuration), mais aussi pour l'alimentation du VirtualLink (jusqu'à 35 Watts absorbés, pour 27 W restitués max.). La connectique est complète, avec 3 connecteurs Display port 1.4a, un HDMI 2.0b et un USB Type-C (VitrtualLink).

 

MSI RTX 2070 ARMOR : alimentation [cliquer pour agrandir]MSI RTX 2070 ARMOR : connectique vidéo [cliquer pour agrandir] 

Connecteurs d'alimentation et vidéo

 

La backplate participe au refroidissement des puces mémoires et du GPU, par le biais de pads thermiques situés au dos de ces composants. Le refroidisseur est composé d’une base en aluminium, au sein de laquelle sont encastrés 5 caloducs en cuivre, parcourant les ailettes du radiateur et à contact direct (via la pâte thermique) avec le TU106. Quelques puces mémoires le sont aussi, les autres le sont avec la base en aluminium, toutes utilisant un pad thermique pour l'interface avec le refroidisseur. C'est également le cas de certains VRM situés derrière l'équerre de fixation.   

 

MSI RTX 2070 ARMOR : plaque arrière [cliquer pour agrandir]MSI RTX 2070 ARMOR : refroidisseur [cliquer pour agrandir]

Plaque arrière et dissipateur

 

Une fois le refroidisseur principal retiré, on trouve une structure métallique noire permettant de rigidifier le PCB et éviter ainsi que le poids du ventirad ne le déforme. Elle fait également office de dissipateur pour certains composants sensibles. On notera également que les condensateurs et selfs de l'étage d'alimentation dévolu au GPU, disposent de longs pads thermiques dédiés, afin de transmettre une partie de la chaleur émise au dissipateur principal. 

 

MSI RTX 2070 ARMOR : plaque avant [cliquer pour agrandir]MSI RTX 2070 ARMOR : PCB [cliquer pour agrandir]

La carte dénudée

 

TU106 trône au centre du PCB, entouré de 8 puces GDDR6 d'origine Micron et certifiées pour 14 Gbps. L'étage d'alimentation dédié au GPU dispose de son côté de 6 phases, même si les emplacements pour 2 supplémentaires sont prévus, cette carte pouvant partager son PCB avec d'autres modèles overclockés ou utilisant un TU104. 

 

MSI RTX 2070 ARMOR : GPU & Mémoire [cliquer pour agrandir]MSI RTX 2070 ARMOR : étage d'alimentation [cliquer pour agrandir]

Le GPU, la mémoire et les VRM

 

Poursuivons la description de notre carte au travers de GPU-Z, dans sa version 2.16. Côté fréquences, elles sont relativement conservatrices hors Boost, mais ce dernier change drastiquement la donne, d'autant que les valeurs officielles ne correspondent pas forcément à celles appliquées en pratique, ce point dépendant de la qualité de la puce et GPU Boost 4.0.

 

GPU-Z RTX 2070 ARMOR

GPU-Z MSI RTX 2070 ARMOR

 

Voyons cela en pratique : au repos, le GPU se stabilise à 300 MHz,  une valeur plus élevée que la génération Pascal, mais identique à celle de ses grandes sœurs. La fréquence mémoire reprend de son côté la valeur notée sur la série 10 utilisant la GDDR5X. En charge, on note un maximum à 1890 MHz pour le GPU, la température n'intervenant plus avant le seuil fixé par NVIDIA (ou l'utilisateur), qui n'est jamais atteint avec le refroidisseur de la carte.

 

Par contre, la limite de consommation par défaut est systématiquement atteinte lors d'une charge 3D lourde, conduisant alors à une baisse de la fréquence. Dans ces conditions, le GPU se stabilise sous les 1800 MHz (1766 MHz en moyenne, mini à 1725 MHz, plus de détails page 17), pour une valeur annoncée à 1620 MHz, soit +9%. Côté mémoire, pas de surprise pour la fréquence maximale, nous avons toutefois relevé une valeur intermédiaire à 1250 MHz, lors d'une charge légère. 

 

Fréquences typiques de la MSI RTX 2070 ARMOR [cliquer pour agrandir]

Les fréquences de la MSI RTX 2070 ARMOR

 

C'est tout pour la MSI RTX 2070 ARMOR, passons page suivante aux spécifications.



Les 27 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par Pounyet, le Samedi 29 Décembre 2018 à 11h48  
par Guillaume L. le Samedi 29 Décembre 2018 à 10h00
Je vais même complêter la réponse d'Eric : l'intérêt des customs aujourd'hui est d'avantage de maintenir les performances sous toutes les conditions plus que d'augmenter les performances brutes sur un bench.
Pour ceux qui voudront booster les performances, maintenant il faudra passer par l'OC automatique des fabricants, mais les premiers tests sur des RTX customs ne démontrent pas de gros gains de puissances en conditions réelles . L'intérêt sera surtout sonore, la fiabilité et l'aspect visuel si on aime le RGB
par Guillaume L., le Samedi 29 Décembre 2018 à 10h00  
Je vais même complêter la réponse d'Eric : l'intérêt des customs aujourd'hui est d'avantage de maintenir les performances sous toutes les conditions plus que d'augmenter les performances brutes sur un bench.
Pour ceux qui voudront booster les performances, maintenant il faudra passer par l'OC automatique des fabricants, mais les premiers tests sur des RTX customs ne démontrent pas de gros gains de puissances en conditions réelles . L'intérêt sera surtout sonore, la fiabilité et l'aspect visuel si on aime le RGB
par Eric B., le Samedi 29 Décembre 2018 à 06h49  
Oui, on s'amuse à baisser les fréquences . Non mais sérieusement dans quel but ferait-on une telle chose ? L'écart entre la 1080 et 1080 Ti sur cet article est de 28,8 %, une valeur qui oscille systématiquement autour des 30% depuis son lancement (selon les dossiers et donc le panel de jeux retenus).

Edit : comme tu as enrichi ton message depuis ma réponse, je complète celle-ci. Comparer les scores comme tu fais est trompeur : la configuration est différente, les réglages peut-être aussi et la façon de faire le test probablement. Une FE pour rappel est sérieusement impactée par sa température lorsque tu prends le temps de laisser monter celle-ci sur la carte, ce que je fais pour toutes les cartes puisqu'en définitive ce sera le niveau de performance réelle que retrouvera un joueur lors d'une session prolongée et pas juste un bench à froid. Il est clair qu'une custom avec un bon refroidisseur sera moins impactée.
par fabtech, le Samedi 29 Décembre 2018 à 06h29  
Je me demande comment ça se fait que les scores soient aussi médicocres avec une GTX1080Ti et ce même avec une FE... vous avez sous cadencé la CG ???
J'ai une 1080Ti, pour exemple je fais 84fps sous Shadow of The Tomb Raider en Ultra QHD, Mon score 3DMARK est de plus de 10500... Il y a un souci je pense... Une FE fait en général plus de 9500 sous 3DMARK et en moyenne 80fps sous Shadow of The Tomb Raider, les résultats ici en sont très loin...
Test cependant très intéressant mais du coup je me demande si les résultats de la RTX ne sont pas faussés non plus...
par TwoFace, le Samedi 29 Décembre 2018 à 02h01  
par Jemporte le Samedi 29 Décembre 2018 à 00h21
Tu as lu l'article RTX sur Vega ? Ca en dévoile pas mal sur la mise en place du Raytrace par l'API RTX pour finalement le sortir par le DXR, en blanc et en vrai temps réel (ce que Vega peut montrer), et ce qu'on peut dire c'est que c'est très mal optimisé. Les deux explications plausibles : le DXR de M$ est très mal foutu, ou bien c'est le moyen le plus simple pour les devs, pour appliquer le raytrace en surcouche à un jeu fini et déjà développé.
Je confirme tu racontes n'importe quoi, l'API c'est DXR et le RTX c'est la techno qui utilise les RT cores qui ensuite passe par le DXR microsoft bref tu mélanges un peu tout, pour finir par un pâté qui sent pas très bon
par Jemporte, le Samedi 29 Décembre 2018 à 00h21  
par TwoFace le Vendredi 28 Décembre 2018 à 20h49
Sérieux t'en as pas marre de raconter des idioties ?
Tu as lu l'article RTX sur Vega ? Ca en dévoile pas mal sur la mise en place du Raytrace par l'API RTX pour finalement le sortir par le DXR, en blanc et en vrai temps réel (ce que Vega peut montrer), et ce qu'on peut dire c'est que c'est très mal optimisé. Les deux explications plausibles : le DXR de M$ est très mal foutu, ou bien c'est le moyen le plus simple pour les devs, pour appliquer le raytrace en surcouche à un jeu fini et déjà développé.
par TwoFace, le Vendredi 28 Décembre 2018 à 21h27  
par Jte Roule D3ssus le Vendredi 28 Décembre 2018 à 21h03
Pratiquement une 1080ti, c'est vraiment pas mal
C'est triste à dire mais c'est sans doute le meilleur rapport qualité prix niveau carte "haute performance"
Pourquoi triste ?? ah oui c'est une nvidia ...
Plus sérieusement oui c'est un excellent prestations / perfs et en prime elle reste jouable en DXR moyen pour du 1080p donc franchement y a rien à dire, contrairement aux 2080 Ti...
par Jte Roule D3ssus, le Vendredi 28 Décembre 2018 à 21h03  
Pratiquement une 1080ti, c'est vraiment pas mal
C'est triste à dire mais c'est sans doute le meilleur rapport qualité prix niveau carte "haute performance"
par TwoFace, le Vendredi 28 Décembre 2018 à 20h49  
par Jemporte le Vendredi 28 Décembre 2018 à 19h32
Et encore, en regardant ce qui se passe sur le hack des Vega en rendu DXR jeu, programmé pour RTX, on commence à comprendre l'usine à gaz mise en place pas Nvidia pour optimiser en DXR les jeux pas prévus, et ce qui explique la chute de perfs catastrophiques dès qu'on active le DXR. Autrement dit, si des jeux prennent en compte depuis le début le DXR, ça ira nettement plus vite. En theorie, le Raytrace, tel que développé par Nvidia (unités séparées du GPU), ne devrait avoir aucun impact sur les perfs jeu. Il devrait rendre merdiquement ou très bien mais séparément du reste du rendu... avec à la limite un peu d'impact pour la sync des deux.
Il est probable, au contraire, qu'AMD intègre les unités de calculs capables du Raytrace dans chaque unité de calcul général sur Navi, comme sur Vega. Du coup Navi (et vega) devrait être impacté par la qualité de rendu raytrace et le pilote AMD devra opérer l'équilibrage. le principe d'AMD dvrait permettre une utilisation optimale des cores, mais sera limité au niveau des capacités des Cores. Ils ne pourront pas gaver le GPU d'un type de calcul parallèle particulier, plus qu'un autre.
Sérieux t'en as pas marre de raconter des idioties ?
par Jemporte, le Vendredi 28 Décembre 2018 à 19h32  
par TwoFace le Vendredi 28 Décembre 2018 à 17h50
Plus sérieusement à 500 balles (et il y a déjà eu des promos à 480 euros..)franchement elle a du mérite cette carte, en prime elle donne l'occasion de pouvoir jouer en 1080p avec du DXR en moyen dans de bonnes conditions.
Après cela reste chère mais dans un positionnement de gamme c'est la meilleur offre sur les turing et pour ceux n'ayant pas les moyens la 2060 arrive en janvier il me semble.

Et hormis le DXR, la carte est très à l'aise en 1440p
Et encore, en regardant ce qui se passe sur le hack des Vega en rendu DXR jeu, programmé pour RTX, on commence à comprendre l'usine à gaz mise en place pas Nvidia pour optimiser en DXR les jeux pas prévus, et ce qui explique la chute de perfs catastrophiques dès qu'on active le DXR. Autrement dit, si des jeux prennent en compte depuis le début le DXR, ça ira nettement plus vite. En theorie, le Raytrace, tel que développé par Nvidia (unités séparées du GPU), ne devrait avoir aucun impact sur les perfs jeu. Il devrait rendre merdiquement ou très bien mais séparément du reste du rendu... avec à la limite un peu d'impact pour la sync des deux.
Il est probable, au contraire, qu'AMD intègre les unités de calculs capables du Raytrace dans chaque unité de calcul général sur Navi, comme sur Vega. Du coup Navi (et vega) devrait être impacté par la qualité de rendu raytrace et le pilote AMD devra opérer l'équilibrage. le principe d'AMD dvrait permettre une utilisation optimale des cores, mais sera limité au niveau des capacités des Cores. Ils ne pourront pas gaver le GPU d'un type de calcul parallèle particulier, plus qu'un autre.
par dfd, le Vendredi 28 Décembre 2018 à 19h10  
Super test anéfé !
Très bonne carte, cette RTX 2070 : à ~500 balles elle fera un carton dans sa gamme de perfs...
Mais pour les nouveaux acheteurs malheureusement : les possesseurs de GTX 1080 ne vont pas tout benner pour quelques % de perfs en plus.
Perso je ne retiens de RTX que l'inflation du ticket d'entrée.
Même l'hypothétique RTX 2050 aux perfs +/- proches de la GTX 1060 aura du mal à séduire, si elle ne tombe pas grandement sous les 250 euros...
par TwoFace, le Vendredi 28 Décembre 2018 à 17h59  
par Eric B. le Vendredi 28 Décembre 2018 à 17h54
Ben pour le coup, la Vega56 (si on met de côté la tirade DXR), on en trouve en ce moment à 350 € et à ce prix c'est loin d'être une énormité que de la conseiller...
Ben fallait mettre un peu la mise en scène non ? d'ou la tirade avec la VEGA 56 qui sois dit en passant est un super plan surtout avec 3 gros jeux AAA gratos j'en conviens volontiers