COMPTOIR
  
register

Matrox Luma : au jeu des chips musicales, c'est option ARC

Matrox, un nom qui fait rêver les vieux de la vieille, ceux qui ont connu le PCI tout sauf express et l’AGP, nous revient.... Pour la deuxième fois. Alors que des GP107 des verts animaient les D1450 et D1480, la marque, qui change d’ASIC comme de chemise, introduit aujourd’hui la gamme LUMA. Comme tout ce que fait la marque depuis quelques années, on n’est pas là pour aligner les FPS, faire du rendu Blender ultra-précis en un temps record ou encore jouer à kikalaplugross’ sur HWBOT, mais encore et toujours du multi-affichage basé cette fois-ci sur les puces Intel ARC A310 et A380.

 

matrox luma a380 a310 a310f

Trois références sont prévues

 

Matrox LUMAa310a310Fa380
Norme PCIe 4.0 x8 (mais x16 en form factor)
GPU ARC 310 ARC 380
Sorties 4x mini DP 2.1 UHBR10
+ HDCP 2.3
4 x DP 2.1 UHBR10
+ HDCP 2.3
Définitions max 2 x 8K60 / 5K120 ou 4 x 5K60 HDR 12-bit
Il est où le magneau ? 4 Go 6 Go
Jus d'élec et dissipation 35 W, passif 50 W, actif 50 W, actif
Fear Factor low profile simple slot simple slot

 

Il est évident que ces GPU seront difficiles à obtenir pour le simple geek car Matrox parle dans la datasheet des OEMs, intégrateurs, spécialistes de l’audio-visuel, des devs et puis c’est tout. Il reste malgré tout bon de voir que low profile et single slot ne sont pas encore chose du passé et de nombreux fabricants auraient tout intérêt à y repenser. Les particuliers en recherche de système économes en énergie et/ou à faible encombrement se tournent vers du matériel pro souvent onéreux voir inadapté à leurs usages… Et qu’il serait temps d’arrêter de parler d’écologie ou de pénurie de métaux rares ou précieux quand on met un demi-kilo d’alu et de cuivre sur une carte de moins de 75 W !

 

Un poil avant ?

TSMC va bien, merci, mais pas de N3 avant 2025 pour nous. Bisous.

Un peu plus tard ...

Un Alta F2 hors normes pour les 20 ans de Silverstone

Les 23 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Mardi 02 Mai 2023 à 20h59  
par Scrabble, le Lundi 01 Mai 2023 à 08h19
Pour la sortie VGA, il pouvait y avoir un problème de filtrage passe-bas, autrement dit un blur horizontal qui était très gênant pour lire les caractères. Je me rappelle, j'avais solutionné ça sur mon moniteur VGA, en enlevant trois condensateur à l'entrée RVB du moniteur. Remplacer les trois résistances de 75 ohms par des valeurs plus élevées pouvait aider aussi
A ce que je me souviens les Mystiques n'était au niveau des Matrox normales. Ils avaient fait des cartes gaming donc pas même niveau de qualité à priori.
Les cartes Matrox classiques, qui étaient toutes professionnelles avaient un piqué irréprochable.
Et le suite que j'ai donné était à peu près tout le temps vérifiée. Matrox>ATI>S3> les autres, niveau qualité de l'affichage analogique sur du CRT. On pouvait dire quelle carte utilisait un ordinateur rien qu'à regarder la précision des pixels.
Cette précision était très important pour pouvoir travailler notamment dans la CAO où à la limite on se foutait de la vitesse de la carte du moment que l'affichage était bon. Par exemple les S3 Virge VX avait un excellent affichage. Pourtant il fallait surtout éviter d'utiliser le mode accéléré 3D (il fallait utiliser l'accélération logicielle) qui rendait moins bien et plus lentement que les CPU. Mais pour la CAO filaire, c'est de la 2D qu'il faut...

Et pour jouer, du 480x640 suffisait, était le norme et par exemple Quake, au lancement, utilisait toujours du btblt pour s'afficher sur les 486DX2-66 sans problème sur des GPU qui n'étaient pas accélérés 3D.
D'ailleurs les premières 3DFX sur une API OpenGL appauvrie affichaient dans cette définition, oh miracle, de façon fluide.
par fofo, le Lundi 01 Mai 2023 à 09h37  
par Thamiya des Hauts-de-France¶, le Samedi 29 Avril 2023 à 08h02
Je me souviens de unreal tournament sur matrox g400, a l'époque, ça écrasait toute les nvidia, c'était limite de la triche
Les G400 était déjà à la ramasse le jour de sa sortie : le GPU est sorti en septembre 99 se faisait régulièrement doublé par la TNT2 (moins cher) et sortie 6 mois plus tôt, 1 mois après la sortie du g400 sortait la GeForce 256, et là comment dire

Bon après une G400 tenait la dragée haute des 3DFX, TNT premier du nom (ou Rage 128 ) mais c'était déjà clairement des vieux modèles.
par fofo, le Lundi 01 Mai 2023 à 09h17  
par Un ragoteur bio embusqué, le Lundi 01 Mai 2023 à 07h53
Comme déjà dit ailleurs, la "superbe qualité de la sortie VGA" des Matrox était assez largement du baratin marketing relayé par la "presse"...

En dehors de la fréquence du RAMDAC
Bah pour moi c'est là-dessus où ils étaient meilleurs, le RAMDAC était meilleur et les cartes avaient pas mal de mémoire, et du coup tu pouvais envoyer du 75Hz voir 83Hz en haute définition (1600x1200), avec un SiS tu bloquais à 60hz (ou 16bit) du coup la comparaison piquait un peu les yeux.
Bon je te rejoins sur un point la différence majeure venait de l'écran, le CRT était aussi limité en ramdac, et si tu ajoutes un pitch un peu trop gros, bah, c'était moche, peu importe la carte graphique
Dans les faits quand tu investissais une fortune dans un bon écran, tu ne mégotais pas quelques centaines de francs pour la carte graphique, donc les 21" and co était systématiquement avec une Millénium.

par Un hardeur des ragots en Île-de-France, le Lundi 01 Mai 2023 à 09h17  
par Un ragoteur bio en Auvergne-Rhône-Alpes, le Samedi 29 Avril 2023 à 14h58
Avec la version 4 Mo, je restais sagement en 1024x768. Tu avais un affichage stable en 1600x1200 avec la 8 Mo ? Je me souviens que du côté des IPG, c'était flou et ça tremblait à cette définition.
La quantité de mémoire ne joue pas vraiment sur la stabilité de l'affichage.
A cette époque, il faut bien comprendre que le signal était analogique, donc la stabilité était liée au RAMDAC, au blindage éventuellement du câble et des capacité de l'écran (et tous les composants pouvant influencer le signal).
Concernant la mémoire, tout dépend de l'utilisation qu'il en était fait. Par exemple, une définition très utilisée sur différente machines le 320x200.
Sur PC, le mode 13h, soit le 320x200 en 256 couleurs indexées. 64Kio était suffisant, toutefois les animations nécessitaient de travailler sur 2 pages de mémoire pour éviter les problèmes de clipping, donc 128Kio.
Toujours dans ce mode, il était possible de changer artificiellement la définition ou le nombre de couleurs en jouant avec le RAMDAC. Par exemple en changeant la palette de couleurs à chaque changement de ligne de l'écran ou en entrelaçant deux images (les lignes de l'écran ne correspondaient pas à celle de la définition). Mais généralement ces procédés nécessitaient du temps de calcul et ne permettait pas trop de réaliser des animations, et l'entrelacement provoquait un scintillement désagréable.
En 1600x1200 en 65K couleurs, 4Mio était suffisant... Mais il fallait que le RAMDAC et l'écran puissent les tenir.
par Scrabble, le Lundi 01 Mai 2023 à 08h19  
par Un ragoteur bio embusqué, le Lundi 01 Mai 2023 à 07h53
Comme déjà dit ailleurs, la "superbe qualité de la sortie VGA" des Matrox était assez largement du baratin marketing relayé par la "presse"...
Pour la sortie VGA, il pouvait y avoir un problème de filtrage passe-bas, autrement dit un blur horizontal qui était très gênant pour lire les caractères. Je me rappelle, j'avais solutionné ça sur mon moniteur VGA, en enlevant trois condensateur à l'entrée RVB du moniteur. Remplacer les trois résistances de 75 ohms par des valeurs plus élevées pouvait aider aussi
par Un ragoteur bio embusqué, le Lundi 01 Mai 2023 à 07h53  
par Jemporte, le Dimanche 30 Avril 2023 à 18h04
C'était soit le moniteur qui était mauvais (pitch et focalisation mauvaise), soit la carte graphique effectivement, soit, surtout quand ça tremble que c'était affiché en entrelacé.
Comme déjà dit ailleurs, la "superbe qualité de la sortie VGA" des Matrox était assez largement du baratin marketing relayé par la "presse"...

En dehors de la fréquence du RAMDAC, pour avoir effectivement une qualité déplorable en sortie, il fallait des composants passifs de piètre qualité (produits en très grande série et donc vraisemblablement suffisamment maîtrisés pour que ce ne soit pas le cas), un PCB mal conçu (auto-interférences radio/électromagnétiques), une alimentation sous-dimensionnée (déviation continue du DAC par une fluctuation importante de la tension d'alimentation) ou un défaut d'isolation/blindage (idem PCB mais relatif à l'environnement et non interne).

Je me faisais d'ailleurs la réflexion il n'y a vraiment pas longtemps que les premiers webzines de l'ère internet ressemblaient furieusement aux "influenceurs" contemporains, en particulier revoir le niveau de la rédaction m'a amené à relativiser ce qu'on perçoit habituellement comme une régression récente de la maîtrise de la langue (bon, ok, rien n'égalera un assureur "à l'ancienne" qui fait une campagne de comm TV nationale avec le mot "artisanT" écrit en gros au milieu de l'écran... vous avez dit contrôle avant publication?)
par Jemporte, le Dimanche 30 Avril 2023 à 18h04  
par Un ragoteur bio en Auvergne-Rhône-Alpes, le Samedi 29 Avril 2023 à 14h58
Avec la version 4 Mo, je restais sagement en 1024x768. Tu avais un affichage stable en 1600x1200 avec la 8 Mo ? Je me souviens que du côté des IPG, c'était flou et ça tremblait à cette définition.
C'était soit le moniteur qui était mauvais (pitch et focalisation mauvaise), soit la carte graphique effectivement, soit, surtout quand ça tremble que c'était affiché en entrelacé. De toute façon des moniteurs LCD en 1200x1600, je ne suis pas sûr qu'il y en avait et niveau écran, je crois que les Diamondron 22 pouces de Mitsubishi (licence trinitron Sony) qui passaient de .25 à .28 à cette taille supportaient à peine le 1200x1600 au niveau du pitch, même si la fréquence non entrelacée devait passer. En général on se limitait à 1280x1024 même à cette taille d'écran. Il me semble me rappeler que les LCD 17 en 1024x1280 sont apparus et se sont rapidement généralisés bien après la sortie de la Mystique, dans les 5 ans plus tard.
Les cartes Matrox produites par eux-mêmes étaient celles qui affichaient l'image la plus nette et stable en sortie vga, suivies d'ATI, suivies de S3, puis suivies de Nvidia et autres, dans cet ordre.
par Jemporte, le Dimanche 30 Avril 2023 à 17h49  
par Un ragoteur qui aime les BX en Auvergne-Rhône-Alpes, le Samedi 29 Avril 2023 à 06h18
La quantité de matériaux utilisée pour fabriquer une puce (surtout à partir du 90 nm) est gigantesque, c'est un fait. Mais tu as encore le temps de voir avec ton Windows 7.
J'ai des Windows 11 à côté de mes Windows 7 et je dois dire que je suis pas en extase. 3 fois plus de clics et de boulot sur l'interface pour faire la même chose. Quelle victoire pour M$ qui nous fait passer plus de temps sur son interface... pour nous afficher des pubs peut-être ???
Ca va leur rapporter quelques centimes quotidiens et faire grimper sa cote en bourse pour avoir réussi cet exploit... pendant que nous on aura perdu beaucoup de temps.
Et à chaque MAJ les mêmes questions impératives au lancement : si je veux les laisser vendre toutes mes données, m'abonner à 365 (alors qu'Office 2021 est déjà installé ), tout transférer sur leur cloud, etc etc super-lassant.

Je t'assures que quand un fabricant te vend son empreinte carbone ou autre trucs du gens pour son matériel c'est qu'il veut te le vendre trop cher pour ce que c'est...
par Un ragoteur bio du Grand Est, le Samedi 29 Avril 2023 à 18h04  
par Un ragoteur qui aime les BX en Wallonie¶, le Samedi 29 Avril 2023 à 16h42
Ah, ça me fait quand même moins rêver qu'une G400 max !
Ceci dit, Matrox est "morte" avec la Millenium II, déjà en retard techniquement ("toujours" en réalité, puisque la Mystique était elle-même un sacré brouillon) et avec une aggravation continue et irrémédiable pour les G200, G400 puis Parhelia.
par Mick G., le Samedi 29 Avril 2023 à 17h15  
par N3cR0n0M1k0V, le Vendredi 28 Avril 2023 à 17h51
Erf... j'imagine que c'est encore pire que "vieux de la vieille" si on a connu les cartes graphique ISA... Très bons souvenirs de ma Matrox Mystique 4Mo (très flous aussi, les souvenirs).
Si pour toi pire est "grand sage de la mémoire du GPU", alors oui !
par Un ragoteur qui pipotronne en Auvergne-Rhône-Alpes, le Vendredi 28 Avril 2023 à 18h05
Après, le coût écologique de fabrication du GPU dépasse largement celui du ventirad et tout ce qu'il y a autour.
C'est pas faux. Mais quitte à ce qu'ils produisent quand même, autant réduire le coût global pour l'acheteur et alléger la pression sur le cours des métaux ...
par Un ragoteur qui aime les BX en Wallonie, le Samedi 29 Avril 2023 à 16h42  
Ah, ça me fait quand même moins rêver qu'une G400 max !
par Un ragoteur bio en Auvergne-Rhône-Alpes, le Samedi 29 Avril 2023 à 14h58  
par Un hardeur des ragots d'Occitanie¶, le Samedi 29 Avril 2023 à 12h41
La Matrix millenium affichait certes 16 millions mais ça dépendait de la quantité de ram. 8 mégas pour afficher 17 millions en 1600*1200, carte qui coûtait très chère.
Avec la version 4 Mo, je restais sagement en 1024x768. Tu avais un affichage stable en 1600x1200 avec la 8 Mo ? Je me souviens que du côté des IPG, c'était flou et ça tremblait à cette définition.