COMPTOIR
  
register

12 Gio pour la future RTX 2060 ? C'est déjà le cas en Russie !

Alors que NVIDIA déterre ses anciens GPU et semble bien parti pour réchauffer sa RTX 2060 en version 12 Gio le 7 décembre prochain — et il n’y a aucun mal à cela, nous aurions même largement préféré que cela arrive plus tôt ! – voilà que des fieffés impatients russes ont coupé l’herbe sous le pied du caméléon.

 

En effet, un youtuber du nom de VIK-on s’est amuser à désosser une RTX 2060 de chez ASUS qui n’avait rien demandé à personne, et l’a frankeinsteinisée en troquant ses puces de GDDR6 de 6x1 Gio en 6x2 Gio en provenance de Samsung, en jouant du décapeur thermique et d’autres équipements plus spécialisés encore. Aucun autre changement n’a été nécessaire, qu’il s’agisse du BIOS (de toute manière chiffré) ou de microcontrôleur : la compatibilité était assurée dès la conception du bousin. Un tel choix n’est guère surprenant, car des économies de composants et de mutualisation des chaînes de production mènent souvent à ce type de situation - souvenez-vous des RX 480 4 Gio transformables en 8 Gio.

 

Et dans la pratique ? Aucun problème, ou presque : si les 12 288 Mio sont bien détectés par GPU-Z, la carte est sujette de temps à autre à des écrans noirs inconvenus... qui se règlent facilement en passant la carte en mode « performance » dans le panneau de configuration NVIDIA. Notez que le modder est loin d’en être à sa première tentative de mise à jour de VRAM, car ses méfaits avaient déjà été expérimentés sur une RTX 3070 16 Gio ou encore une RTX 2070 à 16 Gio elle aussi, qui avaient également ce bug suite aux modifications. Reste que, pour le commun des mortels, la version à la GDDR boostée devrait arriver dans deux semaines : de quoi, enfin, proposer un GPU décent à prix raisonnable au pied du sapin ?

(Source : VideoCardz)

 

 За 2022 год проголосуй счетчику, да

Un poil avant ?

Bon plan • On RAM fort chez Crucial, avec 16 Go de DDR4 3200 C16 dès 52,99 €

Un peu plus tard ...

Bon plan • Clavier méca, souris avec capteur cardiaque, c'est le Black Friday chez Mionix

Les 22 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par _m_, le Lundi 29 Novembre 2021 à 22h34  
Ah trouvé
un grand lien tout pourri
Jusqu'à 12%? J'aurai pas cru.
par _m_, le Lundi 29 Novembre 2021 à 21h07  
Aucune non. Mais je pense pas beaucoup (propre à chaque constructeur, et info probablement un peu "confidentielle" )

C'est une des infos qu'on peut suivre dans le SMART (pas le spare total, juste le nombre de réallocations).
un petit lien tout mignon
par Nicolas D., le Lundi 29 Novembre 2021 à 21h01  
par _m_ le Lundi 29 Novembre 2021 à 20h59
Si si, j'avais mis "je crois", parce que je n'étais pas sûr sur ce point, mais je viens de retrouver:
un petit lien tout mignon
Intéressant, tu aurais une source sur la quantité que cela représente ?
par _m_, le Lundi 29 Novembre 2021 à 20h59  
par Nicolas D. le Lundi 29 Novembre 2021 à 20h27
Non non il n'y a pas d'overprovisionning sur les HDD, a ce que je sais c'est juste des disques plus petits ...
Si si, j'avais mis "je crois", parce que je n'étais pas sûr sur ce point, mais je viens de retrouver:
un petit lien tout mignon
Bien sûr, pas en quantité aussi importante que sur les SSD. Le risque de secteurs défectueux n'ayant rien à voir, par rapport à l'usure NAND.
Quant aux métadonnés, Mathieu en parlait récemment sur les disques WD, qui pour la première fois, les déplaceront dans une mémoire FLASH dédié exclusivement à cet effet.
Et de l'ECC, je suis sûr aussi qu'il y en a (ça vaut mieux, avec le magnétisme).
par Nicolas D., le Lundi 29 Novembre 2021 à 20h27  
par _m_ le Lundi 29 Novembre 2021 à 19h35
Tiens exact, je n'y avait jamais prêté attention. Sur un vieux Samsung que j'ai sous la main, je lis: "1000.0GB" et plus loin "1MB = 1,000,000bytes/ 1GB = 1,000,000,000bytes".
Comme pour l'overprovisionnng des SSD, les HDD se réservent eux aussi de l'espace de stockage pour eux, pour y enregistrer des métadonnée, des codes de corrections d'erreurs, et je crois aussi quelques bloques de réserves, en cas de "badblocks". Ceci doit expliquer cela.
Pour autant, on parle toujours de secteurs de 512 octets, ou 4096 (et comme NTFS compte en secteurs... mais Windows aurait aucun mal à reconvertir, pour le "bien" de tout le monde). Et je suppose que le formattages constructeur des plateaux doit aussi se faire en puissance de 2.
Mais ainsi donc, la quantité "livré" des HDD, c'est de la puissance de 10
Non non il n'y a pas d'overprovisionning sur les HDD, a ce que je sais c'est juste des disques plus petits ...
par _m_, le Lundi 29 Novembre 2021 à 19h35  
par Nicolas D. le Lundi 29 Novembre 2021 à 18h30
Le Gio c'est pour compter en puissance de deux, c'est principalement utilisé dur la RAM/VRAM car les puces elle-memes sont en puissances de 2 pour éviter de perdre inutilement des ressources (typiquement des bits d'adressages sous-utilisé ). Sur les disques durs, c'est l'inverse : un disque de 500 Go est vraiment 500 000 000 o, que Windows compte comme 500 000 000/1024/1024 ~= 476,8 Gio. C'est sûrement plus simple à la base à implémenter.... et depuis ça trompe tout le monde.
Tiens exact, je n'y avait jamais prêté attention. Sur un vieux Samsung que j'ai sous la main, je lis: "1000.0GB" et plus loin "1MB = 1,000,000bytes/ 1GB = 1,000,000,000bytes".
Comme pour l'overprovisionnng des SSD, les HDD se réservent eux aussi de l'espace de stockage pour eux, pour y enregistrer des métadonnée, des codes de corrections d'erreurs, et je crois aussi quelques bloques de réserves, en cas de "badblocks". Ceci doit expliquer cela.
Pour autant, on parle toujours de secteurs de 512 octets, ou 4096 (et comme NTFS compte en secteurs... mais Windows aurait aucun mal à reconvertir, pour le "bien" de tout le monde). Et je suppose que le formattages constructeur des plateaux doit aussi se faire en puissance de 2.
Mais ainsi donc, la quantité "livré" des HDD, c'est de la puissance de 10
par Nicolas D., le Lundi 29 Novembre 2021 à 18h30  
Le Gio c'est pour compter en puissance de deux, c'est principalement utilisé dur la RAM/VRAM car les puces elle-memes sont en puissances de 2 pour éviter de perdre inutilement des ressources (typiquement des bits d'adressages sous-utilisé ). Sur les disques durs, c'est l'inverse : un disque de 500 Go est vraiment 500 000 000 o, que Windows compte comme 500 000 000/1024/1024 ~= 476,8 Gio. C'est sûrement plus simple à la base à implémenter.... et depuis ça trompe tout le monde.
par _m_, le Samedi 27 Novembre 2021 à 08h10  
par _m_ le Vendredi 26 Novembre 2021 à 19h36
C'est pourtant limpide blablabla
D'ailleurs là je parlais pour un accès unique, mais bien souvent, on va lire tout une plage consécutive, depuis une adresse de départ. Mais aucune mémoire ne te permet de lire l'intégralité de son contenue en une seule commande. On parle de bloque (sur la RAM, il y a aussi le concept de burst).
Par exemple, pour un bloque de 32 octets (c'est facile, ce sont toutes les adresses se terminant par ...00h jusqu'à ...1Fh, ça arrange tout un tas de choses derrière, à s'aligner en base 2), tu vas pouvoir récupérer toutes les 32 données se situant depuis l'adresse 0000h, 0020h, 0040h, 0060h, ... etc... jusqu'à 3E0h.
Mais avec une mémoire de seulement 1000 octets, fais très attention avec ce dernier bloque, c'est un cas particulier, il est incomplet, et on ne sait pas comment la mémoire va réagir lorsqu'elle débordera au-delà de la 8ème adresse
Tu vois un peu toutes les tracasseries que tu imposerais, en base 10?

Si il y avait réellement de la demande pour des puces mémoire de 1000 octets, pour arranger son affaire, le constructeurs câblerait tout simplement les 24 derniers locations à 0, permettant des lectures unique ou séquentielles dans ces plages-là, et peut-être même qu'il ne te signalera aucune erreur lorsque tu essaierais de ranger quelque chose à ces adresses (à toi de modifier tout tes softs pour éviter ce cas de figure).
Et au final, il vendrait une puce avec moins de mémoire, mais coûtant tout aussi chère (voir bcp plus, si il n'arrive pas à faire du volume sur cette ref), le même nombre de transistors et le même design qu'une puce de 1024 octets. Simplement, les 24 dernières entrées seraient condamner.
Qui voudrait acheter ça?
par _m_, le Vendredi 26 Novembre 2021 à 19h52  
par dismuter le Vendredi 26 Novembre 2021 à 18h41
Néanmoins ce que tu dis me surprend. Si les traitements se faisaient en base 10, je pense au contraire que ça augmenterait fortement les performances, et encore plus si elle était en base 11, 12, 13, etc. Cela voudrait dire que chaque bit représenterait 10 valeurs différentes, et donc à chaque tour d'horloge 5 fois plus d'information circulerait et serait traité. La raison pour laquelle on ne le fait pas, c'est que la technologie pour fabriquer des circuits avec transistors capables d'aiguiller 10 états différents serait excessivement complexe.
Oui, on verra peut-être bien la MLC débarqué un jour (lointain) dans nos CPU (je verrai bien ça pour des calculs spéculatifs, et je m'étais d'ailleurs bien fait avoir il y a quelque temps, en trouvant de la "MLC" sur un diagramme AlderLake en fuite. Sauf qu'ici, ça voulais en fait dire "Mid Level Cache", ou L2 quoi )
Mais tu notera que même avec ces technos, on reste toujours en base 2. SLC/MLC/TLC/QLC/PLC, c'est 2, 4, 8, 16 ou 32 (mon dieu , pas presser de voir arriver ça) niveau de tensions / valeurs par cellules
La base 2 a tellement d'intrications à tous les niveaux, que ça serait idiot de luter contre elle.

Mais je pense néanmoins que quelques CPU base 10 expérimentaux doivent bien exister, dans quelque labos de recherches. D'ailleurs l'IEEE754 a bien standardisé des représentation de nombres à virgules flottantes en base 10. Et je suis bien curieux de savoir où c'est utilisé ça
par _m_, le Vendredi 26 Novembre 2021 à 19h36  
par dismuter le Vendredi 26 Novembre 2021 à 18h41
J'ai dit que les gens simplifient dans leur tête "informatique = base 2" et s'imaginent que ça signifie que toute quantité de mémoire devrait être une puissance de 2 et qu'on ne peut donc l'exprimer qu'avec des unités binaires. Je ne suis pas d'accord avec cela.
C'est pourtant limpide. Si tu a une mémoire de seulement 1000 octets (d'ailleurs pourquoi 8 bits? Pourquoi pas des banques de 10 à ce moment-là ), tu l'obliges à tester chaque adresse qu'on lui soumet et à lui faire faire une arithmétique complexe (pour elle), afin de s'assurer que ce sont tous des adresses valides.
Tandis que si il y a un locataire derrières les 1024 entrées, elle pourra aiguiller en toute confiance toute adresse 10bits qu'on lui soumettra, sans même avoir à les vérifier. Et si ce sont des adresses 16 bits, il lui suffira de tester les bits 10 à 15, pour savoir si on essais d'abuser d'elle. Et tester ça, c'est fait en un seul cycle d'horloge et avec très peu de transistors (même pas besoin de parler de cycles, juste du temps de propagation de la logique câblée).
Tandis que pour vérifier si on est dans la bonne plage 0-1000, à ma connaissance, la technique va être d'effectuer une soustraction binaire de 1000 à l'adresse reçut et de contrôler la retenue. Là ça prendra réellement un cycle d'horloge. Et ça demandera une petite ALU, à chaque endroit du contrôleur où ce genre de vérification est requis. Et prendre une décision active (je laisse passer ou pas), en fonction de ce carry (probablement un cycle supplémentaire).
Alors qu'avec 1024 octets de mémoire, les bits >10 ne seront parfois même pas testé du tout, juste ignoré. Façon modulo, avec les adresses 80h et 480h accédant à la même bank.
par dismuter, le Vendredi 26 Novembre 2021 à 18h41  
par _m_ le Vendredi 26 Novembre 2021 à 18h05
Pour nous c'est plus difficile, mais pour ta machine, elle le saura en une fraction de seconde. Respectes-là un peu, c'est elle qui va faire le taff, pas nous.
Lorsque la machine affiche des choses à l'écran c'est pour nous, pas pour elle. Donc quand elle affiche des nombres en base 10 et leur adjoint des unités en base 2, c'est absurde.
par _m_ le Vendredi 26 Novembre 2021 à 18h05
Si toute l'informatique se mettait d'un seul coup à raisonner en base 10 (cpu et toute la chaîne...), par une excentricité farfelue de leurs ingénieures, on subirait d'un seul coup une baisse abyssale de performance et ces ingénieurs se verraient renvoyé sur le champs.
Je n'ai jamais suggéré d'abandonner le binaire comme base du fonctionnement de l'informatique. J'ai dit que les gens simplifient dans leur tête "informatique = base 2" et s'imaginent que ça signifie que toute quantité de mémoire (RAM ou stockage) devrait être une puissance de 2 et qu'on ne peut donc l'exprimer qu'avec des unités binaires. Je ne suis pas d'accord avec cela.
Néanmoins ce que tu dis me surprend. Si les traitements se faisaient en base 10, je pense au contraire que ça augmenterait fortement les performances, et encore plus si elle était en base 11, 12, 13, etc. Cela voudrait dire que chaque bit représenterait 10 valeurs différentes, et donc à chaque tour d'horloge 5 fois plus d'information circulerait et serait traité. La raison pour laquelle on ne le fait pas, c'est que la technologie pour fabriquer des circuits avec transistors capables d'aiguiller 10 états différents serait excessivement complexe.
par _m_, le Vendredi 26 Novembre 2021 à 18h05  
par dismuter le Vendredi 26 Novembre 2021 à 16h30
Peux-tu me dire d'un coup d'œil si avec 1Gio d'espace libre, tu peux stocker un fichier de 1 046 536 Kio ?
Voilà ce qui se passe quand le nombre n'a pas la même base que l'unité. Alors peut-être faudrait-il qu'on parle de tailles de fichier en base 2 aussi pour être cohérent ? ...
Pour nous c'est plus difficile, mais pour ta machine, elle le saura en une fraction de seconde. Respectes-là un peu, c'est elle qui va faire le taff, pas nous.
Si toute l'informatique se mettait d'un seul coup à raisonner en base 10 (cpu et toute la chaîne...), par une excentricité farfelue de leurs ingénieures, on subirait d'un seul coup une baisse abyssale de performance et ces ingénieurs se verraient renvoyé sur le champs.

Et tout ça pour quoi? Tu peux toujours te créer une partition 1To (ou 1000Go) par commodité et laisser le reliquat au swap si ça te chante, ce n'est pas pour autant que tu pourras y enregistrer 1To de fichiers. Avec toutes les méta-données et structures du FS, on perds toujours plusieurs % inconnue d'espace disque. Donc on aura guère avancé dans le schmilblick.