COMPTOIR
  
register

La technologie CXL dans nos PC d'ici 3 à 5 ans ? Oui, selon AMD !

Le CXL, ça vous parle ? Grosso modo, cette technologie représente à ce jour le futur du PCIe ! Il s'agit d'une méthode des communications et d'une norme industrielle ouverte fournissant une interconnexion cohérente du cache entre les processeurs et les accélérateurs, à savoir entre les GPU, les différents périphériques intelligents, les DPU, le stockage et la mémoire vive. Ainsi, grâce au CXL, le processeur peut fonctionner sur les mêmes régions de mémoire que les autres appareils branchés, ce qui va en retour améliorer les performances, réduire les latences et améliorer l'efficacité énergétique, tout en réduisant la complexité du logiciel et les transferts de données.

 

cxl logo

 

Naturellement, l'utilisation de ce protocole nécessite aussi un matériel adapté dans lequel la fonctionnalité a été intégrée au préalable. Alors que le CXL a désormais gagné la bataille de l'interconnect, sans aucun doute grâce à un très large support au niveau industriel, il a aussi assez rapidement enchaîné les révisions, après le CXL 1.0, le CXL 2.0 était arrivé en novembre 2020, suivi du CXL 3.0 en aout dernier. Mais comme pour toute nouveauté de cette taille, il va encore falloir du temps pour son adoption sur le terrain, quand bien même la technologie est sur le point d'être utilisée prochainement dans le monde réel, avec les futurs processeurs compatibles Xeon Sapphire Rapids chez Intel (qui a laissé tombé Optane, rappelons-le) et EPYC Genoa chez AMD. Mais qu'en sera-t-il de nos machines à nous ? L'adoption du CXL y est-elle prévue ?

 

 

Eh bien, il se trouve que oui ! Lors du webinaire Meet The Expert d'AMD (hélas, il faut être inscrit pour le regarder), Leah Schoeb (Senior Developper Manager d'AMD) a sommairement confirmé qu'AMD travaillait à apporter la technologie CXL à ses processeurs grand public au cours des trois à cinq prochaines années ! Ceci devrait logiquement présenter les mêmes avantages que côté serveur où la technologie fera ses débuts en premier, à savoir améliorer les performances, réduire la latence et augmenter les capacités de mémoire avec un pool commun aux supports de stockage et à la mémoire vive du système - ce qui n'est actuellement pas possible, étant donné que la mémoire vive et la mémoire persistante communiquent à ce jour avec des protocoles différents et ne peuvent donc communiquer.

Ne sachant combien d'information elle était réellement autorisée à donner, d'autant plus que rien n'a encore été annoncé dans ce domaine par l'entreprise, pour éviter la boulette, Leah n'est pas entré dans les détails. Cependant, elle a tout de même précisé que des progrès sont en cours et que l'initiative ne se limite pas à AMD et à Phison (qui participait également au webinaire avec Chris Ramseyer), mais qu'il s'agit d'un projet d'écosystème qui devrait de toute évidence impliquer l'ensemble, ou au moins la majorité des acteurs (autrement dit, également Intel, par exemple).

 

Certes, rien de tout cela ne nous donne une indication très spécifique quant à la date d'arrivée - encore largement hypothétique - du CXL dans nos machines grand public. La fenêtre (bien large, il faut l'admettre) de trois à cinq ans semble totalement exclure la possibilité d'un début de la technologie avec Zen 5, par exemple, mais suggère qu'elle pourrait donc débarquer sur nos plateformes plus ou moins en même temps que le PCIe 6.0 (et donc avec l'éventuelle génération Zen 6 ?), dont les premiers périphériques devraient arriver (chez les pros) en 2024. Bien entendu, les affirmations de la Senior Developper Manager ne valent pas forcément engagement non plus, rien n'est garanti tant que ce n'est pas a minima officiellement affiché sur une feuille de route publique, et encore.

 

En tout cas, le cas échéant, tout cela devrait impliquer une refonte assez intéressante de la conception et du fonctionnement de notre matériel, mais le CXL serait-il vraiment pertinent pour le grand public ? L'avenir nous le dira, les constructeurs et les développeurs arriveront peut-être à nous trouver des utilités, même s'il faut pour cela créer de nouveaux besoins, comme le raytracing. Ceci dit, d'un point de vue commercial et pour mieux rationaliser la production et les coûts, il est cohérent de vouloir à terme aligner les technologies entre monde pro et grand public, plutôt que de produire deux matériels différents pour l'un et pour l'autre. (Source)

Un poil avant ?

L'industrie du stockage et de la mémoire en chute libre ?

Un peu plus tard ...

Un Ryzen 7800X et un 7300X en vadrouille sur la toile

Les 9 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Vendredi 28 Octobre 2022 à 10h53  
par Un ragoteur sans avis du Grand Est, le Jeudi 27 Octobre 2022 à 21h34
SK Hynix a dit travailler sur la DDR6 et qu'elle pourrait être d'ici 5 à 6 ans... c'était il y a 3 ans. Donc oui, d'ici 2/3 ans, si ils n'ont pas de retard, poubelle
En fait je pensais à la durée de vie du socket AM5 censé durer au moins aussi longtemps que le AM4.
Là, ça nous donne du Zen 5 tout juste.
par Un ragoteur sans avis du Grand Est, le Jeudi 27 Octobre 2022 à 21h34  
par Jemporte, le Jeudi 27 Octobre 2022 à 11h06
Donc barrette DDR5 poubelle d'ici 2/3 ans ?
SK Hynix a dit travailler sur la DDR6 et qu'elle pourrait être d'ici 5 à 6 ans... c'était il y a 3 ans. Donc oui, d'ici 2/3 ans, si ils n'ont pas de retard, poubelle
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Jeudi 27 Octobre 2022 à 21h20  
par LidtZig, le Jeudi 27 Octobre 2022 à 10h34
Ca voudrait dire qu'on pourrait acheter une carte graphique "nue" (genre sans mémoire associée) et une seconde carte (ou utiliser la RAM j'imagine) avec uniquement de la mémoire ultra-véloce
En faite il n'y a pas besoin de CXL pour faire ça, on peut déjà le faire, et cela n'a absolument aucun intérêt. Pourquoi se taper la latence de PCIe (car CXL c'est une extension de PCIe) pour accéder a une mémoire ultra véloce quand on peut juste la mettre sur le même PCB et s'y connecter directement pour éviter les latences?

CXL ajoute de la cohérence de cache, hors les problèmes de cohérence de cache émergement lorsque plusieurs accélérateurs ou processeurs manipulent la même mémoire en même temps. En dehors de cette situation CXL ne sert à rien. Donc tu ne comprendras pas l'intérêt en te concentrant uniquement sur le GPU seul.

Voila deux exemples d'usage:
- Dans les configuration multi-GPU (ou accélérateur en général) il permet aux GPU de travailler ensemble sans avoir un protocole propriétaire;
- Simplifier la conception d'application avec beaucoup d'échange (dans les deux sens) entre le CPU et GPU.
par Jemporte, le Jeudi 27 Octobre 2022 à 11h06
Donc barrette DDR5 poubelle d'ici 2/3 ans ?
Non. Mais l'avenir dans 10 ans de DDR est une question ouverte.

Et, a part si on veut ressembler a une mauvaise traduction Google Translate, on ne dis pas : "une interconnexion cohérente du cache entre les processeurs et les accélérateurs"

On parle d'un bus (ou d'une interconnexion) qui intègre (ou permet, ou transporte) la cohérence de cache entre les CPU et accélérateurs.
Car ce n'est pas le bus qui est cache cohérent se sont les devices
par anteraks21, le Jeudi 27 Octobre 2022 à 18h26  
Après on va dire que AMD sont des suiveurs et qu'il y a zéro innovation....
par Cronff, le Jeudi 27 Octobre 2022 à 15h39  
Effectivement cette arrivée devrait se faire sur un changement de plateforme car il me semble évident que le chipset doit aussi être adapté à cette technologie.

Donc on peut imaginer un pool mémoire (mémoire vive) accessible par "tout le monde", avec chacun sa part du gateau en fonction des différents cas d'utilisation et besoins immédiats?

J'imagine bien les développeurs mettre ça au point... Quels magnifiques jardinages
par Matthieu S., le Jeudi 27 Octobre 2022 à 11h09  
par LidtZig, le Jeudi 27 Octobre 2022 à 10h34
Wait wait wait.

Ca voudrait dire qu'on pourrait acheter une carte graphique "nue" (genre sans mémoire associée) et une seconde carte (ou utiliser la RAM j'imagine) avec uniquement de la mémoire ultra-véloce, voir une troisième carte dédiée aux calculs RT/IA ?

Ce qui permettrait une meilleure longévité du matériel, voir une réponse plus pragmatique aux besoins de chacun.e ?

Ou j'ai rien compris ? ><
Me semble trop tôt pour dire ce que le cela impliquerait comme "avantages" pour le mainstream. Laissons-les d'abord déployer le truc chez les pros
par Jemporte, le Jeudi 27 Octobre 2022 à 11h06  
Donc barrette DDR5 poubelle d'ici 2/3 ans ?
par LidtZig, le Jeudi 27 Octobre 2022 à 10h34  
Wait wait wait.

Ca voudrait dire qu'on pourrait acheter une carte graphique "nue" (genre sans mémoire associée) et une seconde carte (ou utiliser la RAM j'imagine) avec uniquement de la mémoire ultra-véloce, voir une troisième carte dédiée aux calculs RT/IA ?

Ce qui permettrait une meilleure longévité du matériel, voir une réponse plus pragmatique aux besoins de chacun.e ?

Ou j'ai rien compris ? ><
par Un ragoteur RGB en Auvergne-Rhône-Alpes, le Jeudi 27 Octobre 2022 à 10h02  
C'est dans l'ère du temps, avec l'arrivée du Direct Storage, du Resizable BAR, etc.
D'ailleurs, dans la conception de SoC embarqués, ces principes sont déjà appliqués, ceci pour éviter d'avoir à produire un énorme cœur qui ferait tout le travail en séquentiel, avec tous les problèmes de consommation et de sécurité que cela implique. Mais les secrets industriels font que je ne peux en dire plus