COMPTOIR
  
register

Vous souhaitez un PC IA haut de gamme ? Achetez une GeForce !

Cela ne vous aura pas échappé, le nouveau terrain de bataille entre AMD et Intel porte sur l’intelligence artificielle, avec l’intégration de NPU (Neural Processing Unit) au sein des processeurs. L’entreprise dirigée par Lisa Su en intègre à certains Ryzen depuis les Ryzen 7000 mobiles Phoenix – y compris aux Ryzen 8000 Embedded – tandis qu’Intel s’est lancé avec Meteor Lake. Ce ne sont bien sûr que les préliminaires, et il faut s’attendre à une orgie d’IA dorénavant, avec la promesse de nouvelles générations offrant une débauche de TOPS (Trillions or Tera Operations per Second) ; l’obscure valeur choisie par les marques impliquées pour se distinguer de leurs rivales dans ce jeu de séduction on ne peut plus contemporain, mais qui ne se résume finalement qu'à revendiquer le plus gros TOPS.

Et NVIDIA dans tout ça ? La société dirigée par Jensen Huang ne vend pas encore de processeurs grand public ; elle semble donc condamner à faire son affaire dans son coin, c’est-à-dire dans le secteur du HPC ; à se contenter d’accumuler les milliards en capitalisation boursière et de vendre ses accélérateurs IA à foison. Que nenni ! NVIDIA commercialise des moteurs IA auprès du grand public depuis belle lurette avec ses GeForce RTX, cartes graphiques munies de cœurs Tensor. Jusqu’ici, ils servaient principalement à la prise en charge matérielle du DLSS (Deep Learning Super Sampling), mais peuvent tout à fait accélérer d'autres fonctionnalités IA ; d’ailleurs, ce sont bien des cGPU qui s’en chargent dans les supercalculateurs. À travers quelques diapositives, NVIDIA a remis un peu les pendules à l’heure en rappelant la supériorité des GPU par rapport aux NPU actuels intégrés aux processeurs.

nvidia ai on rtx 2024 quarter 1 sharing session 23

NVIDIA ACE © Benchlife

Des GPU au sommet de la chaîne AImentaire

Comme rapporté ci-dessus, NVIDIA n’a pas attendu 2024 pour se mettre à l’IA. Le DLSS, inauguré en 2018 par la génération Turing (RTX 20 Series), est une technologie de mise à l’échelle dopée à l’intelligence artificielle. L’arsenal de l’entreprise en la matière ne s’arrête pas là : mentionnons le RTX Video Super Resolution, le RTX Video HDR qui rend plein de jeux compatibles HDR, ou encore le tout récent Chat with RTX, un assistant local.

Dans les images publiées par le site Benchlife, NVIDIA met ainsi en avant la puissance de calcul des GPU, laquelle est bien supérieure à celle des NPU pour l’Int8 : les seconds plafonnent actuellement de 10 à 45 TOPS (pour le NPU pur ; cette puissance est amenée à augmenter d’un facteur 2 ou 3 dès la prochaine génération de Core / Ryzen), tandis que les cartes graphiques fournissent entre 100 et 1300 TOPS. En outre, l’entreprise relève que le parc actuel comprend plus de 100 millions de PC armés d’un GPU capable de gérer l’IA, contre moins d’un million de machines dotées de NPU fin 2023.

nvidia ai on rtx 2024 quarter 1 sharing session 3

Victoire par K.O pour les GPU © Benchlife

NVIDIA liste ensuite différentes technologies accessibles aux GPU mais encore pas encore gérées par les NPU, telles que la FR (Frame Generation – génération d’images) ou encore les AI NPCs : des personnages non jouables stimulés par l’IA prometteurs, mais encore expérimentaux.

Difficile de donner tort à NVIDIA sur le constat. Après, les NPU se destinent, pour l’instant, surtout à être intégrés au sein de processeurs portables dépourvus de GPU dédié. De plus, ce ne sont que les débuts de l’intégration de tels accélérateurs dans les PC ; la comparaison avec les GPU est donc forcément biaisée. Et ne parlons pas des écarts de prix...

nvidia ai on rtx 2024 quarter 1 sharing session 4

Oui, mais le prix d'une RTX 4090 dans tout ça ? © Benchlife

Ces diapositives ont été présentées dans le cadre d’un évènement avec la presse. Il est probable que NVIDIA nous les resserve lors du Computex.

Les assistants IA : une nouvelle ère de l’informatique grand public ?

Quoi qu’il en soit, au-delà des arguments mis en avant par Intel, NVIDIA et AMD pour promouvoir leurs propres solutions respectives, nous sommes vraisemblablement à un tournant de l’informatique grand public. L’un de ses pionniers, Bill Gates, considère que l’IA va totalement transformer la manière dont nous utilisons des ordinateurs au cours des prochaines années – une révolution similaire à celle induite par la généralisation des interfaces graphiques.

Comment l’intelligence artificielle va-t-elle changer notre façon de consommer l'informatique ? En remodelant nos interactions avec celle-ci via un nouvel intermédiaire, le fameux assistant personnel intelligent, au premier rang desquels trône Copilot, celui de Microsoft. Il est envisageable que cet assistant devienne notre principal interlocuteur et qu'il parachève la simplification amorcée il y a quelques décennies : il suffira de dialoguer avec lui pour qu’il effectue des tâches qui nécessitaient, jusqu’ici, certaines capacités et connaissances : générer une image, rédiger un texte, résumer un document, répondre à un mail, etc. Bien sûr, outre ces facultés, cet assistant sera en mesure de s’adapter à chaque utilisateur, d’identifier ses besoins, afin de soumettre lui-même des suggestions – avec toutes les implications relatives au respect de la vie privée, voire d'une forme d'enfermement intellectuel, qu’une telle appréhension suscite.

Il sera de toute façon difficile d’y échapper, tant les acteurs du secteur semblent marcher main dans la main pour orienter les consommateurs vers cette destination. C’est le cas de Microsoft, qui prépare un Windows 24H2 faisant la part belle à l’IA (sans doute en guise d’avant-goût à Windows 12), mais aussi d’Intel, AMD, Qualcomm et désormais NVIDIA, qui soutiennent cette évolution – dans leurs propres intérêts, cela va de soi. Déjà, Intel fait miroiter des Lunar Lake offrant 100 TOPS de performances IA, tandis que même pour sa fête d’anniversaire, AMD n’a pu s’empêcher de faire joujou avec, et Lisa Su de vanter les mérites des prochains Ryzen sous architecture NPU XDNA 2 lors de la présentation des résultats financiers.

La société d’analyse Canalys entrevoit ainsi une hausse progressive des ventes de « PC IA » au fil des années. Le cabinet « prévoit que 60 % des PC livrés d'ici 2027 » seront de cette espèce, « ce qui met en évidence un changement significatif dans le paysage technologique ».

ai pc

© Canalys

Un poil avant ?

AMD fête ses 55 ans, mais n’a rien de mieux à proposer que des images retouchées par IA

Un peu plus tard ...

Les joueurs de Helldivers 2 font plier Sony : le compte PSN ne deviendra pas obligatoire (MAJ)

Les 7 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Scrabble, le Jeudi 09 Mai 2024 à 08h55  
par JoW, le Mercredi 08 Mai 2024 à 22h45
C'est un Chip shortage global qui s'annonce, CPU GPU RAM VRAM SSD... en grande partie due a la demande énorme de l'IA, simple loi de l'offre bien trop faible et de la demande bien trop haute.
Pas sur qu'il y ait un Chip shortage, la demande de l'IA est la, mais elle pourrait ne pas durer très longtemps
Je ne me fait pas trop de souci pour 2025, les prix devraient rester bas
par JoW, le Mercredi 08 Mai 2024 à 22h45  
par Jemporte, le Mercredi 08 Mai 2024 à 18h00
Actuellement ce n'est pas la Vram qui coûte mais une pénurie de RAM s'annonce... peut-être qu'après l'incendie d'une usine ce sera confirmé.
C'est un Chip shortage global qui s'annonce, CPU GPU RAM VRAM SSD... en grande partie due a la demande énorme de l'IA, simple loi de l'offre bien trop faible et de la demande bien trop haute.
par Jemporte, le Mercredi 08 Mai 2024 à 18h00  
par JoW, le Jeudi 02 Mai 2024 à 20h04
Ben je plussoie mais ça va faire mal au portefeuille, de la vram rapide et en grand nombre, ça coute cher et la nouvelle GDDR7 risque de pousser le prix encore plus haut.
(Rappel : La vitesse de la vram aide grandement a la vitesse de génération de token de LLM aussi appelé "token/s",
Quand aux Go, eux, sont aussi important pour stocker le modèle uniquement sur la carte graph, ce qui améliore aussi énormément la vitesse. Mais pour l'avoir testé, la solution de stocker le reste du modèle qui ne rentre pas dans la vram vers la ram fonctionne franchement bien)
Entre la gddr7, plus de giga de vram, le pcie 5, les VRMs supplémentaires pour supporter des puces toujours plus petites, plus d'interconnexions, l'offre qui n'arrive pas a suivre la demande (simple loi du marché donc prix qui stonks)...
On va se retrouver avec une 5090 qui est sur-puissante certes, mais qui va frôler ou peut-être dépasser les 2000€
Pour ce qui est des solutions sur CPU uniquement, c'est a la ramasse franchement, mais les solutions hybrides (prio utilisation VRAM+GPU puis ce qui ne rentre pas vers la RAM+CPU) comme llama.cpp c'est franchement sympa... Heureusement il existe plusieurs tailles de LLM pour chaque PC. Perso en dessous de 3token/s je trouve ça trop lent et passe mon chemin.
Actuellement ce n'est pas la Vram qui coûte mais une pénurie de RAM s'annonce... peut-être qu'après l'incendie d'une usine ce sera confirmé.
par Jemporte, le Mercredi 08 Mai 2024 à 15h28  
La grosses question c'est est-ce les GPU sont pris en charge en lieu et place des NPU. Question du genre est-ce que W11maj/W12 annoncé comme utilisant les NPU pour son IA et demandant que des unités soient présentes sur le CPU utiliserait à la place les GPU quand le CPU n'en dispose pas ???
Parce que M$ a annoncé que sans NPU, l'IA ne pourra pas être activé sur les prochains Windows.
M$ le justifie pour de basse raisons de dégager les GPU et CPU des tâches IA... la vérité c'est qu'il y a un trust avec les fabricants de CPU pour demander un renouvellement de matériel, car les NPU n'ont un intérêt qu'en présence d'un GPU orienté bureautique, comme les APU et iGPU bas de gamme.
par Jemporte, le Lundi 06 Mai 2024 à 10h07  
Y'a pas photo en faveur des GPU.
par JoW, le Jeudi 02 Mai 2024 à 20h04  
par Scrabble, le Jeudi 02 Mai 2024 à 17h09
Si toute cette histoire d'IA pouvait inciter les gens qui achètent des cartes graphiques a enfin abandonner les modèles à 8 Go de VRAM, pour passer a 16 Go, ca serait top pour les graphismes des jeux vidéo
Ben je plussoie mais ça va faire mal au portefeuille, de la vram rapide et en grand nombre, ça coute cher et la nouvelle GDDR7 risque de pousser le prix encore plus haut.
(Rappel : La vitesse de la vram aide grandement a la vitesse de génération de token de LLM aussi appelé "token/s",
Quand aux Go, eux, sont aussi important pour stocker le modèle uniquement sur la carte graph, ce qui améliore aussi énormément la vitesse. Mais pour l'avoir testé, la solution de stocker le reste du modèle qui ne rentre pas dans la vram vers la ram fonctionne franchement bien)
Entre la gddr7, plus de giga de vram, le pcie 5, les VRMs supplémentaires pour supporter des puces toujours plus petites, plus d'interconnexions, l'offre qui n'arrive pas a suivre la demande (simple loi du marché donc prix qui stonks)...
On va se retrouver avec une 5090 qui est sur-puissante certes, mais qui va frôler ou peut-être dépasser les 2000€
Pour ce qui est des solutions sur CPU uniquement, c'est a la ramasse franchement, mais les solutions hybrides (prio utilisation VRAM+GPU puis ce qui ne rentre pas vers la RAM+CPU) comme llama.cpp c'est franchement sympa... Heureusement il existe plusieurs tailles de LLM pour chaque PC. Perso en dessous de 3token/s je trouve ça trop lent et passe mon chemin.
par Scrabble, le Jeudi 02 Mai 2024 à 17h09  
Si toute cette histoire d'IA pouvait inciter les gens qui achètent des cartes graphiques a enfin abandonner les modèles à 8 Go de VRAM, pour passer a 16 Go, ca serait top pour les graphismes des jeux vidéo
Sinon, on peut très bien faire de l'IA avec un CPU dépourvu de NPU, c'est lent mais ca marche suffisamment vite pour un particulier, et il le faudra bien vu qu'on ne va pas changer tous les CPU en service actuellement