Retour sur la keynote NVIDIA et le Deep Learning |
————— 18 Mars 2015 à 11h10 —— 13389 vues
Retour sur la keynote NVIDIA et le Deep Learning |
————— 18 Mars 2015 à 11h10 —— 13389 vues
Comme on vous l'a dit hier, l'annonce de la GTX Titan X lors de la GTC 2015 était accompagnée d'un grand blabla sur sa capacité à faire évoluer le Deep Learning. Mais comment peut-elle y aider et surtout, qu'est ce que c'est réellement que le Deep Learning ?
En Français, on pourrait appeler ça "apprentissage profond", c'est un ensemble de méthodes qui permettent à une machine d'apprendre automatiquement grâce à des algorithmes lui permettant de décortiquer une donnée, comme une image lors de la keynote, en fonction de nombreux vecteurs de données comme l'intensité de ses pixels, les formes qui la composent, ses couleurs, ses arêtes et un tas d'autres points. En gros, apprendre à une machine à décortiquer de la même façon que notre cerveau ce qui lui est accessible. Ils se basent d'ailleurs sur la façon dont notre cerveau est capable de traiter l'information, la neuroscience étant aujourd'hui capable d'analyser notre système nerveux pour retracer une information jusqu'à nos neurones et de voir les interactions et réponses engendrées.
Tout cela, sur base d'algorithmes complexes, demande donc un grand (mais genre GRAND) nombre de calculs et c'est là que la puissance des GPU est mise à profit. Plus ça mouline, moins il faut de temps pour traiter une information et plus la machine apprend vite. Pour cela, NVIDIA à créé DIGITS (Interactive Deep Learning GPU Training System), un outil complet permettant aux chercheurs de créer simplement leur propre Deep Neural Network, une architecture donnant virtuellement des yeux à la machine et lui permettant de décortiquer ce qui lui est présenté.
Vu qu'un tel outil se doit d'avoir une machine à sa hauteur pour fonctionner, Jen-Hsun Huang a présenté à sa suite les DIGITS DevBox, grosse machine dont le prix de départ sera de $15000 en mai prochain et qui sera composée de quatre GTX Titan X (soit $4000 de cartes graphiques, on se demande où sont les $11000 restants, surement sur une carte mère plaquée or) pour un système qui tournera sous Ubuntu et sera pré-équipé de leur programme DIGITS. Une solution clef en main pas donnée, mais dont la puissance de calcul devrait être conséquente pour ce type d'application.
Il semble logique que NVIDIA parte sur ce terrain, premièrement parce que c'est un domaine en pleine expansion, et qu'il y a donc des ronds à se faire en équipant au mieux les professionnels du milieu, et secondement parce que si Pascal (l'architecture, pas le notre) sort vraiment 10x plus puissant que Maxwell avec une meilleure interconnexion entre les GPU (jusqu'à 64 puces) grâce à NVLink, cela sera un véritable bond en avant au niveau puissance de calcul pure. Au final, il faut bien appâter le client aujourd'hui pour pouvoir lui vendre la révolution de demain, bien joué Jen-Hsun Huang !
Un poil avant ?Bon plan: kit 2.1 Logitech Z623 à 107,90€ livré | Un peu plus tard ...Ca sera 3 GTX Titan X chez EVGA, contre plein plein plein de brouzoufs |