Composé par
N. D.
————— 21 Mai 2018 à 07h37 —— 16889 vues
Si l'on parle beaucoup du minage ces derniers temps du fait de la pénurie qu'il engendre sur les cartes graphiques, ce n'est pas la seule utilisation détournée qui attend nos chers GPU. En effet, la plupart des algorithmes d'apprentissage automatisé sont basés sur des calculs matriciels, c'est-à-dire concernant des tableaux ; ce qui est assez semblable aux tableaux de pixels calculés par les puces précédemment citées. Et comme le matériel et le logiciel forment un couple inséparable, l'architecture Volta des verts inclut des tensor cores dédiés à cette tâche.
Dans le monde professionnel (et académique), le machine learning est annoncé comme un tournant majeur dans l'informatique, de manière similaire à la réalité augmentée pour le gaming. Il est d'ailleurs assez amusant de voir que ces algorithmes de machine learning sont justement très prometteurs dans le traitement d'image, très présent dans... les applications AR.
Presque mais ... non !
Dans la recherche, NVIDIA est très actif en la matière. Il faut dire que proposer des bons logiciels au niveau algorithmique permet à coup sûr de marketer leur puissance avec de sérieux arguments. Après avoir publié
un premier papier concernant l'utilisation de réseaux de neurones pour supprimer un flou gaussien, voici que l'entreprise remet le couvert avec
Noise2Noise. Actuellement en cours d'évaluation par la communauté, cette technique permet - à grand coup de mathématiques assommantes - d'ôter un bruit présent sur un set d'image, sans pour autant apprendre à partir d'images saines, contrairement aux algorithmes actuels, avec un niveau de reconstruction quasiment égal.
Avec un tel investissement, il est fortement probable de voir des futurs logiciels ou suites de développement pour le traitement d'image optimisés aux petits oignons par le grand vert. Reste encore à savoir si les développeurs leur trouveront des applications au goût du grand public !