AMD aurait dans ses cartons un concurrent au RTX Voice |
————— 23 Juillet 2022 à 17h05 —— 9202 vues
AMD aurait dans ses cartons un concurrent au RTX Voice |
————— 23 Juillet 2022 à 17h05 —— 9202 vues
En avril 2020, NVIDIA annonçait son premier outil à destination des streamers/créateurs directement issus du machine learning mais sans aucun lien avec l’univers vidéoludique : RTX Voice. L’idée de base est simple : utiliser des réseaux de neurones pour retirer le bruit ambiant de votre micro, et laisser ainsi votre audience se concentrer uniquement sur votre magnifique voix. Une décision doublement maligne, d’une part, ces réseaux sont connus pour être particulièrement efficaces sur le traitement de signaux audios et visuels ; d’autre part, le streaming et autres diffusions de ses séances de jeu fait un tabac ces derniers temps — et ce n’est pas notre Tomiche qui dira le contraire !
De fait, cet outil représente un argument de plus en faveur du caméléon, complétant un écosystème davantage attractif que celui du concurrent rouge : sans grande surprise, il semblerait qu’AMD ait décidé de répliquer ! En cause : une vidéo, postée puis retirée sur la chaine officielle de la firme, vantant un AMD Noise Suppression aux fonctionnalités similaires, également basée sur du deep learning. Si ladite vidéo a été sauvegardée puis repostée sur Reddit, le post y a également été supprimé : les fuites, AMD ne semble pas les apprécier !
Selon cette vidéo, la fonctionnalité arriverait « dès aujourd’hui » (donc très prochainement ?) via les pilotes Adrenalin incontournables pour les cartes séries RX, et supporter à la fois les flux audio sortant (votre micro, quoi) mais également entrant (vos coéquipiers bruyants) : pratique ! Reste à voir si l’information se confirme, et la charge que l’algorithme posera sur vos cartes ; mais, pour tout cela, il va falloir se munir d’un peu plus de patience ! (Source : TechSpot)
![]() | Un poil avant ?Raptor Lake : tout est question de dates ! | Un peu plus tard ...Gamotron • Miaou | ![]() |
|
L'équivalent DLSS et le RTX voice doit probablement coûter sur le reste des capacités de calcul du GPU. Pas que ce soit grave. C'est même plus optimisé. Les cores tenseurs prennent 1/4 d'un GPU RTX. Il sont probablement très sous-utilisés à d'autres tâches que l'IA.
Avant Dx10, les gpus étaient constitués de shaders dédiés aux vertices, d'autres aux pixels etc...
Et c'était pas toujours optimal en terme de rendement selon le moteur et l'utilisation qui en était faite.
Lorsqu'on est passée en shaders unifiés c'était justement pour palier ce problème
Je serais pas étonné qu'à terme, tout ça re fusionne à nouveau. C'est peut être pas pour tout de suite car la densité n'augmente plus aussi rapidement qu'avant. Mais la logique voudrait qu'à terme chaque unité permettent de traiter n'importe quoi