Star Wars en réalité virtuelle sous Daydream ferait oublier l'expérience PC |
————— 23 Mai 2017 à 06h58 —— 10765 vues
Star Wars en réalité virtuelle sous Daydream ferait oublier l'expérience PC |
————— 23 Mai 2017 à 06h58 —— 10765 vues
Peut-être vous rappelez-vous que le Comptoir permet d'essayer le Vive de chez HTC. Durant ces démonstrations, nombreux sont ceux qui veulent en passer par la démonstration Trials on Tatooine qui permet de se la jouer Jedi dans une séquence vidéo courte, mais forte en émotions (comme le montre la vidéo qui suit). C'est le studio ILMxLab qui a développé la chose et Google leur a demandé de faire la même chose pour sa toute récente plateforme de réalité virtuelle Daydream.
Pourquoi parler de cette application prévue pour les smartphones sur un site de hardware PC ? Car l'expérience de réalité virtuelle promise (uniquement sur smartphone Pixel pour l'instant, en attendant les produits autonomes) est du niveau de celle attendue sur PC avec du gros matos, le minimum requis étant un PC équipé d'un bon quad-core qui mouline bien, accompagné de 8Go de RAM et d'une GTX 970 au minimum. C'est grâce à la technologie Seurat de Google que la prouesse est possible, cette dernière permettant apparemment d'exploiter un GPU mobile pour en tirer autant ou plus que ce que l'on peut demander à un GPU destiné à nos chers PC ou ordinateurs portables. Sur le blog de Google, Clay Bavor (en charge de Google VR), a même annoncé que Seurat a permis à ILMxLab d'avoir un rendu identique à celui du film Rogue One sur smartphone.
Comment cette technologie arrive-t-elle à tenir tête à nos composants pourtant bien plus musclés ? Google n'en dit encore rien, mais promet d'en révéler plus d'ici la fin de l'année. Si les promesses sont tenues, le géant du web pourrait porter un grand coup au marché de la VR sur PC et on comprend mieux pourquoi elle s'est lancée dans le développement de visiocasques autonomes pour sa plateforme Daydream. On peut aussi espérer que Seurat soit une technologie ouverte, car avec une annonce pareille, on ne peut qu'espérer la voir appliquée au monde PC. (source : VentureBeat)
![]() | Un poil avant ?3, 8, 2, 3, 3, le compte est bon chez Nvidia, on peut démarquer ! | Un peu plus tard ...Des SSD M8Se chez Plextor, 6 mois après leur présentation quand même ! | ![]() |
Ce n'est pas un truc qui prend de la place en terme de donnée.
Maintenant le spectre entre le tout calculé (une animation déjà rendue) et un jeu ou la liberté est "total" (relativement à ce qu'on sait faire ajourd'hui) est gigantesque. Le point que je voulais exposé ici c'est que ce rendu (celui de cette animation) est possible en temps réel parce que l'interaction est extrêmement réduite et que tout est maitrisé pour tourner sur le matos (qui en soit n'est pas un "bête smartphone" le pixel c'est pas le smartphone de Mr tout le monde). Un jeu ne pourra pousser l'optimisation jusque la. Ce serait même contre productif et irréalisable. Pour donner un exemple caricatural, je rend un cube, ben en cinématique je n'ai besoin que de la partie visible du cube alors qu'en jeu j'ai besoin de 5 face si le cube est statique, 6 s'il peut être soulevé, contre 2 ou 3 max en cinématique c'est aussi ça le précalcul, savoir ce que je dois rendre ou non.