UE 5.2 : et la génération procédurale fut |
————— 23 Mars 2023 à 12h10 —— 25596 vues
UE 5.2 : et la génération procédurale fut |
————— 23 Mars 2023 à 12h10 —— 25596 vues
Les démos techniques s'enchaînent sur l'UE5, toutes plus impressionnantes les unes que les autres. Après la 5.1 méchamment dopée aux nanites, Epic, lors de la GDC 2023, a logiquement levé le voile sur la 5.2 en version preview, alors que la mise en production devrait intervenir au début du printemps. Au milieu des optimisations, corrections de bugs, on peut observer un focus plus particulier sur la vie des développeurs, ces grosses feignasses, en vue dixit l'éditeur de créer des environnements encore plus riches. Entre autres choses que vous pouvez admirer ici, le framework Substrate qui permet de combiner plusieurs modèles de shader, et le PCG pour Procedural Content Generation qui comme son nom l'indique va générer dans l'éditeur et en temps réel des environnements complets à grande échelle et selon une mécanique algorithmique. Comme une vidéo vaut mieux qu'un long texte, voyez plutôt :
Alors en effet, et comme souvent de la logique de communication autour du Demo Engine de l'Unreal Engine, cela donne la gaule en termes de rendu et d'interactions, une chose que l'on pouvait ressentir il y a quelques années lorsque Futuremark sortait ses 3Dmark dont les benchmarks faisaient également office de démos technologiques. USA oblige, on se retrouve ici avec un 4x4 – ok, il est électrique –arpentant un environnement luxuriant, super crédible, d'une densité géométrique assez dingue (une RTX 4090 est aux manettes sur cette démo, pour info). Le PCG permet, en complément du foliage nanites intégré dans la 5.1, de générer à partir de paramètres utilisateur et selon une direction artistique définissable un monde complet en quelques clics. Un gain de temps qui pourrait s'avérer précieux en sus de permettre de se concentrer davantage sur les détails... Peut-être au prix de la créativité.
On peut aussi citer l'annonce du plug-in MetaHuman Animator, qui lui dans la même logique permet de créer des animations faciales haute fidélité sans avoir besoin de disposer d'un studio complet de motion capture, le rendant de facto accessible aux plus petites structures de développement. Venant sur greffer sur le framework MetaHuman, l'Animator serait apte, à partir d'une capture vidéo issue d'un simple smartphone, à reproduire un personnage virtuel reprenant trait pour trait l'acteur filmé, le tout en quelques minutes. Là encore, admirez :
Un poil avant ?Koduri part d'Intel : nouveau pari tourné vers l'IA en ligne de mire | Un peu plus tard ...Test • Corsair MP600 Pro XT |