Conférence : SolidTrack, le futur de la Motion Capture
Mercredi 18 mars 2015, Orly n’est pas qu’un aéroport ! C’est aussi dans cette ville que se trouve l’institut Georges Méliès et les nouveaux locaux de l’école du même nom, à l’endroit même où le célèbre inventeur du cinématographe a terminé sa vie. Dans l’un des amphithéâtres, qui ressemble plus à une salle de cinéma, le directeur Franck Petitta nous parle fièrement de son école, de la formation « des artisans de l’image animée » de demain, et de comment ils participent à faire perdurer le savoir-faire français.
Et c’est exactement de ça qu’il s’agit, puisque nous assistons à la présentation de SolidTrack, outil développé par les français de SolidAnim.
Pour ceux qui ne les connaissent pas, SolidAnim est une société spécialisée dans l’animation 3D créée en 2007, et qui, depuis, fait de plus en plus parler d’elle grâce à ses innovations. Elle a par exemple été choisie par James Cameron pour travailler sur la suite d’Avatar ! Cocorico ! Mais pas d’images de films ni d’annonce sur le scénario, aujourd’hui c’est pour mettre les mains dans le cambouis et comprendre ce qu’il se passe de l’autre côté de l’écran que nous sommes là ! Entouré de nombreux partenaires, notamment Unity créateur du moteur de jeu Unity 5, Isaac Partouche, CEO et cofondateur de SolidAnim, nous propose un court métrage tourné en direct, suivi d’une explication technique pour bien comprendre la puissance de son outil et des services qu’il peut rendre auprès des réalisateurs de films.
La scène est simple : un fond vert, un fauteuil, un acteur classique et une actrice recouverte de vert et de capteurs de mouvements.
L’histoire : alors qu’un gardien de musée (on imagine) s’endort dans son fauteuil, une statue s’anime et tous deux partent dans un tango nocturne. Le tout réalisé en temps réel, et c’est bien là l’innovation majeure ! Quelques explications (simplifiées) pour les curieux.
Jusqu’à présent, tourner une scène dans un décor et avec des personnages virtuels pouvait se révéler être une véritable galère pour avoir un résultat satisfaisant. Il faut, en effet, tourner la scène sur fond vert, en mélangeant les acteurs réels et ceux jouant le rôle des personnages virtuels. Le réalisateur et le cameraman n’ont alors que leurs imaginations pour être sûr que la scène permettra, suite à la post-production, de donner le résultat final espéré. C’est alors le rôle des animateurs et intégrateurs de faire en sorte que tout ce qui est virtuel soit en adéquation avec la scène tournée, à la fois par rapport aux acteurs réels, mais aussi aux mouvements de caméra qui devront être exactement répliqués par la caméra virtuelle pour qu’à chaque instant le point de prise de vue soit exactement le même pour tous les éléments. Une galère je vous dis !
C’est là qu’intervient SolidAnim qui utilise la combinaison de plusieurs technologies pour résoudre ce problème.
D’abord, le « Motion Tracking », qui se présente en fait comme une seconde petite caméra fixée sur la première, décode et enregistre tous les mouvements de la caméra permettant de les reproduire à l’identique virtuellement.
Ensuite, la « Motion Capture » via les capteurs placés sur l’actrice jouant le rôle de la statue et qui enregistrent tout ses mouvements. Cette technique est souvent utilisée pour rendre plus naturel les mouvements des personnages virtuels par exemple dans les jeux vidéo.
Enfin, et c’est l’un des points clé, le moteur Unity 5. Toutes les informations recueillies par ces différents capteurs sont envoyés à Unity qui va calculer en temps réel l’image virtuelle, en respectant à la fois les mouvements de la caméra mais aussi ceux du personnage qui seront appliqués au modèle de la statue pour l’animer.
Lorsque les deux images sont superposées, le résultat est là : le virtuel semble interagir avec le réel, et vice-versa, tout ça sous les yeux de l’équipe de tournage qui peut contrôler à la volée que tout se passe comme prévu sur les écrans de contrôle !
Au-delà de la prouesse technique que l’on ne peut réellement mesurer qu’en ayant été confronté à ses problématiques, la présentation démontre, s’il en était encore besoin, à quel point les mondes du jeu vidéo et du cinéma se rapprochent constamment : le premier a commencé à utiliser des acteurs réels pour rendre le plus naturel possible ses personnages, le second se met à utiliser les moteurs de rendu pour faciliter la vie des techniciens de l’image. Georges serait fier !
cym0ril
Remerciements :
- École Georges Méliès pour avoir hébergé l’évènement
- SolidAnim, Unity, Vicon, Equilibre Games, Popcorn FX, Art Graphique et Patrimoine, Game Audio Factory, Open Zone pour la démonstration
- Cosmocover pour l’inviation.