Notebookcheck Logo

Epic Games met à jour Live Link Face pour la mocap en temps réel sur l'iPhone

Un iPhone capture les expressions faciales en temps réel, ce qui permet d'animer des personnages numériques dans Unreal Engine à l'aide de Live Link Face et de MetaHuman Animator (Source d'image : Epic Games via le blog Unreal Engine)
Un iPhone capture les expressions faciales en temps réel, ce qui permet d'animer des personnages numériques dans Unreal Engine à l'aide de Live Link Face et de MetaHuman Animator (Source d'image : Epic Games via le blog Unreal Engine)
La mise à jour Live Link Face 1.4.2 améliore le mocap facial iPhone en temps réel pour Unreal Engine. Epic Games corrige le bug d'entrée de l'IP régional, améliorant ainsi les flux de travail des créateurs. Utilisée avec MetaHuman Animator, l'application capture des performances faciales de haute fidélité pour les personnages numériques.

Epic Games a publié la version 1.4.2 de son application Live Link Face introduisant une petite mais importante correction qui améliore l'expérience de capture faciale en temps réel pour les utilisateurs d'iPhone. La mise à jour résout un problème régional qui empêchait certains utilisateurs de saisir manuellement les adresses IP - une étape nécessaire pour connecter l'application à Unreal Engine dans différents environnements réseau.

Lancé pour la première fois en 2020, Live Link Face transmet directement à Unreal Engine les données de mouvement faciales fournies par la caméra TrueDepth de l'iPhone. Lorsqu'il est utilisé avec MetaHuman Animatorles créateurs peuvent reproduire en temps réel des mouvements faciaux complexes sur des personnages numériques - aucune installation de mocap en studio n'est nécessaire n'est nécessaire.

"Chaque expression, regard et émotion subtils sont capturés avec précision et reproduits fidèlement sur votre humain numérique", a déclaré Epic Games dans son annonce.

La technologie est devenue de plus en plus précieuse pour toute une série d'industries créatives. Qu'il s'agisse de développeurs de jeux indépendants, de studios d'animation, de VTubers ou de livestreamers, nombreux sont ceux qui utilisent cet outil pour améliorer leurs personnages numériques grâce à des performances expressives en temps réel. Aaron Sims, concepteur de personnages chevronné, connu pour des films tels que Men in Black et Gremlins 2, a fait l'éloge de cette avancée en déclarant : "Nous pouvons pousser le réalisme jusqu'aux pores de la peau. Moi qui fabriquais des marionnettes et des prothèses, je peux désormais faire tout ce que je veux

Toutefois, pour saisir de telles nuances, les artistes-interprètes doivent souvent faire plus que ce à quoi l'on pourrait s'attendre. Pour créer les données utilisées par MetaHuman Animator, il est souvent demandé aux acteurs de fournir un vaste catalogue d'expressions faciales - des micro-mouvements aux transitions émotionnelles complètes. Le processus est physiquement exigeant, les séances de balayage ressemblant à une séance d'entraînement en termes d'endurance et de contrôle musculaire. Dans certains cas, les interprètes passent par des dizaines d'expressions exagérées en une seule séance, tout en maintenant une cohérence pour une reproduction numérique de haute fidélité.

L'application s'inscrit également dans la mission plus large d'Epic de démocratiser les flux de travail d'animation haut de gamme. En abaissant la barrière à l'entrée, la société permet aux petites équipes et aux créateurs solitaires de réaliser des animations faciales de qualité professionnelle à l'aide d'outils largement disponibles tels que l'iPhone.

Au-delà de la capture des performances, Epic a également exploré les applications biométriques. En 2023, l'entreprise s'est associée aux sociétés de vérification d'identité Yoti et SuperAwesome pour proposer un système de reconnaissance faciale pour l'estimation de l'âge. Soumise à la Commission fédérale du commerce des États-Unis, la demande FTC visait à améliorer la sécurité en ligne des enfants grâce à des méthodes de vérification de l'âge respectueuses de la vie privée. Bien que la proposition ait finalement été rejetée, PC Gamer note que l'idée n'est peut-être pas définitivement abandonnée.

Depuis avril 2025, Live Link Face peut toujours être téléchargé gratuitement sur l'App Store et continue de recevoir des mises à jour progressives. Bien que la version 1.4.2 soit relativement mineure, elle apporte d'importantes améliorations en termes d'utilisation pour les créateurs travaillant dans des configurations de réseau non standard ou restreintes.

Un acteur utilise des outils de capture de mouvements faciaux avec Unreal Engine dans un studio professionnel (Source d'image : Epic Games via le blog Unreal Engine)
Un acteur utilise des outils de capture de mouvements faciaux avec Unreal Engine dans un studio professionnel (Source d'image : Epic Games via le blog Unreal Engine)
Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2025 04 > Epic Games met à jour Live Link Face pour la mocap en temps réel sur l'iPhone
Louise Burke, 2025-04-13 (Update: 2025-04-13)