Avis Runway Act Two : la motion capture par IA générative sans équipement, ça marche vraiment ?
Runway Act Two capture le jeu d’acteur via webcam ou téléphone et le transfère sur n’importe quel personnage. Avis honnête, workflow et limites pour débutants.
Tu as vu des making-of. Des acteurs en combinaison à points, des caméras infrarouges, des salles dédiées. Tu t’es dit : la motion capture, c’est pour les grosses prod. Puis Runway a lancé Act Two : tu joues devant ta webcam ou ton téléphone, et l’IA transfère ton jeu , corps, visage, mains , sur un personnage de ton choix. Pas de combi. Pas de studio. La question qui t’intéresse : ça marche vraiment ? Ou c’est du buzz et le rendu reste gadget ?
Après des tests en conditions réelles, la réponse est nuancée. Act Two marche. Pas à la place d’un stage mocap pro à 100 000 dollars, mais pour des performances expressives en quelques minutes, avec un coût et une complexité accessibles. Il y a des limites (durée, résolution, lip-sync). Et des pièges que les débutants font tout le temps. Voici un avis structuré : ce qu’Act Two fait vraiment, comment l’utiliser pas à pas, ce que tu te trompes souvent, et à la fin une grille pour décider si ça vaut le coup pour ton projet.
Act Two en bref : de quoi on parle
Runway Act Two est une performance capture par IA : tu enregistres toi-même une performance (webcam, smartphone), et le moteur extrait les mouvements du corps, les expressions du visage et les gestes des mains pour les transférer sur un personnage cible. Le personnage peut être réaliste, cartoon, créature, ou même une œuvre d’art abstraite. Tu ne dessines pas les keyframes. Tu ne portes pas de capteurs. Tu joues. L’IA interprète et anime le personnage en quelques minutes.
Think about it this way: en tournage classique, l’acteur est filmé. En mocap classique, l’acteur est capturé par des senseurs. Avec Act Two, l’acteur est filmé par une caméra ordinaire, et l’IA fait le travail de « lecture » des poses et des expressions. Le flux : enregistrer ta perf → choisir ou uploader un personnage → lancer la génération → récupérer la vidéo du personnage animé. C’est disponible sur Runway pour les abonnés Standard et au-dessus. Le coût est en crédits (environ 5 crédits par seconde de vidéo générée, selon les offres). Les limites techniques : environ 30 secondes par prise, sortie jusqu’à 4K avec upscale, 24 FPS. De quoi tester une scène courte, un test de concept, ou un clip pour les réseaux sans toucher à un studio mocap.
Act Two ne remplace pas un pipeline mocap studio pour un long-métrage. Il remplace des journées de keyframe manuel ou des tests de jeu pour des courts, des pubs ou du contenu créateur.
Si tu débutes en génération vidéo IA de A à Z, Act Two est une couche en plus : au lieu de décrire l’action en texte, tu la joue. Pour des personnages cohérents d’un plan à l’autre, tu peux combiner Act Two avec une référence visuelle du personnage , la logique de Runway Gen-4 et la consistance des personnages s’applique quand tu veux le même « héros » dans plusieurs plans.
Ce qu’Act Two fait vraiment (et ce qu’il ne fait pas)
Ce qu’il fait bien : capture full body (posture, marche, gestes), visage (expressions, micro-expressions), mains (doigts, pointage). Le lip-sync est géré : tu peux fournir un audio et l’IA synchronise la bouche du personnage sur les phonèmes. Tu peux cibler des personnages photoréalistes, cartoon, monstres, ou des visuels plus abstraits. La vitesse est un atout : de la prise à la vidéo finale en quelques minutes, contre des semaines en animation manuelle ou des coûts énormes en mocap traditionnel.
Ce qu’il ne fait pas (ou pas encore) : il ne lit pas dans ta tête. Si ta perf est plate ou mal cadrée, le personnage sera plate ou bizarre. Il ne garantit pas un rendu 100 % cinéma : selon le personnage cible et l’éclairage de ta prise, le résultat peut sentir le « généré ». La durée est limitée (30 s par clip typiquement). Et il faut un abonnement Runway payant et des crédits : pas de version gratuite illimitée pour Act Two.
But there’s a catch: la qualité de ta source (éclairage, cadrage, contraste entre toi et le fond) influence directement le rendu. Une pièce sombre ou un fond encombré peut dégrader la détection du corps et du visage. On reviendra là-dessus dans la section « Ce que les débutants se trompent ».
Workflow pas à pas : de ta perf à la vidéo personnage
Étape 1 : Préparer la prise (webcam ou téléphone)
Ouvre Runway, va dans Act Two (ou la section dédiée selon l’interface). Tu as le choix : enregistrer en direct via la webcam intégrée ou uploader une vidéo déjà tournée (par ex. avec ton smartphone). Pour un premier test, la webcam suffit. Assure-toi que :
- Tu es bien cadré : au moins du bassin au visage, idéalement en pied ou en plan américain pour que l’IA voie les bras et les mains.
- L’éclairage est correct : pas de contre-jour, pas de visage dans l’ombre. Une lumière frontale ou latérale douce donne de bons résultats.
- Le fond est simple : un mur uni ou un fond flou limite les erreurs de détection. Évite les motifs qui bougent ou les autres personnes dans le champ.
- Tu joues clairement : exagère un peu les gestes et les expressions. L’IA s’appuie sur des mouvements lisibles. Une perf trop minimaliste peut donner un rendu fade.
Étape 2 : Enregistrer ou importer la performance
Si tu enregistres en direct : clique sur Record, vérifie le compte à rebours, joue ta scène (parole optionnelle si tu veux du lip-sync). Arrête à la fin. Si tu importes un fichier : Upload ta vidéo. Runway accepte les formats courants (MP4, MOV). La durée max est d’environ 30 secondes par clip. Pour une scène plus longue, découpe en plusieurs prises et enchaîne les exports, ou monte les clips ensuite dans un logiciel de montage.
Étape 3 : Choisir le personnage cible
Tu dois indiquer sur quel personnage transférer la performance. Options typiques : personnage prédéfini (bibliothèque Runway), upload d’une image (ton propre design, concept art, photo), ou création à partir d’un prompt. Si tu as déjà un héros récurrent , par exemple un personnage conçu pour garder le même visage sur plusieurs images IA , tu peux uploader une image de ce personnage pour qu’Act Two l’anime. Le personnage doit être lisible (silhouette claire, visage identifiable si tu veux les expressions). Les personnages trop stylisés ou trop petits dans l’image peuvent donner des résultats bizarres.
Étape 4 : Lip-sync (optionnel)
Si ta scène contient de la parole, tu peux fournir un fichier audio (voix enregistrée ou générée). Act Two aligne les mouvements de la bouche du personnage sur l’audio (phonèmes). C’est pratique pour des doublages, des présentateurs virtuels ou des courts métrages dialogués. Pour une voix-off réaliste en français, tu peux t’appuyer sur des workflows type voix-off réaliste en français avec l’IA puis importer l’audio dans Act Two.
Étape 5 : Lancer la génération et récupérer la vidéo
Clique sur Generate (ou équivalent). La durée de traitement dépend de la longueur du clip et de la charge des serveurs ; compte quelques minutes. Quand c’est prêt, prévisualise le résultat. Si la synchronisation ou les proportions te semblent off, tu peux ajuster (meilleure prise source, autre personnage cible) et relancer. Télécharge la vidéo en HD ou 4K si ton plan le permet. Tu peux ensuite l’intégrer dans ton montage, la combiner avec des plans générés par Sora pour du B-roll, ou l’enchaîner avec d’autres plans Act Two pour une séquence plus longue.
Scénarios réels : quand Act Two change la donne
Scénario 1 , Court métrage low-budget. Tu écris une scène de 20 secondes : un personnage reçoit une mauvaise nouvelle au téléphone. Tu n’as pas d’acteur ni de tournage. Tu crées (ou tu uploades) une image du personnage. Tu joues toi-même la scène devant ta webcam : tu décroches, tu écoutes, tu changes d’expression. Tu importes l’audio (ta voix ou une synthèse). Act Two génère le personnage en train de jouer ta perf. Tu récupères le clip, tu le montes avec des plans de coupe ou du B-roll. Tu as une scène jouée sans équipe ni studio.
Scénario 2 , Pub produit avec personnage animé. Tu as un mascotte ou un personnage de marque (concept art, illustration). Tu veux qu’il fasse un geste précis : sourire, ouvrir les bras, pointer le produit. Au lieu de commander une animation 3D ou 2D sur mesure, tu joues l’action devant la caméra. Act Two transfère le mouvement sur le personnage. Tu obtiens une animation cohérente avec ton design en quelques minutes. Tu l’intègres dans la pub. Le coût en crédits reste raisonnable pour un spot court.
Scénario 3 , Test de jeu pour un pilote. Tu développes une série ou un pilote. Tu veux tester si une scène « passe » avant d’engager des acteurs ou une grosse post-prod. Tu enregistres des perfs de référence (toi ou un proche) avec Act Two, tu les mappes sur des personnages placeholder. Tu visionnes la séquence. Tu valides le rythme, les expressions, les coupes. Ensuite tu peux soit garder le style « animé » pour la prod, soit utiliser ces tests comme référence pour un tournage réel ou une animation plus lourde.
Ce que les débutants se trompent (et comment corriger)
Erreur 1 : Mauvaise lumière ou mauvais cadrage. Une pièce sombre ou un visage à moitié dans l’ombre fait rater la détection. Les mains coupées ou hors champ ne seront pas animées. Correction : éclaire ton visage et ton corps de face ou en 3/4. Cadre au moins du bassin à la tête, idéalement en pied. Fond simple et stable.
Erreur 2 : Performance trop subtile. L’IA a besoin de mouvements et d’expressions lisibles. Un jeu très minimal peut donner un personnage figé ou peu expressif. Correction : exagère légèrement les gestes et les expressions. Pense théâtre ou pub : on doit voir l’intention sans son.
Erreur 3 : Personnage cible inadapté. Une image trop petite, trop chargée ou avec plusieurs personnages brouille le transfert. Correction : un personnage par image, bien centré, avec une silhouette et un visage clairs. Si tu utilises un concept art, assure-toi qu’il est en résolution correcte et que les proportions sont réalistes (ou cohérentes avec le style).
Erreur 4 : Attendre du cinéma hollywoodien. Act Two donne des perfs exploitables, pas toujours un rendu 100 % photoréaliste sans artefact. Correction : ajuste tes attentes. Pour du web, du social ou un court, c’est souvent suffisant. Pour un long-métrage premium, prévois une post-prod ou un pipeline complémentaire (upscaling, nettoyage d’artefacts avec des outils dédiés).
Erreur 5 : Oublier le lip-sync. Si tu veux que le personnage parle, tu dois fournir l’audio. Sans audio, la bouche peut bouger de façon générique ou ne pas coller à ce que tu veux dire. Correction : enregistre ou génère l’audio, uploade-le dans Act Two, relance la génération avec l’option lip-sync.
| Problème | Piste de solution |
|---|---|
| Corps ou visage mal détectés | Améliorer l’éclairage et le cadrage ; fond uni ; exagérer les mouvements |
| Rendu « glitchy » ou saccadé | Vérifier que la source est fluide (pas de saccades) ; réduire la durée du clip |
| Personnage déformé | Choisir une image cible plus simple et lisible ; vérifier les proportions |
| Lip-sync décalé | Fournir un audio propre ; éviter les réverb ou bruits de fond |

Pour voir une démo complète de Runway Act Two , enregistrement, choix du personnage, résultat , la chaîne Runway et les tutoriels officiels sont les plus à jour. Tu y verras des perfs réelles transférées sur des personnages réalistes et stylisés, et les réglages recommandés pour un bon rendu.
Act Two vs autres options (mocap, animation, texte)
| Critère | Act Two | Mocap studio | Animation manuelle | Text-to-video (Gen-4, Sora) |
|---|---|---|---|---|
| Équipement | Webcam / smartphone | Combinaison + caméras | Tablette / logiciel | Aucun (texte seul) |
| Coût | Crédits Runway | Très élevé | Temps humain | Crédits selon outil |
| Contrôle du jeu | Ta performance | Acteur pro | Keyframe par keyframe | Peu (texte) |
| Durée typique | ~30 s / clip | Illimitée (budget) | Selon complexité | 5–20 s selon outil |
| Cas d’usage | Courts, pubs, tests | Long-métrage, AAA | Tout type | B-roll, ambiances |
Act Two se situe entre le text-to-video (où tu décris l’action sans la jouer) et la mocap pro. Il te donne le contrôle du jeu d’acteur sans le coût d’un studio. Pour des plans avec dialogue et expressions précises, il complète bien les outils qui génèrent de la vidéo à partir du texte ou de l’image.
Tarifs et accès
Act Two est inclus dans les abonnements Runway Standard et au-dessus. Le coût est en crédits : environ 5 crédits par seconde de vidéo générée (les chiffres exacts peuvent varier , vérifie la page Tarifs Runway). Un clip de 30 secondes = 150 crédits environ. Les plans mensuels donnent un quota de crédits ; les packs supplémentaires sont payants. Pas d’accès Act Two en gratuit. Si tu hésites entre Runway pour la vidéo pure (Gen-4) et Runway pour la perf (Act Two), sache que le même abonnement donne accès aux deux : tu peux enchaîner des plans Gen-4 pour la consistance et des plans Act Two pour les scènes jouées.
Verdict : la motion capture par IA sans équipement, ça marche ?
Oui, pour des courts formats, des tests de jeu, des pubs avec personnage animé et du contenu créateur. Tu obtiens des perfs expressives en quelques minutes, sans combinaison ni studio. Le rendu n’est pas toujours au niveau d’un long-métrage AAA, mais il est exploitable et souvent impressionnant pour le coût.
Non, si tu attends une qualité cinéma garantie sans post-prod, ou si tu veux des prises de plusieurs minutes d’un coup (la limite 30 s oblige à découper). Et ça ne remplace pas un réalisateur et un acteur quand tu vises un projet 100 % live-action.
Pour un débutant qui veut jouer ses personnages sans apprendre l’animation 3D ni payer une mocap, Act Two est un vrai levier. Teste avec une scène courte, soigne la prise (lumière, cadrage, jeu), et tu verras vite si ça rentre dans ton workflow.

Foire aux questions (FAQ)
Runway Act Two est-il gratuit ?
Non. Act Two est réservé aux abonnés Runway Standard et au-dessus. La consommation se fait en crédits (environ 5 crédits par seconde de vidéo générée). Consulte runwayml.com pour les tarifs à jour.
Quel équipement pour utiliser Act Two ?
Une webcam intégrée ou externe, ou un smartphone pour enregistrer une vidéo que tu importes. Pas de combinaison mocap ni de capteurs. Un bon éclairage et un fond simple améliorent fortement le résultat.
Act Two capture-t-il les mains et le visage ?
Oui. Act Two capture le corps, les expressions du visage (y compris micro-expressions) et les gestes des mains. Pour que les mains soient bien transférées, garde-les dans le cadre et bien éclairées.
Puis-je utiliser ma propre voix pour le lip-sync ?
Oui. Tu peux enregistrer ta voix ou fournir un fichier audio (par ex. voix générée par IA). Act Two synchronise les mouvements de la bouche du personnage sur l’audio.
Quelle durée maximale par clip ?
Environ 30 secondes par prise. Pour des scènes plus longues, enregistre plusieurs clips et monte-les ensuite, ou génère plusieurs segments et assemble-les dans ton logiciel de montage.
Act Two vs Gen-4 : lequel utiliser ?
Gen-4 sert à générer des plans à partir de texte et d’images (consistance personnage, contrôle caméra). Act Two sert à transférer ta performance sur un personnage. Tu peux utiliser les deux : Gen-4 pour des plans sans jeu précis, Act Two pour des scènes jouées.
Le rendu est-il utilisable en production pro ?
Pour du web, du social, des pubs courtes et des tests, oui. Pour un long-métrage ou une série premium, prévois une post-prod (nettoyage, grading, éventuellement upscaling) et vérifie les conditions d’utilisation Runway pour l’usage commercial.
Pourquoi mon personnage est-il saccadé ou déformé ?
Souvent à cause d’une source (ta vidéo) de mauvaise qualité : lumière insuffisante, cadrage serré, mouvements trop rapides ou flous. Améliore l’éclairage, cadre plus large, joue de façon lisible et relance.

Frank Houbre - expert IA vidéo et Image
Frank Houbre est un expert en IA vidéo et image, artiste IA et filmmaker récompensé aux Seoul International AI Film Festival et aux Mondial Chroma Awards. Avec plus de 10 ans d'expérience en entrepreneuriat digital, il crée des courts-métrages et animés entièrement générés par IA (Midjourney, Kling, Adobe Firefly). Co-Fondateur de Screenweaver et de la communauté #AIStudios, il partage des tutoriels gratuits et avis d'outils sur Business Dynamite pour aider les créateurs à automatiser leur production.
Continuer la lecture
- ScreenWeaver, l’outil de screenwriting et rédaction de script pour les scénaristes
ScreenWeaver associe séquenceur visuel horizontal et script vertical, actes et beats toujours visibles. Pour écrire des scénarios de film, série ou court métrage avec une structure claire.
- Avis Adobe Firefly Image 3 : la seule IA image 100 % sécurisée pour les campagnes publicitaires légales ?
Adobe Firefly Image 3 vise la conformité juridique et la sécurité pour la pub. Pour un débutant ou un pro en campagnes : est-ce la seule option vraiment sécurisée ? Avis et workflow.
- Avis Artbreeder (Mixer) : fusionner des concepts pour créer des monstres et créatures uniques ?
Artbreeder permet de mixer des images (portraits, créatures) par gènes et curseurs. Pour créer des monstres et créatures uniques à partir de concepts : est-ce l'outil qu'il faut ? Avis et workflow.
