Mon personnage change de visage à chaque plan : comment stabiliser son identité ?
Garder le même visage d’un plan à l’autre en IA : référence image, LoRA, character ref, et bonnes pratiques pour stabiliser l’identité du personnage.
Tu génères un plan. Puis un deuxième. Puis un troisième. Le personnage est censé être le même. Mais à l’écran, les yeux, le nez, la forme du visage changent. D’un plan à l’autre, on dirait trois personnes différentes. Pour une pub, une série ou un storyboard, cette incohérence tue la crédibilité. Stabiliser l’identité d’un personnage en IA demande des outils et des méthodes précis : référence image, character reference, ou LoRA selon ton pipeline. Voici comment faire pour que ton personnage garde le même visage d’un plan à l’autre.
Pourquoi le visage change à chaque génération
Les moteurs (Midjourney, DALL·E, Stable Diffusion, Runway, Kling) ne gardent pas en mémoire un visage d’une génération à l’autre. Chaque prompt repart de zéro. Le modèle invente un visage plausible à partir du texte et, éventuellement, d’une image d’entrée. Sans ancrage explicite (référence image, character ref, LoRA), tu obtiens donc un nouveau visage à chaque fois. Ce n’est pas un bug. C’est le fonctionnement par défaut. Pour stabiliser, il faut fournir une identité : une photo ou une image de référence que le moteur réutilisera comme modèle. Notre article avoir le même visage sur plusieurs images IA détaille les outils et les workflows. Notre guide LoRA et cohérence visuelle explique comment fixer un visage avec des LoRA sur Stable Diffusion. Ici, on se concentre sur ce que tu peux faire concrètement quand ton personnage change de visage à chaque plan.
Sans référence, chaque génération invente un nouveau visage. Avec une référence claire et la bonne méthode, tu stabilises l’identité.
Méthode 1 : Référence image (character ref) dans l’outil
Principe
Tu fournis une image du personnage (visage de face, bien éclairé). Pour les générations suivantes, tu réutilises cette image comme référence et tu décris uniquement la nouvelle scène (décor, pose, vêtement). Le moteur « tire » vers le visage de la référence.
Où c’est possible
- Midjourney : --cref (character reference) ou image dans le prompt selon la version. Tu uploades une image du personnage, tu la combines avec ton prompt de scène. Le guide Midjourney V8 et workflows détaille --cref et --sref.
- ChatGPT (DALL·E) : tu envoies l’image de référence dans la conversation et tu demandes « Génère une nouvelle image avec ce même personnage dans [scène]. Garde le visage identique. » Pour le tutoriel même visage sur plusieurs images, on donne les étapes exactes.
- Runway, Kling (vidéo) : certains modes acceptent une image de référence pour le personnage. Tu fournis un visage, tu décris l’action, le moteur garde une cohérence relative. Pour la consistance des personnages en vidéo Runway, on détaille les options.
Bonnes pratiques
- Référence nette, visage de face, bien éclairé. Pas de flou, pas de profil uniquement, pas plusieurs visages dans la même image.
- Réutiliser la même référence pour tous les plans du même personnage. Si tu changes de référence entre deux plans, l’identité dérive.
- Décrire la scène, pas le visage. Une fois la référence fournie, le prompt doit porter sur le décor, la pose, la tenue. Pour le character design et la régularité faciale, on détaille comment garder la cohérence sous différents angles.
Méthode 2 : LoRA visage (Stable Diffusion, ComfyUI, Fooocus)
Principe
Un LoRA est un petit modèle qui « greffe » un visage (ou un style) sur une base. Tu l’entraînes sur 15–30 photos d’une même personne, ou tu télécharges un LoRA existant. À chaque génération, tu actives ce LoRA et tu utilises un mot déclencheur (trigger word) dans le prompt. Le visage reste cohérent tant que tu gardes le même LoRA et le même poids. Pour le détail complet, le guide LoRA et stabilisation du visage explique l’entraînement et l’usage. Ici, l’essentiel : un LoRA = une identité. Tu le charges, tu promptes avec la trigger word, tu génères tous tes plans avec. Pour éviter les défauts (mains, yeux), les bonnes pratiques défauts mains et visages s’appliquent toujours.
Quand l’utiliser
- Tu travailles sur Stable Diffusion (ComfyUI, Automatic1111, Fooocus) et tu veux une très bonne cohérence sur une série d’images.
- Tu as besoin d’un personnage récurrent (campagne, BD, storyboard) et tu acceptes une mise en place un peu technique (entraînement ou téléchargement de LoRA). Pour les LoRA et checkpoints sur Civitai, on détaille où les trouver.
Méthode 3 : Vidéo IA avec référence personnage
Pour la vidéo, les moteurs (Runway Gen-4, Kling, Luma) proposent parfois un mode avec référence image du personnage. Tu uploades une image du visage, tu décris l’action, le moteur génère un clip en essayant de garder le même visage. La cohérence n’est pas toujours parfaite (dérive sur les longs plans, angles extrêmes), mais c’est souvent la seule option native. Pour les limites et solutions lip-sync et la consistance personnages Runway, on détaille ce que tu peux attendre. En complément, un étalonnage cohérent entre les plans aide à donner l’impression d’un même univers. Pour l’étalonnage colorimétrique en vidéo IA, on explique comment homogénéiser.
Workflow pas à pas : stabiliser un personnage sur 5 plans
- Générer ou choisir une image « référence » du personnage. Visage de face, net, bon éclairage. Si tu n’as pas de photo réelle, génère une image avec un prompt détaillé (âge, traits, coiffure), valide-la, et utilise-la comme référence pour la suite.
- Selon l’outil : avec Midjourney, enregistre cette image et utilise --cref (ou équivalent). Avec DALL·E, garde-la dans la conversation et rappelle « même personnage » à chaque nouvelle demande. Avec Stable Diffusion, entraîne un LoRA sur cette image (ou sur plusieurs variantes) ou utilise un LoRA existant.
- Pour chaque nouveau plan, décris uniquement la scène : « Same character, in a café, reading, soft light » / « Même personnage, dans un parc, debout, soleil. » Ne redécris pas le visage. La référence (ou le LoRA) s’en charge.
- Vérifier chaque sortie. Si un plan dérive trop (angle difficile, mauvaise lumière), régénère en gardant la même référence ou remplace par un plan où le visage est plus lisible. Pour des visuels pub cohérents, cette discipline s’applique à toute la série.
Scénarios réels
Scénario 1 : Storyboard pour un client. Tu dois livrer 8 planches avec le même héros. Action : génère une image « portrait référence » du personnage. Valide-la. Ensuite, pour chaque planche, utilise cette image en character ref (Midjourney --cref ou DALL·E dans la conversation) et décris uniquement l’action et le décor. Tu obtiens 8 plans avec une identité stable. Pour le même visage sur plusieurs images, le workflow est détaillé.
Scénario 2 : Campagne pub, 5 visuels. Le client veut le même modèle sur 5 affiches. Action : si tu es sur Stable Diffusion, entraîne un LoRA sur 20–30 images de ce modèle (ou utilise un LoRA existant si c’est un personnage type). Chaque visuel = même LoRA + trigger word + description de la scène. Pour la cohérence visuelle et LoRA, on donne les réglages (poids, trigger word).
Scénario 3 : Court métrage IA, plusieurs plans. Tu enchaînes Runway et Kling. Action : génère d’abord une image référence du personnage. Utilise-la en entrée pour chaque plan vidéo si l’outil le permet. Garde des plans courts et des angles où le visage est lisible. En post, étalonne pour unifier le rendu. Pour le flickering et la cohérence temporelle, on rappelle que la stabilité du visage et celle de la luminance vont de pair.
Ce que les débutants se trompent (et comment corriger)
Changer de référence entre deux plans
Une référence pour le plan 1, une autre pour le plan 2 = deux visages différents. Correction : une seule image de référence pour tout le personnage. La réutiliser à chaque génération. Pour le tutoriel même visage, on insiste sur ce point.
Décrire le visage à chaque fois
« Femme brune, 30 ans, yeux marron » à chaque prompt dilue l’effet de la référence. Le modèle peut recréer un « autre » visage qui correspond à la description. Correction : une fois la référence fournie, ne plus décrire le visage. Décrire seulement la scène, la pose, le décor. Pour la structuration du prompt, la priorité est le sujet et la lumière ; l’identité vient de la référence.
Utiliser une référence floue ou de profil
Visage flou, de profil, ou coupé = cohérence fragile. Correction : référence nette, de face, bien éclairée. Si tu n’as qu’une photo de profil, génère d’abord une image « de face » à partir de celle-ci (avec un outil qui accepte la référence) et utilise cette nouvelle image comme référence principale. Pour le character design sous plusieurs angles, on détaille comment garder la régularité.
Oublier le poids du LoRA
Un LoRA à 1.2 ou 1.5 peut « brûler » le visage (sur-apprentissage). Correction : rester entre 0.7 et 1.0. Tester à 0.8 puis ajuster. Pour les LoRA et stabilisation du visage, on donne les fourchettes.
| Problème | Piste de solution |
|---|---|
| Visage différent à chaque plan | Utiliser une référence image (--cref, DALL·E, Runway) ou un LoRA visage ; une seule référence pour tout le personnage. |
| Référence fournie mais visage dérive | Vérifier que la référence est nette, de face, bien éclairée ; ne pas redécrire le visage dans le prompt. |
| Pas sur Stable Diffusion | Utiliser Midjourney --cref ou DALL·E avec image dans la conversation. Voir même visage sur plusieurs images. |
| Vidéo : personnage change | Utiliser le mode référence personnage (Runway, Kling) ; garder des plans courts et des angles lisibles. |
Une référence claire, une seule par personnage, et des prompts qui décrivent la scène, pas le visage. La base pour stabiliser l’identité.

Pour une démonstration visuelle du même personnage dans plusieurs scènes.
Même visage sur plusieurs images IA
Tu y verras comment fournir une référence et enchaîner les générations.
Référence externe : Midjourney Character Reference (doc).

Foire aux questions
Quel outil pour garder le même visage sans être technique ?
ChatGPT (DALL·E) avec image de référence dans la conversation, ou Midjourney avec --cref. Tu fournis une image du personnage, tu demandes les nouvelles scènes en gardant « ce même personnage ». Pour le tutoriel pas à pas, on détaille les clics.
Le LoRA est-il indispensable ?
Non. Pour beaucoup de projets, une référence image (--cref, DALL·E, Runway) suffit. Le LoRA est utile quand tu veux une très bonne cohérence sur beaucoup d’images et que tu es sur Stable Diffusion. Pour le guide LoRA, on explique quand l’utiliser.
Pourquoi mon personnage change encore avec une référence ?
Vérifier que la référence est nette, de face, bien éclairée. Éviter de redécrire le visage dans chaque prompt. Si l’angle ou l’éclairage du plan sont très différents de la référence, une légère dérive est possible ; privilégier des plans où le visage reste lisible. Pour le character design et les angles, on détaille comment limiter la dérive.
Puis-je utiliser une photo réelle comme référence ?
Oui, si tu as les droits sur la photo (toi, modèle avec accord, banque avec licence). Attention au droit à l’image et aux aspects juridiques des images IA. Pour la pub, privilégier des modèles avec accord ou des personnages fictifs.
Runway et Kling gardent-ils le même visage en vidéo ?
Ils proposent des modes avec référence du personnage. La cohérence n’est pas parfaite sur tous les plans (angles, longueur). Pour une meilleure stabilité, garder des plans courts et une référence très nette. Voir consistance personnages Runway et lip-sync et limites.
Combien d’images de référence pour un LoRA ?
En général 15–30 images du même visage, sous différents angles et éclairages. Qualité > quantité. En dessous de 10, le risque de sur-apprentissage ou de mauvaise généralisation augmente. Pour le workflow LoRA visage, on donne les bonnes pratiques.
Midjourney --cref fonctionne-t-il avec n’importe quelle image ?
Une image nette, visage de face, sans trop d’éléments autour donne les meilleurs résultats. Éviter les images avec plusieurs visages ou un visage trop petit. Pour le guide Midjourney V8, on détaille --cref et --sref.
La cohérence est-elle parfaite ?
Non. Selon l’angle, l’éclairage et l’outil, une légère dérive reste possible. L’objectif est de réduire les sauts d’identité, pas d’obtenir un clone pixel par pixel. Pour des livrables exigeants, prévoir une curation (garder les plans les plus cohérents) et éventuellement une retouche légère sur les plans critiques.

Frank Houbre - expert IA vidéo et Image
Frank Houbre est un expert en IA vidéo et image, artiste IA et filmmaker récompensé aux Seoul International AI Film Festival et aux Mondial Chroma Awards. Avec plus de 10 ans d'expérience en entrepreneuriat digital, il crée des courts-métrages et animés entièrement générés par IA (Midjourney, Kling, Adobe Firefly). Co-Fondateur de Screenweaver et de la communauté #AIStudios, il partage des tutoriels gratuits et avis d'outils sur Business Dynamite pour aider les créateurs à automatiser leur production.
Continuer la lecture
- 3 astuces pour enlever l'effet plastique des images générées par IA
Images IA trop lisses, trop « propres » : trois leviers concrets (grain et texture, lumière directionnelle, couleurs) pour un rendu moins plastique et plus crédible.
- L'IA a généré 6 doigts sur mon image : comment corriger cette erreur ?
Mains à six doigts, doigts fusionnés ou déformés : pourquoi l’IA se trompe, et les méthodes concrètes pour corriger ou éviter l’erreur (prompt, inpainting, retouche).
- L'IA refuse de générer une célébrité : quelles sont les alternatives légales ?
Les générateurs bloquent les noms de célébrités pour des raisons de droit à l’image. Alternatives légales : description générique, lookalike, banques, acteur réel.

