Cohérence visuelle IA — La technique des LoRA pour stabiliser un visage
Garder le même visage d’un plan à l’autre avec des LoRA et des références : workflow Stable Diffusion, Civitai, et limites.
Tu génères un personnage. Plan 1 : il a un visage. Plan 2 : les yeux, le nez, la coupe changent. Plan 3 : on dirait quelqu’un d’autre. Pour une pub, une série ou un storyboard, cette incohérence tue la crédibilité. Les LoRA (Low-Rank Adaptation) sont des petits modèles qui « greffent » un style ou un visage précis sur une base (Stable Diffusion). Ils ne font pas tout seuls : il faut les choisir, les doser, et souvent combiner avec des images de référence. Voici comment stabiliser un visage en IA avec les LoRA, et où ça s’arrête.
Ce qu’est un LoRA (en pratique)
Un LoRA est un fichier léger (quelques Mo à quelques centaines de Mo) qui modifie le comportement d’un modèle de base. Tu charges le modèle (ex. SD 1.5, SDXL, Flux), tu actives un ou plusieurs LoRA, et tu promptes. Le LoRA peut injecter : un style (cinéma des années 70, anime), un objet récurrent (une voiture, un accessoire), ou un visage appris à partir de quelques photos. Pour le visage, on parle souvent de « face LoRA » ou « character LoRA » : tu l’entraînes sur 10–30 images d’une même personne (ou d’un personnage de référence), puis tu l’utilises à chaque génération pour que le visage reste reconnaissable. Notre avis Civitai et LoRA détaille où les trouver et comment les combiner avec des checkpoints.
Pourquoi Midjourney ne suffit pas pour le même visage
Midjourney (y compris V8) excelle pour l’ambiance, le cadrage, la cohérence visuelle (lumière, palette). Il n’a pas de notion de « personnage récurrent » : chaque génération repart de zéro. Les options --sref ou --cref (character reference) aident à rapprocher le style ou la silhouette, mais ne garantissent pas la même identité faciale sur 10 images. Pour une vraie régularité de visage, il faut soit un outil avec référence image forte (certains flux Runway, Kling), soit Stable Diffusion + LoRA (ou équivalent). Donc : Midjourney pour les décors et l’ambiance ; SD + LoRA ou pipeline dédié pour le character design qui doit rester identique.
Workflow : entraîner ou utiliser un LoRA visage
Option A : Utiliser un LoRA existant (Civitai, etc.)
Tu vas sur Civitai (ou Tensor.art, etc.), tu cherches « character LoRA », « face », ou le nom d’une célébrité / personnage si c’est pour du test. Tu télécharges le fichier .safetensors. Dans ton interface (ComfyUI, Automatic1111, Fooocus, Invoke, etc.), tu charges le modèle de base compatible (souvent SDXL ou SD 1.5), tu ajoutes le LoRA dans la pile, tu ajustes le poids (0.7–1.0 en général). Tu promptes comme d’habitude (sujet, cadrage, lumière) ; le LoRA injecte le visage. Avantage : rapide. Inconvénient : tu dépends du visage que quelqu’un d’autre a entraîné. Pour des personnages originaux, il faut entraîner soi-même.
Option B : Entraîner un LoRA sur un personnage
Tu rassembles 15–30 images du même visage : même personne, angles et éclairages variés, fonds différents si possible. Pas de lunettes ni d’accessoires qui cachent le visage sur toutes les photos. Tu les recadres de façon homogène (visage centré, même ratio). Tu utilises un outil d’entraînement LoRA (Kohya_ss, SimpleTuner, services type Tensor.art ou Replicate). Tu définis une trigger word (un mot qui activera ce LoRA, ex. « john_doe »). Après quelques heures d’entraînement (GPU), tu obtiens un fichier LoRA. Tu le charges dans ton pipeline, tu utilises la trigger word dans le prompt, et tu génères. Le visage reste cohérent tant que tu gardes le même LoRA et le même poids. Pour éviter les visages bizarres (mains, yeux), les bonnes pratiques défauts mains et visages s’appliquent toujours.
Option C : Référence image sans LoRA
Certains outils (Midjourney --cref, Runway, Kling) acceptent une image de référence du personnage. Tu uploades une photo ou un rendu, et le moteur « tire » vers ce visage. C’est plus simple que d’entraîner un LoRA, mais souvent moins fidèle et moins contrôlable. Pour du storyboard ou du moodboard où « ça ressemble un peu » suffit, la référence image peut suffire. Pour une campagne avec le même visage partout, LoRA (ou pipeline VFX classique) reste plus fiable.
Scénarios réels
Scénario 1 — Pub avec un « héros » récurrent. Tu dois livrer 5 visuels (affichage, digital) avec le même homme. Tu n’as pas les droits sur un acteur réel. Tu entraînes un LoRA sur 20 images d’un stock ou d’un mannequin, avec une trigger word. Chaque prompt : « [trigger] in suit, city street, golden hour », « [trigger] close-up, studio, soft light », etc. Même poids LoRA (ex. 0.85), même modèle de base. Résultat : un visage stable sur les 5 images. Tu complètes avec une direction artistique claire (lumière, palette) pour que l’ensemble soit cohérent.
Scénario 2 — Série animée / concept art. Tu as designé un personnage dans un style (semi-réaliste, anime). Tu fais 20–30 captures ou exports du personnage sous différents angles. Tu entraînes un LoRA. Ensuite, pour chaque nouvelle scène, tu promptes avec la trigger word + la pose + le décor. Le personnage reste reconnaissable. Pour le style « fait main » ou texture, tu peux superposer un LoRA style en plus du LoRA personnage.
Scénario 3 — Storyboard pour un client. Le client veut voir « son » protagoniste (défini par une photo ou un premier concept). Tu n’as pas le temps d’entraîner un LoRA. Tu utilises la référence image (Midjourney --cref, ou outil qui accepte l’upload). Tu génères les planches en gardant la même référence. Le visage ne sera pas pixel-perfect, mais suffisant pour valider le découpage. Pour aller plus loin, storyboards et préproduction et co-écriture de scénario aident à cadrer le récit avant les visuels.
Ce que les débutants se trompent
Poids LoRA trop fort. À 1.2 ou 1.5, le visage peut devenir surréaliste ou « brûlé ». Correction : Reste entre 0.7 et 1.0. Teste à 0.8 puis ajuste.
Trop peu d’images d’entraînement. Avec 5 photos, le LoRA sur-apprend et donne toujours la même expression. Correction : 15–30 images, variées en angle et lumière. Qualité > quantité, mais en dessous de 10 c’est risqué.
Mélanger plusieurs LoRA visage. Deux LoRA de personnages différents en même temps = visage hybride ou artefact. Correction : Un seul LoRA « personnage » par génération. Tu peux combiner avec un LoRA style (cinéma, grain) si le logiciel le gère bien.
Oublier la trigger word. Sans le mot déclencheur dans le prompt, le LoRA peut ne pas s’activer correctement. Correction : Mets toujours la trigger word au début du prompt (ex. « john_doe, standing in street »).
Attendre la même qualité qu’un vrai tournage. Les LoRA stabilisent le visage, pas la pose ni l’anatomie parfaite. Correction : Décris des poses simples, évite les mains en premier plan, et relis le guide défauts.
| Problème | Piste de solution |
|---|---|
| Visage différent à chaque image | Activer le LoRA, utiliser la trigger word, garder le même poids (0.7–1.0). |
| Visage « brûlé » ou déformé | Baisser le poids LoRA ; vérifier la qualité des images d’entraînement. |
| Style et personnage en conflit | Un LoRA personnage + un LoRA style : vérifier la compatibilité (même base SD/SDXL). |
| Pas de GPU pour entraîner | Utiliser un service cloud (Replicate, RunPod, Tensor.art training) ou un LoRA existant. |
Un LoRA ne crée pas le visage à ta place. Il fixe une identité que tu réutilises. La créativité reste dans le cadrage, la lumière et le récit.

Limites et alternatives
- Droit à l’image. Entraîner un LoRA sur une personne réelle sans accord pose des questions juridiques et éthiques. Pour la pub, privilégie des modèles de stock avec licence ou des personnages fictifs.
- Résolution et cohérence à l’échelle. Sur des plans très larges (full body, foule), le visage peut être trop petit pour que le LoRA s’exprime bien. Privilégie des plans où le visage est lisible (medium shot, close-up).
- Video. Les LoRA image ne s’appliquent pas directement à la vidéo. Pour de la vidéo avec un personnage récurrent, il faut des pipelines type Runway avec référence ou acteur réel + VFX.
Foire aux questions (FAQ)
Où télécharger des LoRA visage ? Civitai et Tensor.Art proposent des milliers de LoRA. Cherche « character », « face », ou le nom du personnage. Vérifie la licence (usage commercial ou non).
Quel logiciel pour utiliser un LoRA ? ComfyUI, Automatic1111, Fooocus, Invoke, Leonardo, etc. Selon ton OS et ta carte graphique. Stable Diffusion local et Fooocus sont des options courantes.
Puis-je combiner un LoRA visage et un LoRA style ? Oui, dans la plupart des interfaces. Charge les deux, règle les poids (ex. 0.85 visage, 0.6 style). Si le rendu dégrade, baisse un des deux.
Midjourney aura-t-il un jour des LoRA ? Midjourney ne propose pas de LoRA utilisateur. Il évolue avec --sref et --cref. Pour un contrôle « personnage fixe », reste sur Stable Diffusion + LoRA ou un outil avec référence image forte.
Combien de temps pour entraîner un LoRA ? Selon le nombre d’images et le matériel : 1–4 h sur un GPU correct. Les services cloud facturent à la minute.


Frank Houbre - expert IA vidéo et Image
Frank Houbre est un expert en IA vidéo et image, artiste IA et filmmaker récompensé aux Seoul International AI Film Festival et aux Mondial Chroma Awards. Avec plus de 10 ans d'expérience en entrepreneuriat digital, il crée des courts-métrages et animés entièrement générés par IA (Midjourney, Kling, Adobe Firefly). Co-Fondateur de Screenweaver et de la communauté #AIStudios, il partage des tutoriels gratuits et avis d'outils sur Business Dynamite pour aider les créateurs à automatiser leur production.
Continuer la lecture
- Cadrage et échelles de plans — Traduire la psychologie de l'image en prompt
Plan large, plan rapproché, gros plan : comment décrire le cadrage dans un prompt pour que l’IA produise la bonne échelle et l’émotion voulue.
- Character Design IA — Conserver la régularité faciale sous tous les angles
Garder le même personnage sur plusieurs images : LoRA, référence image, et bonnes pratiques pour le design de personnage en IA.
- Comment intégrer la typographie proprement dans une image IA en 2026
Obtenir du texte lisible dans une image IA : Flux, Ideogram, prompts, et quand passer par la composition en post.
