Comprendre le paramètre "Seed" : Le secret pour des résultats réguliers
Même prompt, résultat différent à chaque fois ? Le seed contrôle le hasard. Voici comment il marche, où le trouver, et comment l'utiliser pour reproduire ou varier vos images.
Vous lancez le même prompt deux fois. Deux images différentes. Parfois l’une est pile ce que vous vouliez, l’autre non. Vous voulez reproduire la bonne. Ou au contraire varier autour d’elle sans tout changer. Le paramètre seed (graine) est fait pour ça. En une phrase : c’est le nombre qui fixe le hasard au départ de la génération. Même prompt + même seed = même image (en théorie). Même prompt + seed différent = variations. Ce guide explique comment ça marche, où le trouver dans vos outils, et comment s’en servir pour des résultats réguliers. Pour Midjourney et l’usage combiné seed + style reference, Seed, Style Reference et sref sur Midjourney détaille. Pour des prompts qui donnent le bon rendu du premier coup, bon prompt du premier coup et ChatGPT pour écrire le prompt image aident.
Seed : c’est quoi, en mots simples ?
Quand un générateur d’images crée une image, il part d’un bruit (une image aléatoire) et le débruite progressivement en suivant votre prompt. Le seed est la valeur initiale qui génère ce bruit. Même seed = même point de départ = même chemin de débruitage = même image (à prompt et paramètres identiques). Seed différent = autre point de départ = autre image. Think about it this way : comme un tirage au sort dont le résultat dépend d’un numéro. Vous gardez le numéro, vous pouvez rejouer la même partie. Vous changez le numéro, vous explorez d’autres possibilités. Pour des séries cohérentes au-delà du seed, style references pour copier la patte graphique complète.
Où trouver et modifier le seed ?
Stable Diffusion, Fooocus, ComfyUI
Le seed est en général affiché après chaque génération (souvent en bas de l’image ou dans les infos). Vous pouvez le copier et le recoller dans un champ « Seed » pour la prochaine génération. Si vous laissez le champ vide ou cochez « Random », un nouveau seed est tiré à chaque fois. Pour reproduire une image : gardez le même prompt, la même résolution, les mêmes paramètres, et remettez le même seed. Pour varier : changez le seed (ou laissez aléatoire) en gardant le prompt.
Midjourney
Sur Midjourney, le seed est associé à chaque image. Pour le voir : réagir à l’image avec l’emoji envelope (enveloppe) ou utiliser la commande /info sur un message contenant l’image. Midjourney vous renvoie le Job ID et le seed. Pour relancer avec le même seed : ajoutez --seed [nombre] à la fin de votre prompt (ex. --seed 1234567890). Même prompt + même seed = même image (sous réserve des mises à jour du modèle). Pour le détail Midjourney, Seed et sref sur Midjourney.
DALL·E, Ideogram, Runway
Certains outils n’exposent pas le seed à l’utilisateur. Vous ne pouvez pas le récupérer ni le réinjecter. Dans ce cas, la reproductibilité passe par d’autres moyens : sauvegarder l’image qui vous plaît, réutiliser une image de référence (style reference, image-to-image) si l’outil le propose. Pour la vidéo (Runway), les paramètres de consistance ou de référence jouent un rôle similaire.
Workflow concret : reproduire une image
Étape 1. Générez une image qui vous convient. Notez ou copiez le seed affiché (Stable Diffusion, Fooocus, Midjourney avec /info ou envelope).
Étape 2. Ne changez rien d’autre : même prompt, même résolution, même nombre de steps (Stable Diffusion), même modèle. Collez le même seed dans le champ prévu.
Étape 3. Relancez la génération. Vous devriez obtenir la même image (ou une très proche selon les versions de logiciel). Si l’outil a été mis à jour, le rendu peut légèrement varier.
Étape 4. Pour varier tout en restant proche : gardez le même seed et modifiez légèrement le prompt (un mot, une précision). Vous explorez des variations « voisines » au lieu de repartir dans le hasard total.
Workflow : explorer des variations
Étape 1. Vous avez une image que vous aimez. Vous voulez d’autres versions (autre angle, autre expression, même style). Récupérez le seed.
Étape 2. Gardez le même prompt (ou une base commune). Changez le seed (un autre nombre, ou « random »). Lancez plusieurs fois. Vous obtenez des variations autour du même thème.
Étape 3. Si vous voulez garder le style sur des sujets différents (pas seulement des variations), utilisez plutôt une style reference (image de référence) si l’outil le permet. Le seed sert à rejouer ou à varier une même génération ; la style ref sert à transférer l’esthétique sur de nouvelles idées. Voir style references, copier la patte graphique.
Pro tip : Pour des séries (moodboard, campagne), combinez seed (pour repartir d’une image pilote et faire des variantes) et style reference (pour garder la même patte sur des sujets différents). Pour un workflow complet de l’idée à la vidéo, workflow débutant en 5 étapes structure la production.

Ce que les débutants se trompent
Erreur 1 : Changer le prompt et s’attendre à la même image avec le même seed
Même seed + prompt différent = image différente. Le seed fixe le hasard initial, pas le contenu. Correction : Pour reproduire à l’identique, gardez prompt + paramètres + seed identiques.
Erreur 2 : Croire que le seed est « l’image »
Le seed n’est qu’un nombre. Sans le prompt et les paramètres (résolution, steps, modèle), il ne suffit pas à retrouver l’image. Correction : Sauvegarder prompt + seed + paramètres (screenshot, fichier texte) si vous voulez refaire la même chose plus tard.
Erreur 3 : Utiliser le seed pour « copier le style » d’une image trouvée sur le web
Si vous n’avez pas le prompt et le seed de l’image d’origine, le seed ne vous aide pas. Pour copier le style d’une image dont vous n’avez que le fichier, utilisez une style reference (--sref sur Midjourney, img2img ou référence visuelle ailleurs). Correction : Seed = reproductibilité de votre génération. Style ref = transfert d’esthétique à partir d’une image. Voir style references.
Erreur 4 : Oublier les autres paramètres
Sur Stable Diffusion, si vous changez le nombre de steps, le sampler ou le modèle, même prompt + même seed peuvent donner un résultat différent. Correction : Pour une vraie reproductibilité, noter tous les paramètres (steps, CFG, sampler, modèle) en plus du seed.
Tableau récap
| Objectif | Action |
|---|---|
| Reproduire exactement une image | Même prompt, mêmes paramètres, même seed |
| Varier autour d’une image | Même prompt (ou proche), seed différent ou random |
| Garder le style sur plusieurs images (sujets différents) | Utiliser style reference plutôt que le seed seul |
| Où voir le seed ? | Stable Diffusion / Fooocus : sous l’image ou dans les infos. Midjourney : /info ou réaction envelope |
Scénarios réalistes
Scénario A : Vous avez généré un portrait parfait. Le client en veut un deuxième, même cadrage et même lumière, autre expression. À faire : Garder le même prompt et le même seed. Ajouter une précision (« slight smile » / « serious look »). Relancer. Vous obtenez une variation contrôlée. Si vous changez complètement le sujet (« now a man »), gardez le seed pour la cohérence technique, mais le rendu sera plus différent.
Scénario B : Vous faites un storyboard en 6 images. Vous voulez la même ambiance sur toutes. À faire : Générer une image pilote qui définit le look. Récupérer son URL et utiliser --sref [URL] (Midjourney) ou une fonction « image reference » sur les autres outils pour les 5 suivantes. Le seed sert si vous voulez rejouer une des 6 images exactement. Voir créer le storyboard de sa première vidéo IA.
Scénario C : Vous utilisez DALL·E et il n’y a pas de seed visible. À faire : Sauvegarder l’image et le prompt utilisé. Pour « reproduire », relancer le même prompt (vous aurez une variation, pas une copie). Pour une série cohérente, décrire le style dans chaque prompt (mêmes termes : « cinematic, 35mm, film grain ») et éventuellement utiliser une image de référence si l’interface le propose.
Foire aux questions
Qu’est-ce que le paramètre seed ?
C’est la valeur qui fixe le hasard au début de la génération. Même prompt + même seed (et mêmes paramètres) = même image. Seed différent = variations.
Où trouver le seed ?
Stable Diffusion, Fooocus, ComfyUI : affiché après génération (souvent sous l’image ou dans un panneau d’infos). Midjourney : réagir avec l’emoji envelope ou utiliser /info sur le message de l’image. DALL·E, Ideogram : souvent non exposé.
Comment reproduire exactement une image ?
Gardez le même prompt, les mêmes paramètres (résolution, steps, modèle) et le même seed. Relancez la génération.
Le seed permet-il de copier le style d’une image trouvée en ligne ?
Non. Le seed ne sert qu’à reproduire ou varier une image que vous avez générée (vous avez son prompt et son seed). Pour copier le style d’une image dont vous n’avez que le fichier, utilisez une style reference (--sref sur Midjourney, ou équivalent sur votre outil). Voir style references.
Pourquoi même seed + même prompt donnent parfois une image différente ?
Si le modèle, le logiciel ou les paramètres (steps, sampler, etc.) ont changé, le chemin de génération change. La reproductibilité est garantie seulement à paramètres et version identiques.
Seed et style reference, quelle différence ?
Seed : rejouer ou varier une même génération (même sujet, même cadre). Style reference : transférer l’esthétique (couleurs, grain, lumière) d’une image sur de nouvelles scènes ou sujets. Pour Midjourney, Seed et sref.
Faut-il toujours utiliser un seed fixe ?
Non. Utilisez un seed fixe quand vous voulez reproduire ou varier de façon contrôlée. Laissez le seed aléatoire quand vous explorez et que vous voulez de la diversité à chaque lancement.

Frank Houbre - expert IA vidéo et Image
Frank Houbre est un expert en IA vidéo et image, artiste IA et filmmaker récompensé aux Seoul International AI Film Festival et aux Mondial Chroma Awards. Avec plus de 10 ans d'expérience en entrepreneuriat digital, il crée des courts-métrages et animés entièrement générés par IA (Midjourney, Kling, Adobe Firefly). Co-Fondateur de Screenweaver et de la communauté #AIStudios, il partage des tutoriels gratuits et avis d'outils sur Business Dynamite pour aider les créateurs à automatiser leur production.
Continuer la lecture
- Demander à ChatGPT d'écrire le prompt image parfait à votre place
Vous avez l'idée, pas les mots. ChatGPT peut rédiger le prompt pour Midjourney, DALL·E ou Stable Diffusion. Voici comment le brief correctement et récupérer un prompt exploitable.
- Contrôler la lumière avec ses prompts : Du rendu "Golden Hour" au "Studio"
La lumière fait ou défait une image. Golden hour, low key, studio, néon : comment décrire l'éclairage dans vos prompts pour obtenir le rendu voulu.
- L'Inpainting : Le pinceau magique pour corriger un seul détail d'une photo
Une image presque parfaite, mais un détail qui cloche. L'inpainting permet de régénérer uniquement la zone que vous masquez. Guide pas à pas pour débutants.

