Comment savoir si une image a été créée par intelligence artificielle ?
Une photo vous semble trop parfaite, ou au contraire bizarre. Vous voulez savoir si elle sort d'un générateur IA. Voici les signaux, les outils et les limites, sans vous promettre une certitude à 100 %.
Vous tombez sur une image. Sur un réseau, dans un dossier client, dans un article. Quelque chose vous interpelle. Soit elle est d’une netteté suspecte, soit les mains sont bizarres, soit l’éclairage ne colle pas. Vous vous demandez : est-ce qu’une IA a généré ça ? La réponse honnête : on peut avoir des indices, parfois très forts. Une certitude à 100 %, non. Les détecteurs automatiques existent, mais ils se trompent. Ce guide vous donne les signaux à observer, les outils à utiliser et ce que les débutants interprètent mal. Pour le cadre général sur la détection de contenus IA (texte et image), comment vérifier si un texte ou une photo a été créée par une IA détaille les méthodes. Pour comprendre comment une IA génère des images, comment fonctionne une IA génératrice d’images pose les bases techniques.
Pourquoi c’est difficile (et pourquoi personne ne peut vous garantir « 100 % IA »)
Une image générée par IA est un fichier pixel comme une photo classique. Elle n’a pas de « marque » obligatoire dans les métadonnées. Certains outils ajoutent un filigrane invisible ou des métadonnées spécifiques, mais ce n’est pas systématique. Du coup, on se repose sur deux choses : des artefacts visuels (défauts récurrents des générateurs) et des outils de détection qui analysent les statistiques des pixels ou des patterns. Les deux ont des limites. Les modèles s’améliorent, les artefacts diminuent. Les détecteurs donnent un score de probabilité, pas une preuve. Think about it this way : vous pouvez avoir une forte suspicion, rarement une certitude scientifique sans accès à la source. Pour les obligations de transparence quand vous publiez du contenu IA, faut-il mentionner « Généré par IA » sur Instagram ou YouTube et droits d’auteur et licences des images IA rappellent le cadre.
Les signaux visuels : ce que les générateurs IA ratent souvent
Mains et doigts
Les mains restent un point faible de beaucoup de modèles. Doigts en trop, doigts fusionnés, articulations impossibles, ongles bizarres. Si une image montre des mains et que quelque chose cloche (six doigts, courbure étrange), c’est un indice fort en faveur de l’IA. Attention : une retouche humaine peut avoir corrigé ces défauts. Et certains modèles récents gèrent mieux les mains.
Texte dans l’image
Les générateurs déforment souvent le texte : lettres floues, inversées, illisibles, ou qui ne forment pas un mot cohérent. Un panneau, une enseigne, une étiquette avec du texte bizarre est un signal. Là encore, des outils spécialisés (Ideogram, DALL·E 3 avec mode texte) font mieux. Ce n’est qu’un indice.
Cohérence physique et éclairage
Reflets incohérents, ombres dans plusieurs directions, bijoux ou lunettes qui ne respectent pas la symétrie du visage, dents qui se mélangent. L’IA peut moyenner des éléments et produire des incohérences subtiles. Un œil entraîné repère des détails « qui ne collent pas ». Pour un débutant, comparer avec des photos de référence (portraits pro, paysages) aide à aiguiser le regard.
Fond et bords
Les bords de l’image, les zones floues ou les arrière-plans très génériques (végétation vague, ciel lisse) peuvent trahir une génération. Les générateurs ont aussi tendance à lisser certaines textures (peau trop uniforme, tissu sans vraie fibre). Ce n’est pas une règle absolue : une photo retouchée ou un rendu 3D peut ressembler à ça.
Métadonnées et filigranes : ce que vous pouvez vérifier
EXIF et métadonnées
Ouvrez l’image avec un logiciel qui affiche les EXIF (Logiciel, appareil, date de prise de vue). Si le fichier indique « Midjourney », « DALL·E », « Stable Diffusion » ou un outil de génération, l’origine est claire. Mais beaucoup d’utilisateurs exportent sans ces métadonnées, ou les suppriment. Une image sans EXIF ou avec des champs vides n’est pas forcément IA, et une image avec EXIF « appareil photo » peut être un export après génération. Les métadonnées sont un élément, pas une preuve à elles seules.
Filigrane invisible (watermark)
Certains services (par ex. Google SynthID, Adobe) insèrent un filigrane invisible dans les pixels pour marquer l’origine IA. Ces filigranes sont conçus pour résister à la compression et à des modifications légères. Si vous savez que l’image vient d’un outil qui utilise ce type de marquage, un détecteur dédié peut la reconnaître. Pour comprendre ce qu’est un filigrane invisible et à quoi il sert, qu’est-ce qu’un filigrane invisible (watermark) et à quoi ça sert détaille le principe.
Outils de détection : comment les utiliser (et ne pas leur faire confiance aveuglément)
Des sites et logiciels estiment la probabilité qu’une image soit générée par IA. Ils analysent des patterns statistiques (répartition des pixels, artefacts typiques des modèles). Vous uploadez l’image, vous recevez un score (ex. « 85 % probablement synthétique »).
En pratique : utilisez un ou deux détecteurs comme indice, pas comme verdict. Un score élevé renforce une suspicion déjà fondée sur les signaux visuels. Un score bas ne prouve pas que l’image est humaine : une image IA très travaillée ou post-traitée peut passer. Les détecteurs sont souvent entraînés sur d’anciennes versions de modèles et retardent sur les nouvelles générations. Pour aller plus loin sur les limites des détecteurs, vérifier si un texte ou une photo a été créé par une IA détaille texte et image.
Pro tip : Croisez toujours plusieurs signaux. Une main bizarre + un score détecteur élevé + une source inconnue = forte probabilité. Une image propre avec un score bas = vous ne pouvez pas conclure « 100 % humain ».

Workflow concret : étape par étape
Étape 1. Regardez l’image en pleine résolution. Zoomez sur les mains, le texte éventuel, les reflets et les ombres. Notez tout ce qui vous semble incohérent.
Étape 2. Vérifiez les métadonnées (logiciel, appareil). Si un outil IA est indiqué, vous avez une piste forte. Si tout est vide ou « appareil photo », ça ne prouve rien dans un sens ni dans l’autre.
Étape 3. Passez l’image dans un ou deux détecteurs en ligne. Notez le score. Ne vous arrêtez pas à ce chiffre seul.
Étape 4. Croisez : signaux visuels + métadonnées + score. Formulez une suspicion (« probablement IA » ou « doute possible »), pas une certitude, sauf si la source ou les métadonnées l’indiquent clairement.
Ce que les débutants se trompent
Erreur 1 : « Le détecteur dit 90 %, donc c’est de l’IA »
Les détecteurs se trompent. Ils peuvent faux-positiver (qualifier une photo réelle d’IA) ou faux-négativer (laisser passer une image IA). Un score élevé est un indice, pas une preuve. Correction : Utilisez le score avec les signaux visuels et le contexte (origine du fichier, qui vous l’a envoyé).
Erreur 2 : « Pas de défaut visible, donc c’est une vraie photo »
Les modèles récents produisent des images très propres. Absence d’artefact évident ne signifie pas « humain ». Correction : Ne concluez pas à l’inverse non plus. « Je ne vois rien de bizarre » = indéterminé, pas « c’est humain ».
Erreur 3 : Se fier à une seule méthode
S’appuyer uniquement sur les mains, ou uniquement sur un détecteur, donne des conclusions fragiles. Correction : Croisez signaux visuels, métadonnées et outils. Plus les indices vont dans le même sens, plus votre intuition est fiable.
Erreur 4 : Penser que « généré par IA » = mauvaise qualité
Beaucoup d’images IA sont de très haute qualité technique. Le critère n’est pas « beau = humain », « moche = IA ». Correction : Cherchez des incohérences (physique, éclairage, anatomie), pas un jugement esthétique.
Tableau récap : signaux et interprétation
| Signal | Indice en faveur de l’IA ? | Fiabilité |
|---|---|---|
| Mains bizarres (doigts, articulations) | Oui, fort | Élevée si net |
| Texte déformé ou illisible dans l’image | Oui | Moyenne à élevée |
| EXIF indique un outil IA | Oui, très fort | Très élevée |
| Détecteur score > 80 % | Oui | Moyenne (faux positifs possibles) |
| Image très « parfaite », lisse | Possible | Faible (subjectif) |
| Aucun défaut visible | Aucun indice | Ne pas conclure |
Scénarios réalistes
Scénario A : Un influenceur poste une photo de voyage. Les doigts sur la main qui tient le verre sont bizarres. Vous consultez un détecteur : 78 %. Interprétation : Forte probabilité d’image IA ou fortement retouchée. Vous ne pouvez pas affirmer « 100 % IA » sans la source.
Scénario B : Un client vous envoie une image pour une campagne. Les EXIF indiquent « Midjourney ». Interprétation : L’image a été générée avec Midjourney. Pour l’exploiter en pub, vérifiez les droits et licences des images IA et les obligations de mention.
Scénario C : Une image virale circule. Aucun défaut visible, détecteur à 45 %. Interprétation : Indéterminé. Ne pas accuser sans preuve. Si vous devez la repartager, indiquer « origine non vérifiée » ou ne pas la utiliser si votre charte exige des sources vérifiées.
Une ressource vidéo pour aller plus loin
Pour un cadre visuel sur la détection et les limites des outils, le Live #21 : IA & Image, guide juridique aborde aussi la question de l’identification des contenus synthétiques.
Regarder le Live #21 : IA & Image, guide juridique
. Vous y verrez des points concrets sur la transparence et les bonnes pratiques.

Foire aux questions
Comment savoir si une image a été créée par une IA ?
Il n’existe pas de méthode infaillible. Vous pouvez croiser des signaux visuels (mains bizarres, texte déformé, incohérences d’éclairage), les métadonnées (EXIF indiquant un outil IA) et des outils de détection qui donnent un score de probabilité. Un score élevé ou des artefacts typiques renforcent une suspicion, mais ne garantissent pas une certitude à 100 %.
Les détecteurs d’images IA sont-ils fiables ?
Ils donnent une estimation, pas une preuve. Ils peuvent se tromper (faux positifs et faux négatifs). Utilisez-les comme un indice parmi d’autres, pas comme verdict unique.
Quels défauts visuels trahissent souvent une image IA ?
Les mains (doigts en trop, articulations bizarres), le texte dans l’image (lettres illisibles ou déformées), et des incohérences (ombres, reflets, symétrie). Ces signaux sont plus fréquents en IA mais peuvent être corrigés en post-production.
Les métadonnées (EXIF) prouvent-elles l’origine ?
Si les EXIF indiquent un logiciel de génération IA, c’est un indice très fort. Mais les EXIF peuvent être supprimées ou modifiées. Une image sans EXIF n’est pas forcément IA.
Peut-on être sûr à 100 % qu’une image n’est pas de l’IA ?
Sans accès à la source (fichier original, témoignage de l’auteur), non. Les modèles progressent et les artefacts diminuent. On peut avoir une forte probabilité, rarement une certitude absolue.
Que faire si je dois vérifier des images pour mon travail ?
Adoptez un workflow : examen visuel (mains, texte, cohérence), vérification des métadonnées, passage dans un ou deux détecteurs, puis synthèse. Documentez votre raisonnement. Pour les obligations de déclaration quand vous publiez du contenu IA, consultez les règles de votre secteur et mention « Généré par IA » sur les plateformes.

Frank Houbre - expert IA vidéo et Image
Frank Houbre est un expert en IA vidéo et image, artiste IA et filmmaker récompensé aux Seoul International AI Film Festival et aux Mondial Chroma Awards. Avec plus de 10 ans d'expérience en entrepreneuriat digital, il crée des courts-métrages et animés entièrement générés par IA (Midjourney, Kling, Adobe Firefly). Co-Fondateur de Screenweaver et de la communauté #AIStudios, il partage des tutoriels gratuits et avis d'outils sur Business Dynamite pour aider les créateurs à automatiser leur production.
Continuer la lecture
- Confidentialité : Vos photos personnelles nourrissent-elles l'IA ?
Vous avez envoyé des photos à un outil IA ou vous vous demandez si vos images en ligne servent à l'entraînement. Voici ce qu'on sait et comment limiter les risques.
- Décrypter les licences commerciales des outils IA en langage clair
Usage commercial, revente, propriété intellectuelle : les CGU des outils IA sont souvent illisibles. Voici comment les décrypter et ce que vous devez vraiment retenir.
- Deepfake : Définition simple et limites fixées par la loi française
Deepfake : un mot qui fait peur. En France, la loi et les autorités encadrent déjà les contenus synthétiques. Voici une définition claire et ce que vous devez respecter.

