AI Studiopar businessdynamite
← Blog
LLM20 février 2026· 13 min de lecture

Le grand dictionnaire de l'IA — de l'algorithme au Zero-Shot prompting

Tous les termes de l'intelligence artificielle expliqués simplement : algorithme, LLM, embedding, fine-tuning, Zero-Shot et 80 autres entrées pour ne plus être perdu.

Partager :

Vous lisez un article sur les modèles de langage. « Algorithme », « embedding », « Zero-Shot ». Vous regardez une vidéo : « fine-tuning », « attention », « transformer ». Vous avez l’impression de ne pas parler la même langue. Ce dictionnaire est fait pour ça : vous donner les termes qui reviennent le plus quand on parle d’IA — de A à Z — avec une définition simple et, quand c’est utile, une analogie ou un exemple. Pas pour briller en soirée. Pour comprendre ce que vous lisez et ce que vous faites quand vous tapez dans une zone de saisie. Pour mettre ces mots en pratique, formuler sa demande à l’IA et le lexique des 50 mots à connaître complètent ce dictionnaire ; pour un premier pas concret, par où commencer en IA et le méga-guide 2026 vous guident.

A — Algorithme à Attention

Algorithme — Une suite d’instructions précises pour résoudre un problème ou accomplir une tâche. En IA, les modèles reposent sur des algorithmes complexes (réseaux de neurones, transformers) qui traitent des données et produisent une sortie. Vous n’avez pas à les écrire ; vous utilisez des outils qui les implémentent.

API (Application Programming Interface) — Interface technique qui permet à un logiciel d’envoyer des requêtes à un modèle (ex. envoyer un prompt à GPT et recevoir une réponse). En tant qu’utilisateur dans un navigateur, vous ne touchez pas à l’API ; c’est pour les développeurs ou les applications qui intègrent l’IA.

Attention (mécanisme d’) — Mécanisme dans les modèles de type transformer qui permet au modèle de « faire attention » à différentes parties de l’entrée (ex. les mots les plus pertinents dans une phrase) pour produire la sortie. Vous n’avez pas à le paramétrer ; c’est ce qui rend les LLM capables de comprendre le contexte.

Audio-to-text / Speech-to-Text — Conversion de la parole (ou d’un fichier audio) en texte. Utilisé pour la transcription de réunions, de podcasts, de sous-titres. Les modèles IA font ça très bien aujourd’hui.

B — Biais à Boucle

Biais (bias) — Le modèle peut reproduire des stéréotypes ou des déséquilibres présents dans les données d’entraînement. Utile de rester critique sur les réponses (ton, exemples, généralisations). Pas un réglage que vous changez ; une limite à connaître.

Boucle répétitive — Quand le modèle se répète (mêmes phrases, mêmes structures). Souvent lié à un prompt trop vague ou à une conversation très longue. Fix : raccourcir, reformuler, ou ouvrir une nouvelle conversation.

Brouillon — En rédaction avec l’IA, la sortie est un brouillon. Vous relisez, vous corrigez, vous personnalisez. Ne jamais publier ou envoyer sans validation humaine.

C — Contexte à Curie

Contexte — Les infos que vous donnez pour cadrer la réponse : rôle (« Tu es mon assistant »), destinataire, situation, contraintes (longueur, ton). Plus le contexte est précis, meilleure est la sortie.

Conversation / Thread — L’historique des messages dans une même session. Le modèle « voit » tout le thread pour produire sa réponse (d’où la notion de contexte conversationnel). Au bout d’un moment, les anciens messages peuvent être « oubliés » ou résumés selon l’outil.

Curie, GPT-3, etc. — Noms de modèles ou de versions (OpenAI et autres). Vous n’avez pas besoin de les mémoriser ; retenez que différentes versions = capacités et coûts différents.

D — Données à Dérive

Données d’entraînement — Les textes, images ou sons sur lesquels le modèle a été entraîné. La qualité et la diversité de ces données influencent ce que le modèle « sait » et ses biais. Vous n’y avez pas accès ; c’est une notion pour comprendre les limites.

Dérive (drift) — Quand les réponses deviennent moins bonnes ou moins cohérentes au fil du temps (changements du modèle, de l’interface, ou de votre façon de l’utiliser). Si un prompt qui marchait bien ne marche plus, essayez de reformuler ou de repartir d’une nouvelle conversation.

Détection (IA) — Tenter de savoir si un contenu (texte, image) a été généré par une IA. Aucun outil n’est fiable à 100 %. Voir comment vérifier si un texte ou une photo a été créé par une IA.

E — Embedding à Exemple

Embedding — Représentation numérique d’un mot, d’une phrase ou d’un document (un vecteur de nombres). Les modèles utilisent les embeddings pour « comparer » des textes (similarité sémantique). En tant qu’utilisateur final, vous ne les manipulez pas directement ; certains outils (recherche sémantique, RAG) s’appuient dessus.

Entraînement (training) — La phase pendant laquelle le modèle a « appris » sur des milliards de textes (ou images, etc.). Vous n’entraînez pas le modèle en l’utilisant ; vous l’utilisez.

Exemple (few-shot) — Donner un ou plusieurs exemples de ce que vous voulez dans le prompt. « Écris comme ceci : [exemple]. Maintenant fais la même chose pour [nouvelle demande]. » Ça affine beaucoup le résultat. Voir ingénierie du prompt pour les nuls.

F — Fine-tuning à Fusion

Fine-tuning — Entraînement supplémentaire d’un modèle sur des données spécifiques pour l’adapter à un domaine ou un style. En tant qu’utilisateur lambda, vous ne faites pas de fine-tuning ; c’est pour les équipes techniques ou les offres « modèle personnalisé ».

Few-shot — Voir Exemple.

Fusion (modèle) — Combinaison de plusieurs modèles ou de plusieurs sorties. Certains produits utilisent plusieurs modèles en interne (ex. texte + image). Vous n’avez pas à le gérer ; c’est une notion d’architecture.

G — Génération à Guardrail

Génération — Le fait de produire du contenu nouveau (texte, image, audio, vidéo) à partir d’une consigne. C’est le cœur de l’IA générative.

Guardrail — Règles ou filtres qui limitent ce que le modèle peut produire (refus de certains sujets, format de sortie). Les plateformes les implémentent pour la sécurité et la conformité. Vous pouvez parfois cadrer vous-même le comportement via le prompt (rôle, contraintes).

H — Hallucination à Hyperparamètre

Hallucination — Quand l’IA invente un fait, une date, une source. Elle a l’air sûre, mais c’est faux. Toujours vérifier les infos importantes. Voir mythes et réalités : ce que l’IA ne peut pas faire.

Hyperparamètre — Paramètre de configuration du modèle (ex. température, longueur max). Certains outils vous permettent d’ajuster quelques-uns (ex. « créativité ») ; la plupart du temps vous travaillez surtout avec le prompt.

I — Image-to-image à Itération

Image-to-image — Génération ou modification d’image à partir d’une image source + un prompt. Utile pour des variations ou des retouches pilotées par le texte.

Inférence — Le moment où le modèle calcule et produit une réponse à partir de votre prompt. « Lancer une inférence » = envoyer une requête et obtenir une sortie.

Itération — Enchaîner plusieurs essais en affinant le prompt ou les paramètres. La première réponse n’est pas toujours la bonne ; itérer fait partie du travail normal avec l’IA.

L — LLM à Logits

LLM (Large Language Model) — Grand modèle de langage. Le type de technologie derrière les assistants texte. Quand on dit « les LLM », on parle de ChatGPT, Gemini, Claude et apparentés. Voir méga-guide 2026.

Logits — Valeurs internes du modèle avant transformation en probabilités (quel mot vient ensuite). Vous ne les voyez pas ; c’est une notion pour qui s’intéresse au fonctionnement mathématique.

M — Modèle à Multimodal

Modèle — Le programme qui a été entraîné sur d’énormes données et qui génère les réponses. GPT, Gemini, Claude sont des modèles. Différentes versions = modèles plus ou moins récents ou puissants.

Multimodal — Modèle qui traite plusieurs types d’entrées (texte + image, par exemple). Vous pouvez envoyer une image et une question ; le modèle répond en fonction des deux. De plus en plus courant (ChatGPT avec image, Gemini, etc.).

N — Neurone à NLU

Neurone (réseau de) — Structure mathématique qui imite grossièrement des neurones biologiques. Les modèles d’IA sont des réseaux de neurones avec des milliards de paramètres. Vous n’avez pas à les concevoir ; c’est la base des LLM et des générateurs d’images.

NLU (Natural Language Understanding) — Compréhension du langage naturel. Les LLM font du NLU (ils comprennent votre question) et de la génération (ils produisent une réponse).

O — One-Shot à Outpainting

One-Shot — Donner un exemple dans le prompt pour guider la sortie. Cas particulier du few-shot.

Outpainting — Étendre une image au-delà de ses bords (générer ce qu’il y a « autour »). Certains outils vidéo permettent d’étendre une séquence. Voir prolonger une vidéo avec outpainting IA.

P — Paramètre à Prompt

Paramètre — Les valeurs internes du modèle (souvent des milliards). Plus il y a de paramètres, plus le modèle peut être capable — et coûteux en calcul. Vous ne les réglez pas en tant qu’utilisateur.

Prompt — Le texte que vous envoyez à l’IA. Chaque message dans ChatGPT ou Gemini est un prompt. Pour bien l’écrire, qu’est-ce qu’un prompt et comment écrire la requête parfaite et guide pour devenir prompt engineer autodidacte détaillent la méthode.

Prompt engineering — Art et pratique de formuler des prompts pour obtenir les meilleures sorties. Rôle, contexte, contraintes, exemples. Pas de diplôme obligatoire ; de la pratique. Voir ingénierie du prompt pour les nuls.

R — RAG à Réponse générique

RAG (Retrieval-Augmented Generation) — Technique qui consiste à récupérer des documents pertinents (base de connaissances) puis à les donner au modèle avec la question. Le modèle répond en s’appuyant sur ces documents. Utilisé dans les chatbots sur documents, les assistants d’entreprise. En tant qu’utilisateur final, vous utilisez un produit qui peut intégrer du RAG sans le configurer vous-même.

Réponse générique — Sortie vague, « passe-partout », qui pourrait s’appliquer à n’importe qui. Souvent causée par un manque de contexte ou de contraintes dans le prompt. Fix : préciser le rôle, le public, le ton, donner un exemple.

Rôle (system prompt) — La « personnalité » ou la fonction que vous assignez à l’IA (« Tu es un expert en com pour PME »). Ça oriente le ton et le type de réponses.

S — Semantic search à Synthèse vocale

Semantic search — Recherche par sens (similarité sémantique) plutôt que par mots-clés exacts. Les embeddings permettent de trouver des textes « proches » en sens même avec des formulations différentes.

Synthèse vocale (TTS) — Texte → voix. Vous donnez un script ; l’outil produit un fichier audio avec une voix (naturelle ou non). Voir voix off réaliste en français sans micro.

System prompt — Voir Rôle. Dans certains outils, vous pouvez définir une instruction système (rôle, règles) qui s’applique à toute la conversation.

T — Température à Token

Température — Paramètre qui influence le « hasard » des réponses. Plus c’est élevé, plus les sorties peuvent être variées (voire créatives) ; plus c’est bas, plus c’est déterministe et répétitif. Certaines interfaces l’exposent (« créativité ») ; sinon le défaut convient pour la plupart des usages.

Text-to-image — Génération d’image à partir d’un texte (prompt). DALL·E, Midjourney, Ideogram, Stable Diffusion font du text-to-image.

Text-to-speech — Voir Synthèse vocale.

Token — Unité de texte que le modèle utilise en interne (un mot ou une partie de mot). « Limite de tokens » = la conversation ou le message est trop long. Vous n’avez pas à les compter ; il suffit de savoir que plus c’est long, plus vous en consommez.

Transformer — Architecture de réseau de neurones à la base des LLM (et de nombreux modèles). Elle utilise le mécanisme d’attention. Vous n’avez pas à la configurer ; c’est ce qui permet aux modèles de traiter de longues séquences et du contexte.

U — Upscaling à Utilisation

Upscaling — Agrandissement d’une image (ou vidéo) en essayant de préserver ou d’améliorer les détails. Certains outils IA le font très bien. Voir nos articles sur l’upscaling vidéo et photo (Topaz, etc.).

Utilisation (conditions d’) — Chaque outil a des CGU qui précisent ce que vous pouvez faire avec les sorties (usage personnel, commercial, interdictions). Toujours les vérifier avant une utilisation pro. Droits d’auteur et IA fait le point sur le cadre français.

Z — Zero-Shot prompting

Zero-Shot prompting — Demander à l’IA une tâche sans lui donner d’exemple de la sortie attendue. Vous décrivez juste ce que vous voulez (« Résume ce texte en 3 bullets »). Le modèle s’appuie sur ce qu’il a appris à l’entraînement. C’est le mode le plus courant : vous écrivez un prompt, vous obtenez une réponse. Quand la sortie n’est pas satisfaisante, vous passez au few-shot (vous donnez un ou plusieurs exemples). Pour enchaîner avec la pratique, 101 questions courantes sur l’IA et par où commencer : checklist débutant vous guident.

Image corps – De A à Z

Pro tip : Quand vous tombez sur un terme inconnu dans un article ou une doc, cherchez-le dans ce dictionnaire ou dans le lexique des 50 mots. Les deux se complètent : le lexique pour l’essentiel, le dictionnaire pour aller plus loin.

Tableau récap : termes par usage

Vous voulez…Termes utiles à connaître
Comprendre ce que vous tapezPrompt, contexte, rôle, contrainte, exemple (few-shot), Zero-Shot
Comprendre ce qui produit la réponseModèle, LLM, token, paramètre, inférence, entraînement
Comprendre les problèmesHallucination, biais, dérive, réponse générique, boucle répétitive
Comprendre les interfacesAPI, conversation/thread, multimodal, guardrail
Comprendre image / audioText-to-image, image-to-image, embedding, synthèse vocale, upscaling

Image corps – Lexique et pratique

Frequently Asked Questions (FAQ)

Ce dictionnaire remplace-t-il le lexique des 50 mots ?
Non. Le lexique couvre les 50 mots les plus courants pour un débutant. Ce dictionnaire va plus loin (algorithme, embedding, RAG, transformer, etc.) pour qui lit de la doc technique ou des articles avancés. Les deux se complètent.

Faut-il tout mémoriser ?
Non. Utilisez ce dictionnaire comme référence : quand un terme apparaît, vous le cherchez. Avec le temps, les plus utiles (prompt, contexte, hallucination, LLM, token) deviennent familiers.

Où voir ces termes en action ?
Dans vos propres essais (ChatGPT, Gemini, générateurs d’images) et dans nos articles pratiques : formuler sa demande, bon prompt du premier coup, méga-guide 2026.

Zero-Shot vs Few-Shot : lequel utiliser ?
Commencez toujours en Zero-Shot (vous décrivez juste la tâche). Si la sortie est moyenne, passez au Few-Shot : donnez un ou deux exemples de ce que vous voulez, puis redemandez pour un nouveau cas.

Où trouver les définitions officielles (OpenAI, Google, etc.) ?
Chaque éditeur a sa doc technique et son glossaire. Ce dictionnaire est pensé pour des utilisateurs (rédaction, image, voix) ; pour les détails d’API ou d’architecture, consultez les docs des fournisseurs.

Frank Houbre - expert IA vidéo et Image

Frank Houbre - expert IA vidéo et Image

Frank Houbre est un expert en IA vidéo et image, artiste IA et filmmaker récompensé aux Seoul International AI Film Festival et aux Mondial Chroma Awards. Avec plus de 10 ans d'expérience en entrepreneuriat digital, il crée des courts-métrages et animés entièrement générés par IA (Midjourney, Kling, Adobe Firefly). Co-Fondateur de Screenweaver et de la communauté #AIStudios, il partage des tutoriels gratuits et avis d'outils sur Business Dynamite pour aider les créateurs à automatiser leur production.

Continuer la lecture