AI Studio
← Blog
LLM13 février 2026· 13 min

Apprendre le vocabulaire de l'IA : comprendre les mots compliqués quand on débute

Prompt, contexte, modèle, token, hallucination, LLM : des définitions simples et des analogies pour ne plus être perdu.

Image hero – Vocabulaire IA débutant [PROMPT image hero : Dark Mode Technical Sketch — Bulles de mots reliées à un point central « IA ». Fond noir, traits blancs fins, croquis technique minimaliste.]

Vous lisez un article sur ChatGPT. On parle de « prompt », de « contexte », de « token ». Vous regardez une vidéo sur les modèles d’IA : « LLM », « entraînement », « hallucination ». Vous avez l’impression de ne pas parler la même langue. Ce n’est pas de la mauvaise volonté. C’est du jargon. Et le jargon, quand on ne l’explique pas, sert à exclure. Cet article est fait pour l’inverse : vous donner les mots qui reviennent le plus souvent quand on parle d’IA en tant que débutant, avec une explication simple et une analogie quand c’est utile. Pas pour briller en soirée — pour comprendre ce que vous lisez et ce que vous faites quand vous tapez dans une zone de saisie.

Pourquoi le vocabulaire peut bloquer (et pourquoi vous n’avez pas tout à apprendre)

Beaucoup de débutants croient qu’il faut « tout comprendre » avant d’utiliser un outil. En réalité, vous pouvez utiliser ChatGPT ou Gemini sans savoir ce qu’est un token ou un LLM. Vous tapez, vous lisez la réponse. Ça marche. Mais dès que vous lisez un tutoriel, un article ou une discussion, les mots reviennent. Et si vous ne les comprenez pas, vous avez l’impression de rater quelque chose. Ce texte ne vous donne pas tout le vocabulaire de l’IA (il y en a des centaines). Il vous donne les termes qui reviennent le plus quand on parle d’utilisation au quotidien : prompt, contexte, modèle, token, hallucination, et quelques autres. De quoi débloquer la lecture et la compréhension, sans prétendre tout couvrir.

Vous n’avez pas besoin de réciter les définitions. Vous avez besoin de savoir à quoi correspondent ces mots quand quelqu’un les utilise, ou quand vous les voyez dans une interface. La compréhension prime sur la mémorisation.

Nous allons passer en revue ces termes un par un, avec une définition simple et une analogie ou un exemple concret.

Prompt : ce que vous écrivez pour demander quelque chose à l’IA

Le prompt, c’est le texte que vous envoyez à l’IA. La phrase ou le paragraphe que vous tapez dans la zone de saisie avant d’appuyer sur Entrée. Rien de plus. En français courant, on dirait « la demande » ou « l’instruction ». Quand quelqu’un dit « il faut bien rédiger son prompt », il veut dire : il faut bien formuler sa demande pour que l’IA comprenne ce que vous voulez et réponde de façon utile.

Pourquoi ce mot ? Parce qu’il vient de l’anglais prompt (invitation, incitation). En informatique, un « prompt » désigne depuis longtemps ce qu’on affiche à l’utilisateur pour lui indiquer qu’il peut taper une commande (par exemple le > dans un terminal). Avec les assistants conversationnels, le mot a glissé : le prompt, c’est ce que vous tapez pour « inviter » le modèle à répondre. En pratique : chaque message que vous envoyez dans ChatGPT ou Gemini est un prompt. Plus votre prompt est clair (tâche, cadre, contexte), plus la réponse a de chances d’être bonne. Vous n’avez pas besoin d’utiliser le mot dans vos phrases ; il suffit de savoir que quand on parle de « prompt », on parle de ce que vous écrivez.

Contexte : les infos que vous donnez pour cadrer la réponse

Le contexte, c’est l’ensemble des informations que vous donnez à l’IA pour qu’elle sache dans quelle situation elle répond. « Je suis responsable com d’une PME. » « Le destinataire est un client qui a eu un retard de livraison. » « Le document fait 10 pages. » Tout ça, c’est du contexte. Il aide le modèle à adapter le ton, le niveau de détail, le type de réponse. Sans contexte, l’IA répond de façon générique. Avec du contexte, elle peut répondre de façon plus pertinente.

En plus, dans une même conversation, tout ce que vous avez écrit avant fait partie du contexte de la conversation. Quand vous dites « comme avant mais en plus court », le modèle « voit » les messages précédents. Il sait de quoi vous parlez. Donc « contexte » peut désigner à la fois les infos que vous mettez dans un message (rôle, situation, contraintes) et l’historique de la conversation. Les deux servent à cadrer la réponse. Plus le contexte est précis, plus vous avez de chances d’obtenir une sortie utilisable.

Modèle : le « moteur » qui produit les réponses

Le modèle (ou « modèle de langage » quand on parle de texte) est le programme qui a été entraîné sur d’énormes quantités de données (textes, livres, articles, conversations) et qui est capable de générer du texte à partir de ce que vous écrivez. Quand vous utilisez ChatGPT, vous parlez au « modèle » GPT (ou une de ses versions). Quand vous utilisez Gemini, vous parlez au modèle Gemini. Ce n’est pas une personne. C’est un système qui calcule la suite de mots la plus probable compte tenu de votre demande et de son entraînement.

Analogie simple : le modèle, c’est un peu comme un moteur de voiture. Vous ne voyez pas le moteur. Vous voyez le volant, les pédales, le tableau de bord (l’interface). Mais c’est le moteur qui fait avancer la voiture. Ici, le moteur produit du texte. Les différentes « versions » (GPT-4, Gemini Pro, etc.) sont comme des moteurs plus ou moins puissants ou récents. Vous n’avez pas besoin de savoir comment le moteur est construit pour conduire. Il suffit de savoir que « le modèle » = le programme qui génère la réponse. Quand on dit « ce modèle est plus fort en raisonnement » ou « ce modèle gère bien le français », on parle des capacités de ce moteur-là.

Token : l’unité dont se sert le modèle pour « compter » le texte

Un token, c’est une unité de texte que le modèle utilise en interne. En gros, un mot ou une partie de mot. « Bonjour » peut être un token. « Intelligence » peut être coupé en deux tokens selon les systèmes. Vous n’avez pas besoin de compter les tokens vous-même. Mais vous verrez parfois des messages du type « limite de tokens dépassée » ou « cette conversation est trop longue ». Ça veut dire : le modèle a une limite de texte qu’il peut traiter en une fois (votre message + l’historique + sa réponse). Si vous dépassez, il faut raccourcir ou ouvrir une nouvelle conversation.

Pourquoi c’est utile à savoir ? Parce que « token » revient dans les discussions sur les limites (gratuit vs payant, longueur des conversations). Quand on dit « 4000 tokens », on parle d’une certaine quantité de texte. Vous n’avez pas besoin de savoir exactement combien de mots ça fait. Il suffit de savoir que plus la conversation est longue, plus vous consommez de tokens, et qu’à un moment il peut y avoir une limite. Si vous voyez un message d’erreur lié aux tokens, la solution est souvent : résumer, raccourcir, ou démarrer une nouvelle conversation.

Hallucination : quand l’IA invente des faits

Une hallucination, c’est quand le modèle produit une réponse qui semble plausible mais qui est fausse ou inventée. Un fait erroné, une date qui n’existe pas, une source inventée, un raisonnement qui part dans une direction incorrecte. Le modèle ne « ment » pas volontairement : il génère du texte cohérent avec ce qu’il a appris, mais il n’a pas de « vérité » en base. Il peut donc inventer. C’est pour ça qu’on vous dit toujours de relire et de vérifier les faits importants (chiffres, noms, dates) quand vous utilisez une sortie pour un usage pro ou public.

En tant que débutant, retenez ceci : l’IA peut se tromper. Elle peut avoir l’air très sûre tout en disant des bêtises. Donc vous restez le garde-fou. Vous ne copiez-collez pas sans lire. Pour les tâches où la précision compte (rapport, email à un client, résumé de document), vous vérifiez. Le mot « hallucination » est juste le terme technique pour « l’IA a inventé ». Pas besoin de l’utiliser à tout va ; il suffit de savoir que ça existe et de garder l’habitude de vérifier.

LLM : le type de modèle derrière ChatGPT, Gemini, Claude

LLM signifie Large Language Model (grand modèle de langage). C’est le type de technologie qui sous-tend ChatGPT, Gemini, Claude et la plupart des assistants texte actuels. Un LLM est un modèle entraîné sur d’énormes quantités de texte et capable de prédire la suite logique d’une phrase, d’un paragraphe, d’une conversation. Il ne « comprend » pas comme un humain ; il calcule des probabilités. Mais le résultat peut être très cohérent et utile. Quand vous lisez « les LLM vont changer le travail » ou « ce LLM est open source », vous savez qu’on parle de cette famille de modèles — ceux qui font du texte conversationnel. Vous n’avez pas besoin de savoir comment ils sont construits. Il suffit de savoir que « LLM » = le type de moteur derrière les assistants comme ChatGPT.

Entraînement (training) : comment le modèle a « appris »

L’entraînement (ou training en anglais), c’est la phase pendant laquelle le modèle a été nourri avec des milliards de textes et a ajusté ses paramètres pour pouvoir générer du texte cohérent. Vous ne faites pas l’entraînement. Les entreprises (OpenAI, Google, Anthropic, etc.) l’ont fait. Le résultat, c’est le modèle que vous utilisez. Quand on dit « le modèle a été entraîné sur des données jusqu’en 2023 », ça veut dire que ses connaissances reflètent ce qui existait dans ces données à cette date. Il ne « sait » pas ce qui s’est passé après (sauf si on lui donne l’info dans le contexte ou s’il a accès à des données plus récentes). Pour un débutant, retenir que « entraînement » = la phase d’apprentissage du modèle suffit. Vous n’entraînez pas vous-même le modèle en l’utilisant ; vous l’utilisez.

Récap en un coup d’œil : quand vous voyez ce mot, pensez à…

| Mot | En une phrase | Exemple concret | |-----|----------------|------------------| | Prompt | Ce que vous tapez pour demander quelque chose à l’IA | « Ton prompt était trop vague » = ta demande manquait de précision | | Contexte | Les infos qui cadrent la situation (rôle, destinataire, contraintes) | « Donne du contexte » = précise pour qui, pour quoi, dans quel cadre | | Modèle | Le programme qui génère les réponses (GPT, Gemini, etc.) | « Ce modèle est bon en français » = ce moteur produit de bonnes réponses en français | | Token | Unité de texte utilisée en interne ; liée aux limites de longueur | « Limite de tokens » = la conversation ou le message est trop long | | Hallucination | L’IA invente un fait ou une info fausse | Toujours vérifier les faits importants : l’IA peut halluciner | | LLM | Type de modèle (grand modèle de langage) derrière les assistants texte | « Les LLM » = ChatGPT, Gemini, Claude et apparentés | | Entraînement | Phase pendant laquelle le modèle a « appris » sur des données | Vous n’entraînez pas le modèle en l’utilisant ; vous l’utilisez |

Pro tip : Vous n’avez pas besoin de dire « prompt » ou « contexte » quand vous parlez à un collègue. Vous pouvez dire « ce que j’ai demandé » et « les infos que j’ai données ». Le vocabulaire sert à comprendre les articles et les tutos ; dans l’outil, vous faites avec vos mots.

Image corps – Mots et sens [PROMPT image corps 1 : Dark Mode Technical Sketch — Mots « prompt », « contexte », « modèle » avec des flèches vers une zone « Réponse ». Fond noir, traits blancs fins, schéma minimaliste.]

Autres termes qui peuvent apparaître (sans tout détailler)

API : interface technique qui permet à un logiciel d’envoyer des requêtes au modèle. En tant que débutant qui utilise ChatGPT ou Gemini dans le navigateur, vous ne touchez pas à l’API. C’est pour les développeurs ou les outils qui intègrent l’IA.

Fine-tuning : réglage supplémentaire du modèle sur des données spécifiques. Vous n’en faites pas. Les entreprises ou les équipes techniques le font pour des usages très ciblés.

Bias (biais) : le modèle peut reproduire des stéréotypes ou des déséquilibres présents dans les données d’entraînement. Utile à savoir pour rester critique sur les réponses (ton, exemples, généralisations).

Génération : le fait que le modèle « génère » du texte (il le produit à partir de votre demande). Quand on dit « la génération a échoué », ça veut dire que la réponse n’a pas pu être produite (souvent à cause d’une limite ou d’un bug).

Vous n’avez pas besoin de tout retenir. Si vous croisez un de ces mots dans un article, vous pouvez revenir à ce paragraphe pour le décoder. L’essentiel pour ne plus être perdu : prompt (ce que vous écrivez), contexte (ce qui cadre), modèle (le moteur), token (limites de longueur), hallucination (l’IA invente). Le reste vient au fil de l’eau.

Si vous voulez entendre ces termes expliqués à voix haute avec des exemples à l’écran, cette vidéo peut vous aider à les ancrer : [LIEN_YOUTUBE_À_INSÉRER]

Image corps – Décodeur [PROMPT image corps 2 : Dark Mode Technical Sketch — Loupe sur un mot « jargon » avec une flèche vers « sens simple ». Fond noir, traits blancs fins, croquis technique.]

Une perspective pour finir

Le vocabulaire de l’IA n’est pas une forteresse. Ce sont des mots qui désignent des choses simples : ce que vous tapez (prompt), ce qui cadre (contexte), ce qui répond (modèle), comment on compte le texte (token), et le fait que l’IA peut inventer (hallucination). Vous n’avez pas à tout apprendre par cœur. Vous avez à savoir où chercher quand un mot vous bloque. Et vous pouvez toujours demander à l’IA elle-même : « Explique-moi ce que veut dire “token” quand on parle de ChatGPT. » Elle vous donnera une définition. Vous combinez lecture (ce texte) et usage (l’outil qui s’explique). Les deux renforcent la compréhension. Gardez ce texte sous la main. Et quand vous lisez un article ou une discussion, utilisez ces repères. Peu à peu, les mots deviendront familiers. Votre défi : la prochaine fois que vous voyez le mot « prompt » ou « contexte » dans un tuto, vous savez de quoi il s’agit. Vous n’êtes plus largué par le vocabulaire.