Technique Updated 2026-04
Fenêtre de contexte
Context Window
Definition
La fenêtre de contexte est la quantité maximale de texte qu'un LLM peut traiter en une seule requête.
See also in the glossary
T
Token
Un token est l'unité de base traitée par un LLM. C'est un morceau de mot, de ponctuation ou de caractère que le modèle utilise pour comprendre et générer du texte.
L
LLM (Large Language Model)
Un LLM est un modèle d'IA entraîné sur des milliards de textes, capable de comprendre et générer du langage humain.
R
RAG (Retrieval-Augmented Generation)
Le RAG est une technique qui connecte un LLM à des sources de données externes pour générer des réponses plus précises et à jour.
P
Prompt
Un prompt est l'instruction ou la question que vous donnez à une IA pour obtenir une réponse. C'est l'interface entre vous et le modèle.
Tools that use fenêtre de contexte
Frequently Asked Questions
Quel LLM a la plus grande fenêtre ?
Gemini 2.0 : 1M tokens. Claude Opus : 200K tokens. GPT-4o : 128K tokens.
Que se passe-t-il si on la dépasse ?
Le modèle oublie le début de la conversation ou refuse la requête. Le RAG contourne cette limite.