Technique Updated 2026-04
Inférence IA
AI Inference
Definition
L'inférence est le processus d'utilisation d'un modèle IA entraîné pour générer des prédictions ou des réponses à partir de nouvelles données.
See also in the glossary
L
LLM (Large Language Model)
Un LLM est un modèle d'IA entraîné sur des milliards de textes, capable de comprendre et générer du langage humain.
T
Token
Un token est l'unité de base traitée par un LLM. C'est un morceau de mot, de ponctuation ou de caractère que le modèle utilise pour comprendre et générer du texte.
A
API IA
Une API IA permet aux développeurs d'intégrer des capacités d'intelligence artificielle dans leurs applications.
G
GPU Cloud
Le GPU Cloud fournit des processeurs graphiques à la demande pour entraîner et faire tourner des modèles d'IA sans investir dans du matériel.
Tools that use inférence ia
Frequently Asked Questions
Quelle est la différence entre entraînement et inférence ?
L'entraînement crée le modèle (coûteux, une seule fois). L'inférence utilise le modèle pour répondre (moins coûteux, à chaque requête). Quand vous posez une question à ChatGPT, c'est de l'inférence.
Pourquoi l'inférence coûte-t-elle de l'argent ?
Chaque requête nécessite du calcul GPU. Plus la réponse est longue et le modèle est gros, plus c'est cher. C'est pourquoi les APIs facturent par token.