Technique Updated 2026-04
LoRA
Low-Rank Adaptation
Definition
LoRA est une technique de fine-tuning efficiente qui adapte un modèle IA en n'ajustant qu'une fraction de ses paramètres, réduisant drastiquement le coût.
See also in the glossary
F
Fine-tuning
Le fine-tuning consiste à ré-entraîner un modèle IA pré-existant sur un jeu de données spécifique pour l'adapter à un domaine ou une tâche précise.
L
LLM (Large Language Model)
Un LLM est un modèle d'IA entraîné sur des milliards de textes, capable de comprendre et générer du langage humain.
M
Modèle de fondation
Un modèle de fondation est un grand modèle IA pré-entraîné sur des données massives, adaptable à de multiples tâches.
T
Text-to-Image
Le Text-to-Image désigne la génération d'images à partir de descriptions textuelles grâce à des modèles d'IA générative.
Tools that use lora
Frequently Asked Questions
Pourquoi LoRA plutôt que le fine-tuning classique ?
Le fine-tuning classique ajuste tous les paramètres du modèle (milliards). LoRA n'en ajuste qu'une petite matrice de rang faible — 100 à 1000x moins de calcul, même GPU grand public.
LoRA est-il uniquement pour les images ?
Non. LoRA fonctionne sur les LLM (texte) et les modèles de diffusion (images). Sur Stable Diffusion, les LoRAs sont très populaires pour apprendre des styles ou des personnages.