Technique Updated 2026-04

LoRA

Low-Rank Adaptation
Definition

LoRA est une technique de fine-tuning efficiente qui adapte un modèle IA en n'ajustant qu'une fraction de ses paramètres, réduisant drastiquement le coût.

Frequently Asked Questions

Pourquoi LoRA plutôt que le fine-tuning classique ?
Le fine-tuning classique ajuste tous les paramètres du modèle (milliards). LoRA n'en ajuste qu'une petite matrice de rang faible — 100 à 1000x moins de calcul, même GPU grand public.
LoRA est-il uniquement pour les images ?
Non. LoRA fonctionne sur les LLM (texte) et les modèles de diffusion (images). Sur Stable Diffusion, les LoRAs sont très populaires pour apprendre des styles ou des personnages.