Technique Updated 2026-04

Distillation de modèle

Model Distillation
Definition

La distillation transfère les connaissances d'un grand modèle (teacher) vers un modèle plus petit (student), conservant les performances à moindre coût.

Frequently Asked Questions

Pourquoi distiller plutôt que fine-tuner ?
Le fine-tuning adapte un modèle existant. La distillation crée un nouveau modèle plus petit qui imite un modèle plus gros. Le résultat est plus rapide et moins cher à faire tourner.
DeepSeek utilise-t-il la distillation ?
Oui. DeepSeek a utilisé la distillation pour créer des modèles compacts très performants, contribuant à leur rapport qualité/prix imbattable.