Modèle Updated 2026-04

Mixture of Experts (MoE)

Mixture of Experts
Definition

Le MoE est une architecture de modèle qui active seulement une fraction de ses paramètres pour chaque requête, rendant les grands modèles plus efficaces.

Frequently Asked Questions

Comment fonctionne le MoE ?
Le modèle contient plusieurs 'experts' spécialisés. Un routeur décide quels experts activer pour chaque requête. Résultat : un modèle de 1T paramètres n'en utilise que 100B par requête.
Quels modèles utilisent le MoE ?
GPT-4 (rumeurs), Mixtral de Mistral AI (confirmé), Gemini de Google, et DeepSeek V3. Le MoE est devenu l'architecture dominante pour les très grands modèles.