Tendance Updated 2026-04

Lois de mise à l'échelle neuronale (Neural Scaling Laws)

Neural Scaling Laws
Definition

Les lois de mise à l'échelle neuronale sont des relations mathématiques prédictibles qui lient la performance d'un modèle d'IA à sa taille, la quantité de données d'entraînement et le budget de calcul utilisé.

Frequently Asked Questions

Les scaling laws fonctionnent-elles toujours en 2026 ?
Globalement oui, mais avec des nuances. Les scaling laws classiques (plus de compute = meilleur modèle) tiennent toujours, mais les rendements marginaux diminuent. Les lois de scaling au moment de l'inférence (test-time compute) représentent une nouvelle frontière d'optimisation.
Que prédit la loi de Chinchilla ?
La loi de Chinchilla (DeepMind, 2022) prédit qu'un modèle optimal doit avoir environ 20 tokens de données pour chaque paramètre. Cela signifie qu'un modèle de 70 milliards de paramètres devrait être entraîné sur environ 1,4 trillion de tokens pour être optimalement entraîné.