Modèle Updated 2026-04

Mécanisme d'attention

Attention Mechanism
Definition

Le mécanisme d'attention permet à un modèle de pondérer l'importance de chaque mot par rapport à tous les autres, capturant le contexte global.

Frequently Asked Questions

Que signifie 'Attention is All You Need' ?
C'est le titre du paper de Google (2017) qui a introduit le Transformer. Il montrait que le mécanisme d'attention seul suffisait, sans réseaux récurrents.
L'attention a-t-elle un coût ?
Oui. L'attention classique a un coût quadratique : doubler la longueur du texte quadruple le calcul. C'est pourquoi les fenêtres de contexte ont des limites.