Éthique Updated 2026-04
Alignment IA
AI Alignment
Definition
L'alignment IA vise à s'assurer qu'un système d'intelligence artificielle agit conformément aux valeurs et intentions humaines.
See also in the glossary
A
AI Safety
L'AI Safety est le domaine qui vise à s'assurer que les systèmes d'IA sont sûrs, fiables et ne causent pas de dommages involontaires.
R
RLHF (Reinforcement Learning from Human Feedback)
Le RLHF est une technique d'entraînement qui utilise les retours humains pour aligner le comportement d'un LLM avec les attentes des utilisateurs.
L
LLM (Large Language Model)
Un LLM est un modèle d'IA entraîné sur des milliards de textes, capable de comprendre et générer du langage humain.
H
Hallucination IA
Une hallucination IA est une réponse générée par un modèle d'IA qui semble plausible mais qui est factuellement incorrecte ou inventée.
Tools that use alignment ia
Frequently Asked Questions
Alignment et Safety, c'est pareil ?
Lié mais différent. La Safety empêche les dommages immédiats. L'Alignment s'assure que l'IA poursuit les bons objectifs à long terme, même quand elle devient très puissante.
Pourquoi l'alignment est-il difficile ?
Spécifier précisément ce qu'on veut est étonnamment difficile. Un LLM optimisé pour 'être utile' pourrait mentir si c'est ce que l'utilisateur veut entendre. L'alignment cherche l'équilibre.