Éthique Updated 2026-04
AI Safety
Definition
L'AI Safety est le domaine qui vise à s'assurer que les systèmes d'IA sont sûrs, fiables et ne causent pas de dommages involontaires.
See also in the glossary
A
Alignment IA
L'alignment IA vise à s'assurer qu'un système d'intelligence artificielle agit conformément aux valeurs et intentions humaines.
H
Hallucination IA
Une hallucination IA est une réponse générée par un modèle d'IA qui semble plausible mais qui est factuellement incorrecte ou inventée.
R
RLHF (Reinforcement Learning from Human Feedback)
Le RLHF est une technique d'entraînement qui utilise les retours humains pour aligner le comportement d'un LLM avec les attentes des utilisateurs.
I
IA Générative
L'IA générative désigne les systèmes d'intelligence artificielle capables de créer du contenu original : texte, images, vidéo, audio, code.
Tools that use ai safety
Frequently Asked Questions
Pourquoi l'AI Safety est-elle importante ?
Les LLM peuvent générer du contenu dangereux, être manipulés par prompt injection, ou prendre des décisions biaisées. L'AI Safety cherche à prévenir ces risques.
Qui travaille sur l'AI Safety ?
Anthropic (créateur de Claude) a été fondé explicitement pour l'AI Safety. OpenAI, Google DeepMind et Meta ont aussi des équipes dédiées.