Éthique Updated 2026-04
Empoisonnement de données (Data Poisoning)
Data Poisoning
Definition
L'empoisonnement de données est une attaque qui consiste à injecter des données malveillantes dans le jeu d'entraînement d'un modèle IA pour corrompre son comportement ou ses prédictions.
See also in the glossary
A
AI Safety
L'AI Safety est le domaine qui vise à s'assurer que les systèmes d'IA sont sûrs, fiables et ne causent pas de dommages involontaires.
A
Alignment IA
L'alignment IA vise à s'assurer qu'un système d'intelligence artificielle agit conformément aux valeurs et intentions humaines.
F
Fine-tuning
Le fine-tuning consiste à ré-entraîner un modèle IA pré-existant sur un jeu de données spécifique pour l'adapter à un domaine ou une tâche précise.
M
Machine Learning
Le Machine Learning est une branche de l'IA où les systèmes apprennent à partir de données pour améliorer leurs performances sans être explicitement programmés pour chaque tâche.
D
Deep Learning
Le Deep Learning est une sous-branche du Machine Learning utilisant des réseaux de neurones à couches multiples pour apprendre des représentations complexes à partir de données brutes.
O
Overfitting
L'overfitting se produit quand un modèle IA a trop appris les données d'entraînement et échoue à généraliser sur de nouvelles données.
Tools that use empoisonnement de données
Frequently Asked Questions
Comment détecter un empoisonnement de données ?
La détection passe par l'analyse statistique des données d'entraînement (recherche d'anomalies), le test du modèle sur des jeux de données propres, et l'utilisation de techniques comme le filtrage de données aberrantes et la validation croisée robuste.
Quels modèles sont les plus vulnérables au data poisoning ?
Les modèles entraînés sur des données web scrappées (comme les LLM) sont les plus exposés, car n'importe qui peut publier du contenu en ligne. Les modèles fine-tunés sur de petits datasets sont aussi vulnérables car quelques exemples empoisonnés suffisent.