summaryrefslogtreecommitdiff
path: root/background/conf.tex
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-09-30 20:03:51 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-09-30 20:03:51 +0200
commit59ab9bb16768585e2c4bd20c8ae63b12da8dfaad (patch)
tree46101c5cb9badc996f88e3d835d722eacb995b9f /background/conf.tex
parent644fa7c290ac801f15180dd8a9c425c3b757adf5 (diff)
synthetid methodo jan
Diffstat (limited to 'background/conf.tex')
-rw-r--r--background/conf.tex1
1 files changed, 1 insertions, 0 deletions
diff --git a/background/conf.tex b/background/conf.tex
index 8ad8379..4c22136 100644
--- a/background/conf.tex
+++ b/background/conf.tex
@@ -7,6 +7,7 @@ Dans le cadre d'attaques nous parlerons de \emph{modèle cible} pour désigner l
\FloatBarrier
\subsubsection{Risque sur les données d'entraînement}
+\label{sec:background-ml-mia}
L'attaque d'inférence d'appartenance (MIA) consiste à inférer si une donnée a servi à l'entraînement du modèle cible.
Cette attaque utilise le fait que les modèles d'apprentissage automatique ont en général une moins bonne performance sur les données qui n'ont pas été utilisées à l'entraînement, c'est le sur-ajustement\footnote{\textit{Overfitting}}~\cite{hawkins2004problem,ying2019overview}.
Ce problème peut survenir principalement quand le modèle cible est trop complexe par rapport à la tâche qui lui est demandée.