summaryrefslogtreecommitdiff
path: root/background/conf.tex
diff options
context:
space:
mode:
Diffstat (limited to 'background/conf.tex')
-rw-r--r--background/conf.tex7
1 files changed, 3 insertions, 4 deletions
diff --git a/background/conf.tex b/background/conf.tex
index 4c22136..148615d 100644
--- a/background/conf.tex
+++ b/background/conf.tex
@@ -11,10 +11,9 @@ Dans le cadre d'attaques nous parlerons de \emph{modèle cible} pour désigner l
L'attaque d'inférence d'appartenance (MIA) consiste à inférer si une donnée a servi à l'entraînement du modèle cible.
Cette attaque utilise le fait que les modèles d'apprentissage automatique ont en général une moins bonne performance sur les données qui n'ont pas été utilisées à l'entraînement, c'est le sur-ajustement\footnote{\textit{Overfitting}}~\cite{hawkins2004problem,ying2019overview}.
Ce problème peut survenir principalement quand le modèle cible est trop complexe par rapport à la tâche qui lui est demandée.
-Pour reprendre les mots de Hawkisn et al. : \textquote{Le sur-ajustement est l'utilisation de modèles ou de procédures qui vont à l'encontre de la parcimonie, c'est-à-dire qui utilisent plus de termes ou qui utilisent des approches plus complexe que ce qui est nécessaire}
+Pour reprendre les mots de Hawkisn et al. : \textquote{Le sur-ajustement est l'utilisation de modèles ou de procédures qui vont à l'encontre de la parcimonie, c'est-à-dire qui utilisent plus de termes ou qui utilisent des approches plus complexes que ce qui est nécessaire}
\footnote{\textit{Overfitting is the use of models or procedures that violate
-parsimony, that is, that include more terms than are neces-
-sary or use more complicated approaches than are necessary.}}
+parsimony, that is, that include more terms than are necessary or use more complicated approaches than are necessary.}}
Nous voyons sur la Figure~\ref{fig:background-conf-mia} l'écart entre la valeur de la fonction de coût évalué sur les données d'entraînement et d'évaluation.
Le lien est assez clair, un écart significatif indique qu'un classifieur va être capable d'apprendre quelles données ont été utilisées pour l'entraînement.
Pour vérifier cela, la Sous-figure~\ref{sfig:background-conf-mia-ba} montre comment une forêt aléatoire a pu apprendre cette distinction.
@@ -44,7 +43,7 @@ Si ce n'est pas le cas, l'adversaire utilise des modèles miroirs\footnote{\text
Un modèle d'attaque de MIA peut ensuite être utilisé comme base pour d'autres types d'attaques, comme par exemple reconstruire un attribut sensible des données ayant servi à l'entraînement~\cite{yeom}.
La confidentialité différentielle\footnote{\textit{Differential privacy}} permet d'empêcher les attaques MIA~\cite{chen2020differential,rahman2018membership}.
-\begin{definition}{Confidentialité différentielle}
+\begin{definition}[Confidentialité différentielle]
Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé.
Soit $(S,\mathcal{S})$ un espace mesurable et $\mathcal{V}$ l'ensemble des fonctions mesurables de $\Omega$ dans $S$.
Soient $E$ un ensemble et $M$ une fonction de $E$ dans $\mathcal{V}$.