diff options
author | cookie <cookie@grospc> | 2024-09-30 17:37:52 +0200 |
---|---|---|
committer | cookie <cookie@grospc> | 2024-09-30 17:37:52 +0200 |
commit | 642fa138bd0127b42b8906e412a5ee761b120ac2 (patch) | |
tree | 3f961f7f13136bc78c35a25b355c076856021e0d /aia/resultats.tex | |
parent | 644fa7c290ac801f15180dd8a9c425c3b757adf5 (diff) |
Correction Emeline sur classification fini et AIA
Diffstat (limited to 'aia/resultats.tex')
-rw-r--r-- | aia/resultats.tex | 22 |
1 files changed, 11 insertions, 11 deletions
diff --git a/aia/resultats.tex b/aia/resultats.tex index 3791ca8..f88dc1f 100644 --- a/aia/resultats.tex +++ b/aia/resultats.tex @@ -35,7 +35,7 @@ \caption{Lfw (sex)} \end{subfigure} - \caption{Impacte de la réduction pour une classification équitable sur le succès de \AIAHard. + \caption{Impact de la réduction pour une classification équitable sur le succès de \AIAHard. \\\textit{Baseline} = sans réduction. \\\textit{Theoretical} = $\frac{1}{2}(1+DemParLvl)$ avec réduction. \\\textit{Empirical} = avec réduction. @@ -81,7 +81,7 @@ \caption{Lfw (sex)} \end{subfigure} - \caption{Impacte du rééquilibrage adverse sur le succès de \AIASoft. + \caption{Impact du rééquilibrage adverse sur le succès de \AIASoft. \\\textit{baseline} = sans rééquilibrage adverse. \\\textit{AdvDebias} = avec rééquilibrage adverse.} \label{fig:aiadeb} @@ -120,7 +120,7 @@ \includegraphics[width=\linewidth]{ACSAC/figures/advdebias/lfw/lfw_advdeb_attack_hard_sex.pdf} \caption{Lfw (sex)} \end{subfigure} - \caption{Impacte du rééquilibrage adverse sur le succès de \AIAHard. + \caption{Impact du rééquilibrage adverse sur le succès de \AIAHard. \\\textit{baseline} = succès de l'attaque sans rééquilibrage adverse. \\\textit{Empirical} = succès de l'attaque avec rééquilibrage adverse. \\\textit{Theoretical} = $\frac{1}{2}(1+DemParLvl)$ avec rééquilibrage adverse} @@ -150,7 +150,7 @@ \caption{LFW} \label{fig:utilityegd-lfw} \end{subfigure} - \caption{Impacte de l'utilisation de la réduction pour une classification équitable sur l'utilité. + \caption{Impact de l'utilisation de la réduction pour une classification équitable sur l'utilité. \\\textit{Baseline} = sans réduction. \\\textit{EGD+DemPar} = avec réduction. } @@ -181,18 +181,18 @@ \caption{LFW} \label{fig:utilityadv-lfw} \end{subfigure} - \caption{Impacte de l'utilisation du rééquilibrage adverse sur l'utilisé. + \caption{Impact de l'utilisation du rééquilibrage adverse sur l'utilité. \\\textit{baseline} = sans rééquilibrage adverse. \\\textit{AdvDebias} = avec rééquilibrage adverse. } \label{fig:utilityadv} \end{figure} -Nous observons sur les Figures~\ref{fig:aiaegd},~\ref{fig:aia-adv-hard} et~\ref{fig:aiadeb} que les méthodes pour imposer l'équité ont bien réduit les succès des attaques que ce soit en classification ou en régression. +Nous observons sur les Figures~\ref{fig:aiaegd},~\ref{fig:aia-adv-hard} et~\ref{fig:aiadeb} que les méthodes pour imposer l'équité ont bien réduit les succès des attaques, que ce soit en classification ou en régression. De plus, nous voyons sur les Figures~\ref{fig:aiaegd} et~\ref{fig:aia-adv-hard} que le succès maximal de l'attaque vaut bien $\frac{1}{2}(1+DemParLvl)$ comme nous l'avons montré à la Propriété~\ref{prop:aia-demparlvl}. -Enfin, nous mettons en perspective ce résultat avec la dégradation d'utilité qu'entraîne l'utilisation des ces méthodes sur les Figures~\ref{fig:utilityegd} et~\ref{fig:utilityadv}. -Les deux méthodes semblent protéger de manière similaire les attributs sensibles pour \AIAHard~cependant la méthode de adverse est la seul pouvant mitiger \AIASoft. -En contrepartie la réduction pour une classification équitable semble moins dégrader l'utilité comme nous pouvons le vois en comparant les Figures~\ref{fig:utilityegd-lfw} et~\ref{fig:utilityadv-lfw}. +Enfin, nous mettons en perspective ce résultat avec la dégradation d'utilité qu'entraîne l'utilisation de ces méthodes sur les Figures~\ref{fig:utilityegd} et~\ref{fig:utilityadv}. +Les deux méthodes semblent protéger de manière similaire les attributs sensibles pour \AIAHard~cependant, la méthode adverse est la seule pouvant mitiger \AIASoft. +En contrepartie, la réduction pour une classification équitable semble moins dégrader l'utilité comme nous pouvons le voir en comparant les Figures~\ref{fig:utilityegd-lfw} et~\ref{fig:utilityadv-lfw}. -En conclusion, nous recommandons d'utiliser le rééquilibrage adverse quand il y a un risque que le logit soit partagé ou quand le tâche principale est une régression. -Si ce n'est pas le cas, par exemple si le modèle est utilisé localement et que uniquement la prédiction est partagé, nous recommandons d'utiliser la réduction pour une classification équitable. +En conclusion, nous recommandons d'utiliser le rééquilibrage adverse quand il y a un risque que le logit soit partagé ou quand la tâche principale est une régression. +Si ce n'est pas le cas, par exemple si le modèle est utilisé localement et que seule la prédiction est partagée, nous recommandons d'utiliser la réduction pour une classification équitable. \FloatBarrier |