diff options
author | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-09-30 09:34:09 +0200 |
---|---|---|
committer | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-09-30 09:34:09 +0200 |
commit | 81891539940003696300018feb4dfa25ecad55cd (patch) | |
tree | 2a0d1c6a4c973ff0771edaa1d9713ee794802fa1 | |
parent | 07b4490dc63504079a5904cd42ab1ec6015cfb76 (diff) |
aia résultat jan
-rw-r--r-- | aia/resultats.tex | 6 |
1 files changed, 3 insertions, 3 deletions
diff --git a/aia/resultats.tex b/aia/resultats.tex index 9f432ff..3791ca8 100644 --- a/aia/resultats.tex +++ b/aia/resultats.tex @@ -121,7 +121,7 @@ \caption{Lfw (sex)} \end{subfigure} \caption{Impacte du rééquilibrage adverse sur le succès de \AIAHard. - \\\textit{baseline} = succes de l'attaque sans rééquilibrage adverse. + \\\textit{baseline} = succès de l'attaque sans rééquilibrage adverse. \\\textit{Empirical} = succès de l'attaque avec rééquilibrage adverse. \\\textit{Theoretical} = $\frac{1}{2}(1+DemParLvl)$ avec rééquilibrage adverse} \label{fig:aia-adv-hard} @@ -187,12 +187,12 @@ } \label{fig:utilityadv} \end{figure} -Nous observons sur les Figures~\ref{fig:aiaegd},~\ref{fig:aia-adv-hard} et~\ref{fig:aiadeb} que les méthodes pour imposer l'équité on bien réduit les succès des attaques que ce soit en classification ou en régression. +Nous observons sur les Figures~\ref{fig:aiaegd},~\ref{fig:aia-adv-hard} et~\ref{fig:aiadeb} que les méthodes pour imposer l'équité ont bien réduit les succès des attaques que ce soit en classification ou en régression. De plus, nous voyons sur les Figures~\ref{fig:aiaegd} et~\ref{fig:aia-adv-hard} que le succès maximal de l'attaque vaut bien $\frac{1}{2}(1+DemParLvl)$ comme nous l'avons montré à la Propriété~\ref{prop:aia-demparlvl}. Enfin, nous mettons en perspective ce résultat avec la dégradation d'utilité qu'entraîne l'utilisation des ces méthodes sur les Figures~\ref{fig:utilityegd} et~\ref{fig:utilityadv}. Les deux méthodes semblent protéger de manière similaire les attributs sensibles pour \AIAHard~cependant la méthode de adverse est la seul pouvant mitiger \AIASoft. En contrepartie la réduction pour une classification équitable semble moins dégrader l'utilité comme nous pouvons le vois en comparant les Figures~\ref{fig:utilityegd-lfw} et~\ref{fig:utilityadv-lfw}. -En conclusion, nous recommandons d'utiliser le rééquilibrage adverse quand il y a un risque que le logit soit partage ou quand le tâche principale est une régression. +En conclusion, nous recommandons d'utiliser le rééquilibrage adverse quand il y a un risque que le logit soit partagé ou quand le tâche principale est une régression. Si ce n'est pas le cas, par exemple si le modèle est utilisé localement et que uniquement la prédiction est partagé, nous recommandons d'utiliser la réduction pour une classification équitable. \FloatBarrier |