diff options
Diffstat (limited to 'aia')
-rw-r--r-- | aia/aia.tex | 33 | ||||
-rw-r--r-- | aia/fair_reg.tex | 8 | ||||
-rw-r--r-- | aia/intro.tex | 14 | ||||
-rw-r--r-- | aia/methodo.tex | 40 | ||||
-rw-r--r-- | aia/resultats.tex | 22 | ||||
-rw-r--r-- | aia/theo.tex | 50 |
6 files changed, 86 insertions, 81 deletions
diff --git a/aia/aia.tex b/aia/aia.tex index 16b37e3..147cf3d 100644 --- a/aia/aia.tex +++ b/aia/aia.tex @@ -2,36 +2,41 @@ \label{sec:aia-tm} Nous considérons qu'un adversaire souhaite conduire une AIA pour un attribut sensible sur un modèle cible. Le but de l'adversaire est d'inférer l'attribut sensible à partir uniquement des prédictions du modèle cible. -L'adversaire a accès une base de donnée que nous appelons auxiliaire et qui ne contient pas d'individu en commun avec la base de donnée d'entraînement du modèle cible que nous appelons base cible. -La base cible ne contiens pas l'attribut sensible qui n'a donc pas été utilisé à l'entraînement. -La base auxiliaire contiens l'attribut sensible et des prédictions du modèle cible correspondantes à ces attributs sensibles. -La base auxiliaire ne contient pas les donnés d'entrée car sinon l'adversaire pourrait simplement entraîner un modèle pour inférer l'attribut sensible à partir des données d'entrée et le modèle cible n'apporterai pas plus d'informations~\cite{jayaraman2022attribute}. -Il n'est pas du ressort de cette étude d'étudier comment un adversaire pourrait avoir accès à une telle base de donnée. -Cela pourrait être le cas après une fuite de donnée ou une attaque de type homme du milieu\footnote{\textit{Man in the middle}}. +L'adversaire a accès à une base de données que nous appelons auxiliaire et qui ne contient pas d'individu en commun avec la base de données d'entraînement du modèle cible que nous appelons base cible. +La base cible ne contient pas l'attribut sensible, qui n'a donc pas été utilisé à l'entraînement. +La base auxiliaire contient l'attribut sensible et des prédictions du modèle cible correspondant à ces attributs sensibles. +La base auxiliaire ne contient pas les données d'entrée car sinon l'adversaire pourrait simplement entraîner un modèle pour inférer l'attribut sensible à partir des données d'entrée et le modèle cible n'apporterait pas plus d'informations~\cite{jayaraman2022attribute}. +Il n'est pas du ressort de cette étude d'étudier comment un adversaire pourrait avoir accès à une telle base de données. +Cela pourrait être le cas après une fuite de données ou une attaque de type homme du milieu\footnote{\textit{Man in the middle}}. \subsection{AIA pour les modèles de classification} Considérons que le modèle cible prenne ses valeurs dans $F$, un ensemble fini. -C'est à dire que le modèle cible ne donne accès à l'attaquant que des prédictions d'étiquette. -Cela peut-être le cas après application d'un seuil sur un logit par exemple. -Alors le but de l'attaquant est de trouver une fonction mesurable de $(F,\mathcal{P}(F))$ dans $(G,\mathcal{P}(G))$ qui maximise l'exactitude équilibré. +C'est-à-dire que le modèle cible ne donne accès à l'attaquant qu'à des prédictions d'étiquette. +Cela peut être le cas après application d'un seuil sur un logit par exemple. +Alors le but de l'attaquant est de trouver une fonction mesurable de $(F,\mathcal{P}(F))$ dans $(G,\mathcal{P}(G))$ qui maximise l'exactitude équilibrée. Où $G$ est l'ensemble dans lequel l'attribut sensible prend ces valeurs. Cela est un cas d'application parfait pour l'algorithme que nous avons construit au Chapitre~\ref{sec:fini}. Nous allons l'utiliser pour construire une AIA qui donne la garantie théorique d'être le meilleur modèle qui permette de classifier l'attribut sensible en utilisant la prédiction du modèle. Nous appelons cette AIA : \AIAHard. \subsection{AIA pour les modèles de régression} +<<<<<<< HEAD \label{sec:aia-soft} Dans le cas d'un modèle cible qui effectua une régression nous avons $\#F$ infini donc nous ne pouvons pas utiliser \AIAHard. Ce cas où l'adversaire a accès un modèle de régression prend en compte le cas où le modèle cible de prédiction divulgue un logit par exemple. +======= +Dans le cas d'un modèle cible qui effectue une régression nous avons $\#F$ infini, donc nous ne pouvons pas utiliser \AIAHard. +Ce cas où l'adversaire a accès au modèle de régression prend en compte le cas où le modèle cible de prédiction divulgue un logit par exemple. +>>>>>>> 642fa138bd0127b42b8906e412a5ee761b120ac2 C'est le modèle de menace qu'applique Song et. al~\cite{Song2020Overlearning} dans leur AIA. Nous utiliserons comme modèle d'AIA une forêt aléatoire puis nous optimiserons son seuil en utilisant la courbe ROC pour prendre en compte le déséquilibre de classes dans l'attribut sensible. Cette méthode fonctionne uniquement pour des attributs binaires. -C'est-à dire que pour une prédiction dans l'espace mesurable $(F,\mathcal{F})$ et un attribut sensible dans $(\{0,1\},\mathcal{P}(\{0,1\}))$ -la forêt aléatoire construite une fonction de mesurable +C'est-à-dire que pour une prédiction dans l'espace mesurable $(F,\mathcal{F})$ et un attribut sensible dans $(\{0,1\},\mathcal{P}(\{0,1\}))$ +la forêt aléatoire construit une fonction mesurable $a : (F,\mathcal{F})\rightarrow ([0,1],\mathcal{B}([0,1]))$. $a$ modélise le logit de la prédiction du modèle AIA. -Ensuite nous calculons, la courbe ROC de $a$ comme nous l'avons défini à la Section~\ref{sec:background-ml-classif} et nous choisis $\upsilon^*$ tel que, pour la prédiction $a_\upsilon = 1_{[\upsilon,1]}\circ a$ : +Ensuite nous calculons, la courbe ROC de $a$ comme nous l'avons définie à la Section~\ref{sec:background-ml-classif} et nous choisissons $\upsilon^*$ tel que, pour la prédiction $a_\upsilon = 1_{[\upsilon,1]}\circ a$ : \begin{equation*} \upsilon^* = \text{argmin}_{\upsilon\in [0,1]} (1-tpr(\upsilon))^2 + fpr^2(\upsilon) @@ -44,5 +49,5 @@ Nous représentons sur la Figure~\ref{fig:aia-rocopt} le choix du seuil optimal \label{fig:aia-rocopt} \end{figure} -Contrairement a \AIAHard, \AIASoft~ne donne pas la garantie de maximisation l'exactitude équilibré. -Ainsi \AIASoft~constitue un approximation relativement à la théorie que nous avons décrite à la Section~\ref{sec:aia-theo}. +Contrairement a \AIAHard, \AIASoft~ne donne pas la garantie de maximisation de l'exactitude équilibrée. +Ainsi \AIASoft~constitue une approximation relativement à la théorie que nous avons décrite à la Section~\ref{sec:aia-theo}. diff --git a/aia/fair_reg.tex b/aia/fair_reg.tex index 983d088..6c01cc8 100644 --- a/aia/fair_reg.tex +++ b/aia/fair_reg.tex @@ -1,17 +1,17 @@ -A la Section~\ref{sec:background-eq} nous avons introduits la notion de parité démographique (DemPar). +A la Section~\ref{sec:background-eq} nous avons introduit la notion de parité démographique (DemPar). Dans le cas d'un classifieur binaire ($\hat{Y}$) avec attribut binaire ($S$), nous pouvons calculer à quel point le classifieur est proche d'être DemPar avec la quantité suivante : \begin{equation*} \text{DemParLvl} = |P(\hat{Y}=1|S=0) - P(\hat{Y}=1|S=1)| \end{equation*} -C'est l'écart de prédiction positive entre la classe majoritaire(par exemple les blancs, le hommes, ...) et la classe minoritaire (les noires, les femmes, ...). +C'est l'écart de prédiction positive entre la classe majoritaire(par exemple les blancs, le hommes, ...) et la classe minoritaire (les noirs, les femmes, ...). \begin{propriete} \label{prop:aia-dpl0} - Un classifieur qui satisfait la parité démographique a un DemParLvl égale à zéro. + Un classifieur qui satisfait la parité démographique a un DemParLvl égal à zéro. \end{propriete} La démonstration est triviale à partir de la Définition~\ref{def:background-eq-dp}. DemPar est équivalente à dire que la prédiction du modèle est indépendante de l'attribut sensible. -Nous remarquons que cette définition n'est ni restreinte à des problèmes de classifications, ni à des attributs sensibles binaires ni même à des attributs sensibles qui prennent leurs valeurs dans un ensemble fini. +Nous remarquons que cette définition n'est ni restreinte à des problèmes de classifications, ni à des attributs sensibles binaires, ni même à des attributs sensibles qui prennent leurs valeurs dans un ensemble fini. Ainsi nous définissons la notion suivante: \begin{definition}{Parité démographique généralisée.} \label{def:aia-dempargen} diff --git a/aia/intro.tex b/aia/intro.tex index 11e8ec3..eaaffd4 100644 --- a/aia/intro.tex +++ b/aia/intro.tex @@ -1,21 +1,21 @@ Nous avons vu à la Section~\ref{sec:background-eq-imp} que, pour imposer l'équité à un modèle, nous pouvons utiliser différentes méthodes qui agissent lors de l'entraînement. -Utiliser ces méthodes peut causer une augmentation de certain risque liée à la confidentialité des donnée d'entraînement, ainsi il est admis qu'il y ai un compromis à faire entre équité et confidentialité~\cite{duddu2023sok}. -Cependant ce compromis ne concerne que les risques liées aux attaques de MIA~\cite{chang2021privacy,cummings,ijcai2022p766}. +Utiliser ces méthodes peut causer une augmentation de certains risques liés à la confidentialité des données d'entraînement ; ainsi il est admis qu'il y ait un compromis à faire entre équité et confidentialité~\cite{duddu2023sok}. +Cependant, ce compromis ne concerne que les risques liés aux attaques de MIA~\cite{chang2021privacy,cummings,ijcai2022p766}. Dans ce chapitre nous allons étudier les interactions entre ces mécanismes d'équité et l'attaque AIA. -Nous allons montrer que sous cet angle, l'équité et la confidentialité travaillent de concert. +Nous allons montrer que, sous cet angle, l'équité et la confidentialité travaillent de concert. Cette étude peut être vue sous deux angles. -Le premier aspect consiste à étudier comment les mécanismes d'équité peuvent être utilisé pour mitiger différent types d'AIA. +Le premier aspect consiste à étudier comment les mécanismes d'équité peuvent être utilisés pour mitiger différents types d'AIA. Le second aspect, en lien avec le premier, est d'utiliser les AIA pour contrôler dans un environnement boîte noire le niveau d'équité d'un modèle. Dans ce chapitre nous apportons les contributions suivantes: : \begin{itemize} - \item Une définition de l'équité qui généralise la parité démogrpahique à la régression. - \item Diverse relations analytique et synthétique entre AIA, parité démographique et équité des chances qui remplissent les objectifs de: + \item Une définition de l'équité qui généralise la parité démographique à la régression. + \item Diverses relations analytiques et synthétiques entre AIA, parité démographique et équité des chances qui remplissent les objectifs de: \begin{itemize} \item calcul de niveau d'équité en boîte noire et \item garanties théoriques sur le niveau de confidentialité des données des utilisateurs de modèles. \end{itemize} \item La construction de deux nouvelles attaques AIA efficaces quand l'attribut sensible présente un déséquilibre. - \item Une étude empirique des relations entre niveau d'équité, utilisation d'algorithmes imposants l'équité et succès des attaques AIA. + \item Une étude empirique des relations entre niveau d'équité, utilisation d'algorithmes imposant l'équité et succès des attaques AIA. \end{itemize} diff --git a/aia/methodo.tex b/aia/methodo.tex index 88fa79a..a64320d 100644 --- a/aia/methodo.tex +++ b/aia/methodo.tex @@ -1,47 +1,47 @@ -Nous allons réaliser un série d'expériences utilisant les AIA définit plus haut. +Nous allons réaliser une série d'expériences utilisant les AIA définies plus haut. Le but est d'observer l'exactitude équilibrée des AIA sur des modèles entraînés pour imposer l'équité. Pour des attributs sensibles dans un ensemble fini $G$, nous souhaitons observer si entraîner le modèle en imposant la parité démographique rapproche l'exactitude équilibrée de $\frac{1}{\#G}$ ce qui indique une protection de l'attribut sensible d'après le Théorème~\ref{th:aia-dpgood}. -De plus dans le cas de \AIAHard nous allons pouvoir vérifier expérimentalement la Propriété~\ref{prop:aia-demparlvl}. +De plus, dans le cas de \AIAHard, nous allons pouvoir vérifier expérimentalement la Propriété~\ref{prop:aia-demparlvl}. -\subsection{Jeux de donnée} +\subsection{Jeux de données} \label{sec:aia-methodo-jeu} \paragraph{CENSUS} -Le sondage des Etats Unis d'Amérique produit tous les dix ans un jeu de donnée appelé CENSUS contenant les information de tous les citoyens\footnote{www.census.gov}. +Le sondage des Etats-Unis d'Amérique produit tous les dix ans un jeu de données appelé CENSUS contenant les informations de tous les citoyens\footnote{www.census.gov}. La version que nous avons utilisé contient 30.940 données avec 95 attributs comme le travail occupé, le statut marital etc. -Parmi ces attributs certain sont sensibles comme la couleur de peau appelé \textit{race} ou le genre appelé \textit{sex}. -Avec ce jeu de donnée, nous construisons un classifieur cible qui cherche à inférer si un individu gagne plus de 50.000 dollars par an. +Parmi ces attributs, certains sont sensibles comme la couleur de peau appelée \textit{race} ou le genre appelé \textit{sex}. +Avec ce jeu de données, nous construisons un classifieur cible qui cherche à inférer si un individu gagne plus de 50.000 dollars par an. \paragraph{COMPAS} -Cette base de donnée est construite à partir des affaires criminelles aux États Unis. -Elle est utilisé notamment par les différents algorithmes commerciaux de justice prédictive que nous avons introduits en Section~\ref{sec:contexte-insti}. -Elle contient les donnée de 6.172 criminel jugé coupables en Floride. +Cette base de données est construite à partir des affaires criminelles aux États-Unis. +Elle est utilisée notamment par les différents algorithmes commerciaux de justice prédictive que nous avons introduits en Section~\ref{sec:contexte-insti}. +Elle contient les données de 6.172 criminel jugés coupables en Floride. Elle contient sept attributs. \paragraph{MEPS} -Cette base de donnée provient du système de santé de États Unis. -Elle contiens l'historique de trajets réalisé par 15.830 patients. +Cette base de données provient du système de santé des États-Unis. +Elle contient l'historique de trajets réalisés par 15.830 patients. Le tâche de classification du modèle cible est de prédire si un patient utilise fortement ou faiblement les services de santé. \paragraph{LFW} -Ces base de donnée contient 8.212 images de visages de personnes. +Cette base de données contient 8.212 images de visages de personnes. La tâche principale est de classifier si une personne a plus de 35 ans. \paragraph{Attributs sensibles} Toutes ces bases de données contiennent les attributs sensibles \textit{race} et \textit{sex}. -Nous rendons binaire cas attributs : -\textit{race} vaut 1 si la personne à la peu noire et 0 sinon ; +Nous rendons binaire ces attributs : +\textit{race} vaut 1 si la personne a la peau noire et 0 sinon ; \textit{sex} vaut 1 si la personne est une femme et 0 sinon. \subsection{Cheminement des données} -Pour simuler le modèle de menace nous séparons chaque base de donnée de la manière suivant : -chaque base de donnée est séparé en 80\% d'entraînement et 20\% d'évaluation. -Dans l'entraînement on retire l'attribut sensible et on l'utilisé pour entraîner le modèle cible. +Pour simuler le modèle de menace, nous séparons chaque base de données de la manière suivante : +chaque base de données est séparée en 80\% d'entraînement et 20\% d'évaluation. +Dans l'entraînement on retire l'attribut sensible et on l'utilise pour entraîner le modèle cible. Ensuite nous utilisons l'évaluation sans l'attribut sensible pur calculer les prédictions que nous lions ligne par ligne à leur attribut sensible correspondant. -Cela crée la base auxiliaire qui respecte bien les exigence du modèle de menace : les donnée n'ont pas été utilisé à l'entraînement. +Cela crée la base auxiliaire qui respecte bien les exigences du modèle de menace : les données n'ont pas été utilisées à l'entraînement. Cette base auxiliaire est ensuite séparée en 80\% d'entraînement et 20\% d'évaluation. -Les 80\% d'entraînement sont utilisé pour construire le modèle d'attaque qui sert à prédire l'attribut sensible à partir de la prédiction du modèle cible. -Les 20\% d'évaluation servent à calculer l'exactitude équilibré du modèle d'attaque. +Les 80\% d'entraînement sont utilisés pour construire le modèle d'attaque qui sert à prédire l'attribut sensible à partir de la prédiction du modèle cible. +Les 20\% d'évaluation servent à calculer l'exactitude équilibrée du modèle d'attaque. Nous reportons dans la Section~\ref{sec:aia-resexp} contenant les résultats expérimentaux. \begin{figure} \input{aia/figure/tikz/data} diff --git a/aia/resultats.tex b/aia/resultats.tex index 3791ca8..f88dc1f 100644 --- a/aia/resultats.tex +++ b/aia/resultats.tex @@ -35,7 +35,7 @@ \caption{Lfw (sex)} \end{subfigure} - \caption{Impacte de la réduction pour une classification équitable sur le succès de \AIAHard. + \caption{Impact de la réduction pour une classification équitable sur le succès de \AIAHard. \\\textit{Baseline} = sans réduction. \\\textit{Theoretical} = $\frac{1}{2}(1+DemParLvl)$ avec réduction. \\\textit{Empirical} = avec réduction. @@ -81,7 +81,7 @@ \caption{Lfw (sex)} \end{subfigure} - \caption{Impacte du rééquilibrage adverse sur le succès de \AIASoft. + \caption{Impact du rééquilibrage adverse sur le succès de \AIASoft. \\\textit{baseline} = sans rééquilibrage adverse. \\\textit{AdvDebias} = avec rééquilibrage adverse.} \label{fig:aiadeb} @@ -120,7 +120,7 @@ \includegraphics[width=\linewidth]{ACSAC/figures/advdebias/lfw/lfw_advdeb_attack_hard_sex.pdf} \caption{Lfw (sex)} \end{subfigure} - \caption{Impacte du rééquilibrage adverse sur le succès de \AIAHard. + \caption{Impact du rééquilibrage adverse sur le succès de \AIAHard. \\\textit{baseline} = succès de l'attaque sans rééquilibrage adverse. \\\textit{Empirical} = succès de l'attaque avec rééquilibrage adverse. \\\textit{Theoretical} = $\frac{1}{2}(1+DemParLvl)$ avec rééquilibrage adverse} @@ -150,7 +150,7 @@ \caption{LFW} \label{fig:utilityegd-lfw} \end{subfigure} - \caption{Impacte de l'utilisation de la réduction pour une classification équitable sur l'utilité. + \caption{Impact de l'utilisation de la réduction pour une classification équitable sur l'utilité. \\\textit{Baseline} = sans réduction. \\\textit{EGD+DemPar} = avec réduction. } @@ -181,18 +181,18 @@ \caption{LFW} \label{fig:utilityadv-lfw} \end{subfigure} - \caption{Impacte de l'utilisation du rééquilibrage adverse sur l'utilisé. + \caption{Impact de l'utilisation du rééquilibrage adverse sur l'utilité. \\\textit{baseline} = sans rééquilibrage adverse. \\\textit{AdvDebias} = avec rééquilibrage adverse. } \label{fig:utilityadv} \end{figure} -Nous observons sur les Figures~\ref{fig:aiaegd},~\ref{fig:aia-adv-hard} et~\ref{fig:aiadeb} que les méthodes pour imposer l'équité ont bien réduit les succès des attaques que ce soit en classification ou en régression. +Nous observons sur les Figures~\ref{fig:aiaegd},~\ref{fig:aia-adv-hard} et~\ref{fig:aiadeb} que les méthodes pour imposer l'équité ont bien réduit les succès des attaques, que ce soit en classification ou en régression. De plus, nous voyons sur les Figures~\ref{fig:aiaegd} et~\ref{fig:aia-adv-hard} que le succès maximal de l'attaque vaut bien $\frac{1}{2}(1+DemParLvl)$ comme nous l'avons montré à la Propriété~\ref{prop:aia-demparlvl}. -Enfin, nous mettons en perspective ce résultat avec la dégradation d'utilité qu'entraîne l'utilisation des ces méthodes sur les Figures~\ref{fig:utilityegd} et~\ref{fig:utilityadv}. -Les deux méthodes semblent protéger de manière similaire les attributs sensibles pour \AIAHard~cependant la méthode de adverse est la seul pouvant mitiger \AIASoft. -En contrepartie la réduction pour une classification équitable semble moins dégrader l'utilité comme nous pouvons le vois en comparant les Figures~\ref{fig:utilityegd-lfw} et~\ref{fig:utilityadv-lfw}. +Enfin, nous mettons en perspective ce résultat avec la dégradation d'utilité qu'entraîne l'utilisation de ces méthodes sur les Figures~\ref{fig:utilityegd} et~\ref{fig:utilityadv}. +Les deux méthodes semblent protéger de manière similaire les attributs sensibles pour \AIAHard~cependant, la méthode adverse est la seule pouvant mitiger \AIASoft. +En contrepartie, la réduction pour une classification équitable semble moins dégrader l'utilité comme nous pouvons le voir en comparant les Figures~\ref{fig:utilityegd-lfw} et~\ref{fig:utilityadv-lfw}. -En conclusion, nous recommandons d'utiliser le rééquilibrage adverse quand il y a un risque que le logit soit partagé ou quand le tâche principale est une régression. -Si ce n'est pas le cas, par exemple si le modèle est utilisé localement et que uniquement la prédiction est partagé, nous recommandons d'utiliser la réduction pour une classification équitable. +En conclusion, nous recommandons d'utiliser le rééquilibrage adverse quand il y a un risque que le logit soit partagé ou quand la tâche principale est une régression. +Si ce n'est pas le cas, par exemple si le modèle est utilisé localement et que seule la prédiction est partagée, nous recommandons d'utiliser la réduction pour une classification équitable. \FloatBarrier diff --git a/aia/theo.tex b/aia/theo.tex index 6d19da2..bb2bb61 100644 --- a/aia/theo.tex +++ b/aia/theo.tex @@ -1,5 +1,5 @@ \subsection{Utiliser l'équité pour mitiger les AIA} -Commençons par présenter le résultat le plus générale, qui fonctionne aussi bien pour des modèles de classifications que pour des régressions. +Commençons par présenter le résultat le plus général, qui fonctionne aussi bien pour des modèles de classification que pour des régressions. Ce résultat est aussi indépendant du type d'attribut binaire, quantitatif au qualitatif. \begin{theorem} @@ -19,10 +19,10 @@ Ce résultat est aussi indépendant du type d'attribut binaire, quantitatif au q \begin{proof} Par définition, la parité démographique (respectivement généralisée) est équivalente à l'indépendance entre l'attribut sensible et la prédiction (respectivement le logit). - Ainsi, d'après le Lemme~\ref{lemme:aia-xycca} dire que tout classifieur de l'attribut sensible utilisant la prédiction (respectivement le logit) est un CCA est équivalant à dire que le modèle cible respecte la parité démographique (respectivement généralisée). + Ainsi, d'après le Lemme~\ref{lemme:aia-xycca}, dire que tout classifieur de l'attribut sensible utilisant la prédiction (respectivement le logit) est un CCA est équivalent à dire que le modèle cible respecte la parité démographique (respectivement généralisée). \end{proof} -Ce résultat nous apprend que s'assurer que le modèle cible satisfait la parité démographique permet de s'assurer que les attributs sensibles des utilisateur sont protégés lors de l'utilisation du modèle. +Ce résultat nous apprend que s'assurer que le modèle cible satisfait la parité démographique permet de s'assurer que les attributs sensibles des utilisateurs sont protégés lors de l'utilisation du modèle. Dans le cas d'un modèle cible qui réalise une classification binaire et en considérant un attribut binaire nous avons une propriété plus précise. \begin{propriete} @@ -43,10 +43,10 @@ Dans le cas d'un modèle cible qui réalise une classification binaire et en con \end{propriete} \begin{proof} - On pause $\hat{Y}=f\circ X$. - L'ensemble $A$ des fonction de $\{0,1\}$ vers $\{0,1\}$ contient quatre éléments : + On pose $\hat{Y}=f\circ X$. + L'ensemble $A$ des fonctions de $\{0,1\}$ vers $\{0,1\}$ contient quatre éléments : $a_0=0$, $a_1=id$, $a_2=1-id$ et $a,3=1$. - Pour chaque attaque $a\in A$ l'exactitude équilibré de $a$ est + Pour chaque attaque $a\in A$ l'exactitude équilibrée de $a$ est \begin{equation*} BA(a) = \frac{1}{2}(P(a\circ \hat{Y}=0|S=0) + P(a\circ \hat{Y}=1|S=1)) \end{equation*} @@ -81,12 +81,12 @@ Donc, } \end{proof} -Ainsi pour le classifieur binaire avec attribut sensible binaire, il est suffisant de calculer le DemParLvl du modèle cible pour connaître le maximum d'exactitude équilibré atteignable par n'importe quelle attaque. -De plus, nous voyons que l'exactitude équilibré maximale d'attaque vaut ${1}{2}$ si et seulement si $\text{DemParLvl}=0$. -C'est à dire que $f$ satisfait la parité démographique est équivalant à dire que tout attaque à une exactitude équilibré égale à $\frac{1}{2}$. +Ainsi pour le classifieur binaire avec attribut sensible binaire, il est suffisant de calculer le DemParLvl du modèle cible pour connaître le maximum d'exactitude équilibrée atteignable par n'importe quelle attaque. +De plus, nous voyons que l'exactitude équilibrée maximale d'attaque vaut ${1}{2}$ si et seulement si $\text{DemParLvl}=0$. +C'est-à-dire que $f$ satisfait la parité démographique est équivalent à dire que toute attaque a une exactitude équilibrée égale à $\frac{1}{2}$. -Grâce au Théorème~\ref{th:aia-dpgood} nous savons aussi que tout autre définition d'équité qui n'implique pas la parité démographique ne permet pas de mitiger les AIA. -Par exemple, nous allons montrer un cas ou l'égalité des chances de la Définition~\ref{def:background-eq-eoo} est satisfaite mais où il existe une AIA qui donne une exactitude équilibré supérieur $0,5$. +Grâce au Théorème~\ref{th:aia-dpgood} nous savons aussi que toute autre définition d'équité qui n'implique pas la parité démographique ne permet pas de mitiger les AIA. +Par exemple, nous allons montrer un cas où l'égalité des chances de la Définition~\ref{def:background-eq-eoo} est satisfaite mais où il existe une AIA qui donne une exactitude équilibrée supérieure à $0,5$. On représente le classifieur $\hat{Y}$ de l'étiquette $Y$ ainsi que la donnée d'entrée $X$ et l'attribut sensible $S$ dans le tableau suivant : \begin{equation*} @@ -107,12 +107,12 @@ Ce classifieur satisfait l'équité des chances car $P(\hat{Y}=0\mid Y=0\wedge S=0) = P(\hat{Y}=0\mid Y=0\wedge S=1) = 1$ et $P(\hat{Y}=0\mid Y=1\wedge S=0) = P(\hat{Y}=0\mid Y=1\wedge S=1) = 0$. -Alors si on choisit comme modèle d'attaque la fonction identité, nous avons comme exactitude équilibré de l'AIA $0,75$ ce qui indique une fuite de l'attribut sensible. +Alors si on choisit comme modèle d'attaque la fonction identité, nous avons comme exactitude équilibrée de l'AIA $0,75$, ce qui indique une fuite de l'attribut sensible. -%De manière plus précises et plus générale nous avancons le théorème suivant : +%De manière plus précise et plus générale nous avançons le théorème suivant : %\begin{theorem} %\label{th:eoo} - %Si $\hat{Y}$ satisfait l'équitée des chances pour $Y$ et $S$, alors l'exactitude équilibrée de l'AIA est de $\frac{1}{\#F}$ si et seulement si $Y$ est independant de $S$ ou si + %Si $\hat{Y}$ satisfait l'équité des chances pour $Y$ et $S$, alors l'exactitude équilibrée de l'AIA est de $\frac{1}{\#F}$ si et seulement si $Y$ est indépendant de $S$ ou si %for $Y$ and $S$ then the balanced accuracy of AH is $\frac{1}{2}$ if and only if $Y$ is independent of $S$ or $\hat{Y}$ is independent of $Y$. %\end{theorem} %Those two conditions are unlikely to happen with real world dataset and target models. @@ -148,15 +148,15 @@ Alors si on choisit comme modèle d'attaque la fonction identité, nous avons co % \subsection{Utiliser l'AIA pour contrôler le niveau d'équité} \label{sec:aia-theo-aia-eq} -De manière réciproque, le lien que nous avons démontré peut aussi être utilité dans le cas suivant. +De manière réciproque, le lien que nous avons démontré peut aussi être utilisé dans le cas suivant : Imaginons qu'un fournisseur de modèle d'IA ou un organisme de régulation comme la Défenseure des Droit souhaite contrôler si un modèle est équitable ou non. -Si $\#F$ ou $\#G$ sont grands voir de cardinaux infinis, vérifier directement des propriétés d'indépendances entre la sortie du modèle et des attributs sensible peut entraîner un coût de calcul trop élevé pour être faisable~\cite{ofverstedt2022fast}. +Si $\#F$ ou $\#G$ sont grands voire de cardinaux infinis, vérifier directement des propriétés d'indépendance entre la sortie du modèle et des attributs sensible peut entraîner un coût de calcul trop élevé pour être faisable~\cite{ofverstedt2022fast}. -Grâce au Théorème~\ref{th:aia-dpgood} nous avons la garantie que que si toutes les modèles AIA ont une exactitude équilibrée égale à $\frac{1}{\#F}$ alors le modèle cible satisfait la parité démographique. -Bien sûre cette technique atteint sa limite si $\#G$ est infini car alors l'exactitude équilibré n'est plus définie. +Grâce au Théorème~\ref{th:aia-dpgood} nous avons la garantie que si tous les modèles AIA ont une exactitude équilibrée égale à $\frac{1}{\#F}$, alors le modèle cible satisfait la parité démographique. +Bien sûr cette technique atteint sa limite si $\#G$ est infini car alors l'exactitude équilibrée n'est plus définie. Calculer l'exactitude équilibrée de tous les modèles d'AIA est impossible. -Nous allons voir que si l'AIA qui donne une exactitude équilibré maximal vaut $\frac{1}{\#F}$ alors c'est le cas pour toutes. +Nous allons voir que si l'AIA qui donne une exactitude équilibrée maximale vaut $\frac{1}{\#F}$, alors c'est le cas pour toutes. \begin{theorem} \label{th:aia-bluey} @@ -168,7 +168,7 @@ Nous allons voir que si l'AIA qui donne une exactitude équilibré maximal vaut \item $Y:\Omega\rightarrow F$ \end{itemize} Soit $A$ l'ensemble des fonctions mesurables de $(E,\mathcal{E})$ dans $(F,\mathcal{P}(F))$. - Nous appelons $BA$ la fonction qui à toutes fonction $a$ de $A$ associe l'exactitude équilibrée de $a \circ X$ pour l'étiquette $Y$. + Nous appelons $BA$ la fonction qui à toutes les fonctions $a$ de $A$ associe l'exactitude équilibrée de $a \circ X$ pour l'étiquette $Y$. \begin{equation*} \exists a\in A~BA(a)< \frac{1}{\#F} \implies @@ -212,7 +212,7 @@ Nous allons voir que si l'AIA qui donne une exactitude équilibré maximal vaut Ainsi, nous avons $\varphi\in S_{\#F}$ telle que $\sum_{j\in\#F}M(\varphi(j),j)>1$. - Comme nous l'avons montré dans la preuve du Théorème~\ref{th:fini-bacca}, nous avons $u\in\mathcal{H}^{\#F}$ tel que en posant + Comme nous l'avons démontré dans la preuve du Théorème~\ref{th:fini-bacca}, nous avons $u\in\mathcal{H}^{\#F}$ tel qu'en posant \begin{equation*} b = u_{\#F-1}\circ\cdots\circ u_0\circ a \end{equation*} @@ -220,14 +220,14 @@ Nous allons voir que si l'AIA qui donne une exactitude équilibré maximal vaut \end{proof} -Nous allons utiliser ce théorème pour montrer que si l'AIA maximale à une exactitude équilibré égale à $\frac{1}{\#G}$ alors toutes les AIA ont la même exactitude équilibré. -On se donne $A$ l'ensemble des fonctions mesurable de $(F,\mathcal{F})$ dans $(G,\mathcal{P}(G))$. +Nous allons utiliser ce théorème pour montrer que si l'AIA maximale a une exactitude équilibrée égale à $\frac{1}{\#G}$ alors toutes les AIA ont la même exactitude équilibrée. +On se donne $A$ l'ensemble des fonctions mesurables de $(F,\mathcal{F})$ dans $(G,\mathcal{P}(G))$. $A$ modélise l'ensemble des AIA possibles pour un modèle cible qui prédit dans $F$ et un attribut sensible dans $G$, un ensemble fini. Supposons que $\text{max}_{a\in A} BA(a)=\frac{1}{\#G}$. Alors $\forall a\in A~BA(a)\leq\frac{1}{\#G}$. D'après la contraposée du Théorème~\ref{th:aia-bluey} nous avons alors $\forall a\in A~BA(a)\geq\frac{1}{\#G}$. Ainsi $\forall a\in A~BA(a)=\frac{1}{\#G}$. -Pour contrôler si un classifieur vérifie la parité démographique il est donc suffisant de connaître l'exactitude équilibré maximale de toutes les AIA. +Pour contrôler si un classifieur vérifie la parité démographique il est donc suffisant de connaître l'exactitude équilibrée maximale de toutes les AIA. Comme nous venons de le voir, si cette valeur vaut $\frac{1}{\#G}$ alors le classifieur satisfait la parité démographique. -La recherche d'une AIA qui maximise l'exactitude équilibré est discuté à la Section~\ref{sec:aia-aia}. +La recherche d'une AIA qui maximise l'exactitude équilibrée est discutée à la Section~\ref{sec:aia-aia}. |