\begin{theorem} \label{th:aia-dpgood} Si le modèle cible satisfait la démographic parity alors l'attaque n'importe qu'elle classifieur utilisant la prédiction pour inférer l'attribut sensible est un CCA. Si le modèle cible satisfait la démographic parity généraliée alors l'attaque utilisant le logit pour inférer l'attribut sensibl est un CCA. \end{theorem} Le théorème précedent permet de Pour démontrer ce résultat, commencons par nous rapeler de la raison pour la quelle nous avons défini les CCA comme tel au début du Chaptire~\ref{sec:fini}. Nous voulions englober dans cette définition les classifieur qui essaient de prédire un attribute indépendant de la donnée d'entrée. Cependant nous n'avons jamais démontré que de tels classifieurs sont des CCA. C'est ce que nous proposons avec le lemme suivant. \begin{lemma} \label{lemme:aia-xycca} Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé. Soient $X:(\Omega,\mathcal{T}) \rightarrow (E,\mathcal{E})$ et $Y:\Omega \rightarrow (F,\mathcal{F})$ des variables aléatoires. Les deux propositions suivantes sont équivalantes : \begin{enumerate} \item $P_{(X,Y)} = P_X\otimes P_Y$. \item Toute fonction mesurable $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$ est un CCA pour prédire $Y$ à partir de $X$. \end{enumerate} \end{lemma} \begin{proof} En gardant les objets définis dans le Lemme~\ref{lemme:aia-xycca}. Nous allons prouver séparément les deux implications. \paragraph{$(1)\implies(2)$} Nous supposons que $P_{(X,Y)} = P_X\otimes P_Y$. Soit $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$, un fonction mesurerable, nous allons montrer que $f$ est un CCA, c'est-à dire que $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$. Soient $(A,B)\in\mathcal{E}\times\mathcal{F}$ \begin{align*} &P_{(f\circ X,Y)}(A,B)&\\ =&P(\{f\circ X\in A\}\cap\{Y\in B\})&\\ =&P(\{X\in f^{-1}(A)\}\cap\{Y\in B\})&\\ &&\textit{Comme $X$ et $Y$ sont indépendantes.}\\ =&P_X(f^{-1}(A))P_Y(B)&\\ =&P_{f\circ X}(A)P_Y(B)& \end{align*} Ainsi, $\forall (A,B)\in\mathcal{E}\times\mathcal{F}~P_{(f\circ X,Y)}(A,B) = P_{f\circ X}(A)P_Y(B)$. D'après la définition de le mesure produit donnée à la Section~\ref{sec:background-proba}, nous avons donc bien $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$. Ce qui est bien la définition de l'indépendant donnée en Section~\ref{sec:background-proba}. \paragraph{$(2)\implies (1)$} Nous supposons que tout classifieur de $Y$ à partir de $X$ est un CCA. Montrons que $P_{(X,Y)} = P_{f\circ X}\otimes P_Y$. Soit $(A,B)\in\mathcal{E}\times\mathcal{F}$. Nous allons montrer que $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B)$. \paragraph{Cas 1 : $\mathcal{F}=\{\emptyset,F\}$} Si $B=\emptyset$ alors $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = \emptyset$. Si $B=F$ alors $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = P(X\in A)$. \paragraph{Cas 2 : $\#\mathcal{F}>2$} Alors il existe $C\in\mathcal{F}$ tel que $C\neq\emptyset$ et $F\backslash C\neq\emptyset$. Nous pouvons donc choisir $c$ dans $C$ et $c'$ dans $F\backslash C$. Nous construisons la fonction suivante: \begin{equation*} f:\left\{ \begin{matrix} E\rightarrow F\\ e\mapsto\left\{ \begin{matrix} c~\text{si}~e\in A\\ c'~\text{sinon} \end{matrix} \right. \end{matrix} \right. \end{equation*} Alors $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ est une fonction mesurable et $f^{-1}(C) = A$. Ainsi \begin{align*} &P(X\in A\cap Y\in B)\\ =&P(X\in f^{-1}(C)\cap Y\in B)\\ \text{Comme $f$ est un CCA.}&\\ =&P(f\circ X\in C)P(Y\in B)\\ =&P(X\in A)P(Y\in B) \end{align*} \end{proof} Désormais la démonstration du Théorème~\ref{th:aia-dpgood} devient évidente. \begin{proof} Par définition, la \textit{demographic parity} (respectivement généralisée) est equivalante à l'inpépendance entre l'attribut sensible et la prediction (respectivement le logit). Ainsi, d'après le Lemme~\ref{lemme:aia-xycca} tout classifieur de l'attribute sensible utilisant la prédiction (respectivement le logit) est un CCA. En particulier les attaques \AIAHard~et \AIASoft. \end{proof}