diff options
author | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-09-11 00:10:50 +0200 |
---|---|---|
committer | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-09-11 00:10:50 +0200 |
commit | bf5b05a84e877391fddd1b0a0b752f71ec05e901 (patch) | |
tree | 149609eeff1d475cd60f398f0e4bfd786c5d281c /aia/classif.tex | |
parent | 03556b31409ac5e8b81283d3a6481691c11846d7 (diff) |
Preuve existe f pas cca equivalant exists f BA pas randomguess
Diffstat (limited to 'aia/classif.tex')
-rw-r--r-- | aia/classif.tex | 96 |
1 files changed, 96 insertions, 0 deletions
diff --git a/aia/classif.tex b/aia/classif.tex new file mode 100644 index 0000000..67e9874 --- /dev/null +++ b/aia/classif.tex @@ -0,0 +1,96 @@ +\begin{theorem} + \label{th:aia-dpgood} + Si le modèle cible satisfait la démographic parity alors l'attaque n'importe qu'elle classifieur utilisant la prédiction pour inférer l'attribut sensible est un CCA. + Si le modèle cible satisfait la démographic parity généraliée alors l'attaque utilisant le logit pour inférer l'attribut sensibl est un CCA. +\end{theorem} + +Le théorème précedent permet de + +Pour démontrer ce résultat, commencons par nous rapeler de la raison pour la quelle nous avons défini les CCA comme tel au début du Chaptire~\ref{sec:fini}. +Nous voulions englober dans cette définition les classifieur qui essaient de prédire un attribute indépendant de la donnée d'entrée. +Cependant nous n'avons jamais démontré que de tels classifieurs sont des CCA. +C'est ce que nous proposons avec le lemme suivant. + +\begin{lemma} + \label{lemme:aia-xycca} + Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé. + Soient $X:(\Omega,\mathcal{T}) \rightarrow (E,\mathcal{E})$ et $Y:\Omega \rightarrow (F,\mathcal{F})$ des variables aléatoires. + Les deux propositions suivantes sont équivalantes : + \begin{enumerate} + \item $P_{(X,Y)} = P_X\otimes P_Y$. + \item Toute fonction mesurable $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$ est un CCA pour prédire $Y$ à partir de $X$. + \end{enumerate} +\end{lemma} + +\begin{proof} + En gardant les objets définis dans le Lemme~\ref{lemme:aia-xycca}. + Nous allons prouver séparément les deux implications. + \paragraph{$(1)\implies(2)$} + Nous supposons que $P_{(X,Y)} = P_X\otimes P_Y$. + Soit $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$, un fonction mesurerable, + nous allons montrer que $f$ est un CCA, c'est-à dire que $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$. + + Soient $(A,B)\in\mathcal{E}\times\mathcal{F}$ + \begin{align*} + &P_{(f\circ X,Y)}(A,B)&\\ + =&P(\{f\circ X\in A\}\cap\{Y\in B\})&\\ + =&P(\{X\in f^{-1}(A)\}\cap\{Y\in B\})&\\ + &&\textit{Comme $X$ et $Y$ sont indépendantes.}\\ + =&P_X(f^{-1}(A))P_Y(B)&\\ + =&P_{f\circ X}(A)P_Y(B)& + \end{align*} + + Ainsi, $\forall (A,B)\in\mathcal{E}\times\mathcal{F}~P_{(f\circ X,Y)}(A,B) = P_{f\circ X}(A)P_Y(B)$. + D'après la définition de le mesure produit donnée à la Section~\ref{sec:background-proba}, nous avons donc bien $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$. + Ce qui est bien la définition de l'indépendant donnée en Section~\ref{sec:background-proba}. + + \paragraph{$(2)\implies (1)$} + Nous supposons que tout classifieur de $Y$ à partir de $X$ est un CCA. + Montrons que $P_{(X,Y)} = P_{f\circ X}\otimes P_Y$. + Soit $(A,B)\in\mathcal{E}\times\mathcal{F}$. + Nous allons montrer que + $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B)$. + + \paragraph{Cas 1 : $\mathcal{F}=\{\emptyset,F\}$} + Si $B=\emptyset$ alors + $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = \emptyset$. + Si $B=F$ alors + $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = P(X\in A)$. + + \paragraph{Cas 2 : $\#\mathcal{F}>2$} + Alors il existe $C\in\mathcal{F}$ tel que $C\neq\emptyset$ et $F\backslash C\neq\emptyset$. + Nous pouvons donc choisir $c$ dans $C$ et $c'$ dans $F\backslash C$. + Nous construisons la fonction suivante: + \begin{equation*} + f:\left\{ + \begin{matrix} + E\rightarrow F\\ + e\mapsto\left\{ + \begin{matrix} + c~\text{si}~e\in A\\ + c'~\text{sinon} + \end{matrix} + \right. + \end{matrix} + \right. + \end{equation*} + Alors $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ est une fonction mesurable et $f^{-1}(C) = A$. + Ainsi + \begin{align*} + &P(X\in A\cap Y\in B)\\ + =&P(X\in f^{-1}(C)\cap Y\in B)\\ + \text{Comme $f$ est un CCA.}&\\ + =&P(f\circ X\in C)P(Y\in B)\\ + =&P(X\in A)P(Y\in B) + \end{align*} + +\end{proof} + +Désormais la démonstration du Théorème~\ref{th:aia-dpgood} devient évidente. + +\begin{proof} + Par définition, la \textit{demographic parity} (respectivement généralisée) est equivalante à l'inpépendance entre l'attribut sensible et la prediction (respectivement le logit). + Ainsi, d'après le Lemme~\ref{lemme:aia-xycca} tout classifieur de l'attribute sensible utilisant la prédiction (respectivement le logit) est un CCA. + En particulier les attaques \AIAHard~et \AIASoft. +\end{proof} + |