summaryrefslogtreecommitdiff
path: root/aia/classif.tex
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-09-11 00:10:50 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-09-11 00:10:50 +0200
commitbf5b05a84e877391fddd1b0a0b752f71ec05e901 (patch)
tree149609eeff1d475cd60f398f0e4bfd786c5d281c /aia/classif.tex
parent03556b31409ac5e8b81283d3a6481691c11846d7 (diff)
Preuve existe f pas cca equivalant exists f BA pas randomguess
Diffstat (limited to 'aia/classif.tex')
-rw-r--r--aia/classif.tex96
1 files changed, 96 insertions, 0 deletions
diff --git a/aia/classif.tex b/aia/classif.tex
new file mode 100644
index 0000000..67e9874
--- /dev/null
+++ b/aia/classif.tex
@@ -0,0 +1,96 @@
+\begin{theorem}
+ \label{th:aia-dpgood}
+ Si le modèle cible satisfait la démographic parity alors l'attaque n'importe qu'elle classifieur utilisant la prédiction pour inférer l'attribut sensible est un CCA.
+ Si le modèle cible satisfait la démographic parity généraliée alors l'attaque utilisant le logit pour inférer l'attribut sensibl est un CCA.
+\end{theorem}
+
+Le théorème précedent permet de
+
+Pour démontrer ce résultat, commencons par nous rapeler de la raison pour la quelle nous avons défini les CCA comme tel au début du Chaptire~\ref{sec:fini}.
+Nous voulions englober dans cette définition les classifieur qui essaient de prédire un attribute indépendant de la donnée d'entrée.
+Cependant nous n'avons jamais démontré que de tels classifieurs sont des CCA.
+C'est ce que nous proposons avec le lemme suivant.
+
+\begin{lemma}
+ \label{lemme:aia-xycca}
+ Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé.
+ Soient $X:(\Omega,\mathcal{T}) \rightarrow (E,\mathcal{E})$ et $Y:\Omega \rightarrow (F,\mathcal{F})$ des variables aléatoires.
+ Les deux propositions suivantes sont équivalantes :
+ \begin{enumerate}
+ \item $P_{(X,Y)} = P_X\otimes P_Y$.
+ \item Toute fonction mesurable $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$ est un CCA pour prédire $Y$ à partir de $X$.
+ \end{enumerate}
+\end{lemma}
+
+\begin{proof}
+ En gardant les objets définis dans le Lemme~\ref{lemme:aia-xycca}.
+ Nous allons prouver séparément les deux implications.
+ \paragraph{$(1)\implies(2)$}
+ Nous supposons que $P_{(X,Y)} = P_X\otimes P_Y$.
+ Soit $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$, un fonction mesurerable,
+ nous allons montrer que $f$ est un CCA, c'est-à dire que $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$.
+
+ Soient $(A,B)\in\mathcal{E}\times\mathcal{F}$
+ \begin{align*}
+ &P_{(f\circ X,Y)}(A,B)&\\
+ =&P(\{f\circ X\in A\}\cap\{Y\in B\})&\\
+ =&P(\{X\in f^{-1}(A)\}\cap\{Y\in B\})&\\
+ &&\textit{Comme $X$ et $Y$ sont indépendantes.}\\
+ =&P_X(f^{-1}(A))P_Y(B)&\\
+ =&P_{f\circ X}(A)P_Y(B)&
+ \end{align*}
+
+ Ainsi, $\forall (A,B)\in\mathcal{E}\times\mathcal{F}~P_{(f\circ X,Y)}(A,B) = P_{f\circ X}(A)P_Y(B)$.
+ D'après la définition de le mesure produit donnée à la Section~\ref{sec:background-proba}, nous avons donc bien $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$.
+ Ce qui est bien la définition de l'indépendant donnée en Section~\ref{sec:background-proba}.
+
+ \paragraph{$(2)\implies (1)$}
+ Nous supposons que tout classifieur de $Y$ à partir de $X$ est un CCA.
+ Montrons que $P_{(X,Y)} = P_{f\circ X}\otimes P_Y$.
+ Soit $(A,B)\in\mathcal{E}\times\mathcal{F}$.
+ Nous allons montrer que
+ $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B)$.
+
+ \paragraph{Cas 1 : $\mathcal{F}=\{\emptyset,F\}$}
+ Si $B=\emptyset$ alors
+ $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = \emptyset$.
+ Si $B=F$ alors
+ $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = P(X\in A)$.
+
+ \paragraph{Cas 2 : $\#\mathcal{F}>2$}
+ Alors il existe $C\in\mathcal{F}$ tel que $C\neq\emptyset$ et $F\backslash C\neq\emptyset$.
+ Nous pouvons donc choisir $c$ dans $C$ et $c'$ dans $F\backslash C$.
+ Nous construisons la fonction suivante:
+ \begin{equation*}
+ f:\left\{
+ \begin{matrix}
+ E\rightarrow F\\
+ e\mapsto\left\{
+ \begin{matrix}
+ c~\text{si}~e\in A\\
+ c'~\text{sinon}
+ \end{matrix}
+ \right.
+ \end{matrix}
+ \right.
+ \end{equation*}
+ Alors $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ est une fonction mesurable et $f^{-1}(C) = A$.
+ Ainsi
+ \begin{align*}
+ &P(X\in A\cap Y\in B)\\
+ =&P(X\in f^{-1}(C)\cap Y\in B)\\
+ \text{Comme $f$ est un CCA.}&\\
+ =&P(f\circ X\in C)P(Y\in B)\\
+ =&P(X\in A)P(Y\in B)
+ \end{align*}
+
+\end{proof}
+
+Désormais la démonstration du Théorème~\ref{th:aia-dpgood} devient évidente.
+
+\begin{proof}
+ Par définition, la \textit{demographic parity} (respectivement généralisée) est equivalante à l'inpépendance entre l'attribut sensible et la prediction (respectivement le logit).
+ Ainsi, d'après le Lemme~\ref{lemme:aia-xycca} tout classifieur de l'attribute sensible utilisant la prédiction (respectivement le logit) est un CCA.
+ En particulier les attaques \AIAHard~et \AIASoft.
+\end{proof}
+