summaryrefslogtreecommitdiff
path: root/aia.tex
diff options
context:
space:
mode:
Diffstat (limited to 'aia.tex')
-rw-r--r--aia.tex118
1 files changed, 118 insertions, 0 deletions
diff --git a/aia.tex b/aia.tex
index 76cb80e..6d4c129 100644
--- a/aia.tex
+++ b/aia.tex
@@ -1,3 +1,44 @@
+
+\begin{frame}
+ \frametitle{Etude des CCA}
+ \begin{definition}
+ Un CCA est un classifieur ayant une \emph{prédiction indépendante de l'étiquette}.
+ C'est-à-dire que pour un classifieur $f: E\rightarrow F$.
+ Avec une étiquette $Y:\Omega\rightarrow F$
+ et une entrée $X:\Omega\rightarrow E$.
+ Alors pour $\hat{Y}=f\circ X$, nous avons
+ \emph{$P_{(Y,\hat{Y})} = P_Y\otimes P_{\hat{Y}}$}
+ \end{definition}
+ \pause
+ \begin{lemma}
+ \label{lemme:aia-xycca}
+ Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé.
+ Soient $X:(\Omega,\mathcal{T}) \rightarrow (E,\mathcal{E})$ et $Y:\Omega \rightarrow (F,\mathcal{F})$ des variables aléatoires.
+ Les deux propositions suivantes sont équivalentes :
+ \begin{enumerate}
+ \item $P_{(X,Y)} = P_X\otimes P_Y$.
+ \item Toute fonction mesurable $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$ est un CCA pour prédire $Y$ à partir de $X$.
+ \end{enumerate}
+ \end{lemma}
+\end{frame}
+
+\begin{frame}
+ \frametitle{Etude des CCA}
+ \begin{propriete}
+ \label{prop:CCA_BA}
+ Les CCA ayant comme image $ F$ ont une exactitude équilibrée égale à $\frac{1}{\# F}$.
+ \end{propriete}
+ \pause
+ \begin{theorem}
+ \label{th:fini-bacca}
+ En notant $BA(f)$ l'exactitude équilibrée de $f$.
+ \begin{equation*}
+ \forall f~BA(f)=\frac{1}{\#F} \iff
+ \forall f~\text{$f$ est un CCA}
+ \end{equation*}
+ \end{theorem}
+\end{frame}
+
\begin{frame}
\begin{definition}[DemParLvl]
Soit $(\Omega,\mathcal{T},P$) un espace probabilisé.
@@ -110,3 +151,80 @@
\label{fig:aia-data}
\end{figure}
\end{frame}
+
+\begin{frame}
+ \frametitle{Experimental validation on prediction: results}
+ \begin{figure}
+ \captionsetup{singlelinecheck=off}
+ \centering
+ \begin{subfigure}{0.4\textwidth}
+ \centering
+ \scriptsize
+ \begin{itemize}
+ \item \emph{Labeled Faces in the Wild (images)}
+ \item ML = Convolutional Neural Network
+ \end{itemize}
+ \includegraphics[width=150px]{images/figures/advdebias/lfw/lfw_advdeb_attack_hard_sex.pdf}
+ \end{subfigure}
+ \hspace{0.1\textwidth}
+ \begin{subfigure}{0.4\textwidth}
+ \centering
+ \scriptsize
+ \begin{itemize}
+ \item \emph{COMPAS recidivism dataset (tabular)}
+ \item ML = Random Forest
+ \end{itemize}
+ \includegraphics[width=150px]{images/figures/advdebias/compas/compas_advdeb_attack_hard_sex.pdf}
+ \end{subfigure}
+ \end{figure}
+ \vspace{10px}
+
+ \scriptsize
+ \begin{tabular}{lll}
+ &\emph{Regularization}&\emph{Value}\\
+ \emph{Baseline}&None&Attack result\\
+ \emph{Theoretical}&Adversarial debiasing&$\frac{1}{2}(1+DemParLvl)$\\
+ \emph{Empirical}&Adversarial debiasing&Attack result\\
+ \end{tabular}
+\normalsize
+ \hspace{10px}
+Attack surface = $1_{[\tau,1]}\circ f\circ X$.
+\end{frame}
+
+\begin{frame}
+ \frametitle{Experimental validation on logit: results}
+ \begin{figure}
+ \captionsetup{singlelinecheck=off}
+ \centering
+ \begin{subfigure}{0.4\textwidth}
+ \centering
+ \scriptsize
+ \begin{itemize}
+ \item \emph{Labeled Faces in the Wild (images)}
+ \item ML = Convolutional Neural Network
+ \end{itemize}
+ \includegraphics[width=150px]{images/figures/advdebias/lfw/lfw_advdeb_attack_soft_experimental_sex.pdf}
+ \end{subfigure}
+ \hspace{0.1\textwidth}
+ \begin{subfigure}{0.4\textwidth}
+ \centering
+ \scriptsize
+ \begin{itemize}
+ \item \emph{COMPAS recidivism dataset (tabular)}
+ \item ML = Random Forest
+ \end{itemize}
+ \includegraphics[width=150px]{images/figures/advdebias/compas/compas_advdeb_attack_soft_experimental_sex.pdf}
+ \end{subfigure}
+ \end{figure}
+ \vspace{10px}
+
+ \scriptsize
+ \begin{tabular}{lll}
+ &\emph{Regularization}&\emph{Value}\\
+ \emph{Baseline}&None&Attack result\\
+ \emph{AdvDebias}&Adversarial debiasing&Attack result\\
+ \end{tabular}
+\normalsize
+ \hspace{10px}
+Attack surface = $f\circ X$.
+\end{frame}