summaryrefslogtreecommitdiff
path: root/background.tex
diff options
context:
space:
mode:
Diffstat (limited to 'background.tex')
-rw-r--r--background.tex74
1 files changed, 65 insertions, 9 deletions
diff --git a/background.tex b/background.tex
index 1cc38d6..05b96b3 100644
--- a/background.tex
+++ b/background.tex
@@ -11,7 +11,7 @@
\item $Y:(\Omega,\mathcal{T})\rightarrow (F,\mathcal{F})$ Les étiquettes
\item $S:(\Omega,\mathcal{T})\rightarrow (G,\mathcal{G})$ L'attribut sensible
\item $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ Le modèle d'apprentissag automatique
- \item $\hat{Y}=f\circ X$ La prédiction
+ \item $\hat{Y}=f\circ X$ La sortie (prédiction, logit, etc.)
\end{itemize}
\end{frame}
\begin{frame}
@@ -21,7 +21,7 @@
P(f\circ X=Y)
\end{equation*}
\end{definition}
-
+ \pause
\begin{definition}[Exactitude équilibrée\footnote{\textit{Balanced accuracy}}]
\begin{equation*}
\frac{1}{\#F}\sum_{i\in F}P(f\circ X=i\mid Y=i)
@@ -34,7 +34,7 @@
\label{def:background-eq-dp}
$\hat{Y}$ satisfait la \emph{parité démographique} pour $S$ si et seulement si : $\forall (y,s_1,s_2)\in F\times G\times G~P(\hat{Y}=y | S=s_1) = P(\hat{Y}=y | S=s_2)$.
\end{definition}
-
+ \pause
\begin{definition}
\label{def:background-eq-eoo}
$\hat{Y}$ satisfait l'\emph{équité des chances} pour $S$ si et seulement si : $\forall (\hat{y},y,s_1,s_2)\in E\times E\times G\times G \quad
@@ -43,6 +43,17 @@
\end{frame}
\begin{frame}
+ \frametitle{Imposer l'équitée}
+ \emph{L'algorithme d'entraînement peut être modifié pour imposer l'équitée au modèle finale.}
+ \begin{itemize}
+ \item \textit{FairGrad: Fairness Aware Gradient Descent}, Gaurav Maheshwari and Michaël Perrot, 2022.
+ \item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
+ \item \textit{Deep Learning with Differential Privacy},
+ Martín Abadi and Andy Chu and Ian Goodfellow, 2016.
+ \end{itemize}
+\end{frame}
+
+\begin{frame}
\frametitle{Confidentialité : Inférence de l'appartenance (MIA)}
\input{tikz/attack_mia}
\end{frame}
@@ -50,11 +61,6 @@
\frametitle{Confidentialité : Inférence d'un attribut sensible (AIA)}
\input{tikz/attack}
\end{frame}
-
-\begin{frame}
- \frametitle{Intersection intre confidentialité et equitée}
-\end{frame}
-
\begin{frame}
\frametitle{Pourquoi se concentrer sur ces deux enjeux ?}
\begin{itemize}
@@ -62,6 +68,56 @@
\pause
\item Deux notions capitales pour tous les aspects de l'IA.
\pause
- \item La confidentialité est uniquement étudiée sous l'angle de la MIA.
+ \item La confidentialité est surtout étudiée sous l'angle de la MIA.
\end{itemize}
\end{frame}
+
+\begin{frame}
+ \frametitle{Confidentialtié différentielle}
+ \begin{definition}[$\varepsilon,\delta$-DP]
+ Soit $\mathcal{D}$ un ensemble avec la relation $\sim$.
+ Soit $M$ une fonction sur $\mathcal{D}$.
+ On dit que $M$ satisfait $\varepsilon,\delta$-DP si et seulement si
+
+ \begin{equation}
+ \forall D\in\mathcal{D}~\forall D\in[D]_\sim~
+ P(M(D)\in S)\leq e^{\varepsilon}P(M(D')\in S)+\delta
+ \end{equation}
+ \end{definition}
+\end{frame}
+
+\begin{frame}
+ \frametitle{Intersection entre confidentialité et equitée}
+ \begin{itemize}
+ \item \emph{Il y a un compromis à faire entre équitée et MIA.}
+ \begin{itemize}
+ \item \textit{On the Privacy Risks of Algorithmic Fairness},
+ Hongyan Chang and Reza Shokri, 2021.
+ \item \textit{Differential Privacy Has Disparate Impact on Model Accuracy}, Eugene Bagdasaryan and Cornell Tech and Omid Poursaeed and Cornell Tech and Vitaly Shmatikov, 2019.
+ \end{itemize}
+ \pause
+ \item \emph{L'équitée et l'AIA présentent des similariées.}
+ \begin{itemize}
+ \item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
+ \end{itemize}
+ \end{itemize}
+\end{frame}
+
+\begin{frame}
+ \frametitle{Intuition}
+ \begin{figure}
+ \begin{subfigure}{0.4\textwidth}
+ \includegraphics[width=150px]{images/figures/before.pdf}
+ \caption{Avant rééquilibrage adverse\textsuperscript{1}}
+ \end{subfigure}
+ \begin{subfigure}{0.4\textwidth}
+ \includegraphics[width=150px]{images/figures/after.pdf}
+ \caption{Après rééquilibrage adverse}
+ \end{subfigure}
+ \end{figure}
+ \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
+
+ \vspace{50px}
+ \footnotesize
+ \textsuperscript{1}\textit{Adversarial debiasing}
+\end{frame}