summaryrefslogtreecommitdiff
path: root/background.tex
blob: 05b96b3ad74453c731f3bed68c9434975fbafa26 (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
\begin{frame}
    \frametitle{Modélisation}
    On se donne $(\Omega,\mathcal{T},P)$ un espace probabilisé.
    Ainsi que 
    $(E,\mathcal{E})$,
    $(F,\mathcal{G})$ et 
    $(G,\mathcal{G})$
    des espaces mesurables.
    \begin{itemize}
        \item $X:(\Omega,\mathcal{T})\rightarrow (E,\mathcal{E})$ Les données d'entrée 
        \item $Y:(\Omega,\mathcal{T})\rightarrow (F,\mathcal{F})$ Les étiquettes
        \item $S:(\Omega,\mathcal{T})\rightarrow (G,\mathcal{G})$ L'attribut sensible
        \item $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ Le modèle d'apprentissag automatique
        \item $\hat{Y}=f\circ X$ La sortie (prédiction, logit, etc.)
    \end{itemize}
\end{frame}
\begin{frame}
    \frametitle{Evaluation des modèles}
    \begin{definition}[Exactitude\footnote{\textit{Accuracy}}]
        \begin{equation*}
            P(f\circ X=Y)
        \end{equation*}
    \end{definition}
    \pause
    \begin{definition}[Exactitude équilibrée\footnote{\textit{Balanced accuracy}}]
        \begin{equation*}
            \frac{1}{\#F}\sum_{i\in F}P(f\circ X=i\mid Y=i)
        \end{equation*}
    \end{definition}
\end{frame}
\begin{frame}
    \frametitle{Equitée des modèles}
    \begin{definition}
    \label{def:background-eq-dp}
        $\hat{Y}$ satisfait la \emph{parité démographique} pour $S$ si et seulement si : $\forall (y,s_1,s_2)\in F\times G\times G~P(\hat{Y}=y | S=s_1) = P(\hat{Y}=y | S=s_2)$.
    \end{definition}
    \pause
    \begin{definition}
        \label{def:background-eq-eoo}
        $\hat{Y}$ satisfait l'\emph{équité des chances} pour $S$ si et seulement si : $\forall (\hat{y},y,s_1,s_2)\in E\times E\times G\times G \quad 
            P(\hat{Y}=\hat{y} | S=s_1,Y=y) = P(\hat{Y}=\hat{y} | S=s_2,Y=y)$.
    \end{definition}
\end{frame}

\begin{frame}
    \frametitle{Imposer l'équitée}
    \emph{L'algorithme d'entraînement peut être modifié pour imposer l'équitée au modèle finale.}
    \begin{itemize}
        \item \textit{FairGrad: Fairness Aware Gradient Descent}, Gaurav Maheshwari and Michaël Perrot, 2022.
        \item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
        \item \textit{Deep Learning with Differential Privacy},
             Martín Abadi and Andy Chu and Ian Goodfellow, 2016.
    \end{itemize}
\end{frame}

\begin{frame}
    \frametitle{Confidentialité : Inférence de l'appartenance (MIA)}
    \input{tikz/attack_mia}
\end{frame}
\begin{frame}
    \frametitle{Confidentialité : Inférence d'un attribut sensible (AIA)}
    \input{tikz/attack}
\end{frame}
\begin{frame}
    \frametitle{Pourquoi se concentrer sur ces deux enjeux ?}
    \begin{itemize}
        \item Deux notions liées théoriquement.
            \pause
        \item Deux notions capitales pour tous les aspects de l'IA.
            \pause
        \item La confidentialité est surtout étudiée sous l'angle de la MIA.
    \end{itemize}
\end{frame}

\begin{frame}
    \frametitle{Confidentialtié différentielle}
    \begin{definition}[$\varepsilon,\delta$-DP]
        Soit $\mathcal{D}$ un ensemble avec la relation $\sim$.
        Soit $M$ une fonction sur $\mathcal{D}$.
        On dit que $M$ satisfait $\varepsilon,\delta$-DP si et seulement si

        \begin{equation}
            \forall D\in\mathcal{D}~\forall D\in[D]_\sim~
            P(M(D)\in S)\leq e^{\varepsilon}P(M(D')\in S)+\delta
        \end{equation}
    \end{definition}
\end{frame}

\begin{frame}
    \frametitle{Intersection entre confidentialité et equitée}
    \begin{itemize}
        \item  \emph{Il y a un compromis à faire entre équitée et MIA.}
            \begin{itemize}
                \item \textit{On the Privacy Risks of Algorithmic Fairness},
                Hongyan Chang and Reza Shokri, 2021.
                \item \textit{Differential Privacy Has Disparate Impact on Model Accuracy}, Eugene Bagdasaryan and Cornell Tech and Omid Poursaeed and Cornell Tech and Vitaly Shmatikov, 2019.
            \end{itemize}
        \pause
        \item \emph{L'équitée et l'AIA présentent des similariées.}
            \begin{itemize}
                \item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
            \end{itemize}
    \end{itemize}
\end{frame}

\begin{frame}
    \frametitle{Intuition}
    \begin{figure}
        \begin{subfigure}{0.4\textwidth}
            \includegraphics[width=150px]{images/figures/before.pdf}
            \caption{Avant rééquilibrage adverse\textsuperscript{1}}
        \end{subfigure}
        \begin{subfigure}{0.4\textwidth}
            \includegraphics[width=150px]{images/figures/after.pdf}
            \caption{Après rééquilibrage adverse}
        \end{subfigure}
    \end{figure}
    \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.

    \vspace{50px} 
    \footnotesize
    \textsuperscript{1}\textit{Adversarial debiasing}
\end{frame}