1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
|
\begin{frame}
\frametitle{Modélisation}
On se donne $(\Omega,\mathcal{T},P)$ un espace probabilisé.
Ainsi que
$(E,\mathcal{E})$,
$(F,\mathcal{G})$ et
$(G,\mathcal{G})$
des espaces mesurables.
\begin{itemize}
\item $X:(\Omega,\mathcal{T})\rightarrow (E,\mathcal{E})$ Les données d'entrée
\item $Y:(\Omega,\mathcal{T})\rightarrow (F,\mathcal{F})$ Les étiquettes
\item $S:(\Omega,\mathcal{T})\rightarrow (G,\mathcal{G})$ L'attribut sensible
\item $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ Le modèle d'apprentissag automatique
\item $\hat{Y}=f\circ X$ La sortie (prédiction, logit, etc.)
\end{itemize}
\end{frame}
\begin{frame}
\frametitle{Evaluation des modèles}
\begin{definition}[Exactitude\footnote{\textit{Accuracy}}]
\begin{equation*}
P(f\circ X=Y)
\end{equation*}
\end{definition}
\pause
\begin{definition}[Exactitude équilibrée\footnote{\textit{Balanced accuracy}}]
\begin{equation*}
\frac{1}{\#F}\sum_{i\in F}P(f\circ X=i\mid Y=i)
\end{equation*}
\end{definition}
\end{frame}
\begin{frame}
\frametitle{Equitée des modèles}
\begin{definition}
\label{def:background-eq-dp}
$\hat{Y}$ satisfait la \emph{parité démographique} pour $S$ si et seulement si : $\forall (y,s_1,s_2)\in F\times G\times G~P(\hat{Y}=y | S=s_1) = P(\hat{Y}=y | S=s_2)$.
\end{definition}
\pause
\begin{definition}
\label{def:background-eq-eoo}
$\hat{Y}$ satisfait l'\emph{équité des chances} pour $S$ si et seulement si : $\forall (\hat{y},y,s_1,s_2)\in E\times E\times G\times G \quad
P(\hat{Y}=\hat{y} | S=s_1,Y=y) = P(\hat{Y}=\hat{y} | S=s_2,Y=y)$.
\end{definition}
\end{frame}
\begin{frame}
\frametitle{Imposer l'équitée}
\emph{L'algorithme d'entraînement peut être modifié pour imposer l'équitée au modèle finale.}
\begin{itemize}
\item \textit{FairGrad: Fairness Aware Gradient Descent}, Gaurav Maheshwari and Michaël Perrot, 2022.
\item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
\item \textit{Deep Learning with Differential Privacy},
Martín Abadi and Andy Chu and Ian Goodfellow, 2016.
\end{itemize}
\end{frame}
\begin{frame}
\frametitle{Confidentialité : Inférence de l'appartenance (MIA)}
\input{tikz/attack_mia}
\end{frame}
\begin{frame}
\frametitle{Confidentialité : Inférence d'un attribut sensible (AIA)}
\input{tikz/attack}
\end{frame}
\begin{frame}
\frametitle{Two risk factors in model's output}
\begin{itemize}
\item \textcolor{accent}{Logit}
\begin{equation*}
f\circ X
\end{equation*}
Takes values in $[0,1]$.
\vspace{20px}
\item \textcolor{accent}{Prediction}
\begin{equation*}
1_{[\tau,1]}\circ f\circ X
\end{equation*}
Takes values in $\{0,1\}$.
\end{itemize}
\end{frame}
\begin{frame}
\frametitle{Pourquoi se concentrer sur ces deux enjeux ?}
\begin{itemize}
\item Deux notions liées théoriquement.
\pause
\item Deux notions capitales pour tous les aspects de l'IA.
\pause
\item La confidentialité est surtout étudiée sous l'angle de la MIA.
\end{itemize}
\end{frame}
\begin{frame}
\frametitle{Confidentialtié différentielle}
\begin{definition}[$\varepsilon,\delta$-DP]
Soit $\mathcal{D}$ un ensemble avec la relation $\sim$.
Soit $M$ une fonction sur $\mathcal{D}$.
On dit que $M$ satisfait $\varepsilon,\delta$-DP si et seulement si
\begin{equation}
\forall D\in\mathcal{D}~\forall D\in[D]_\sim~
P(M(D)\in S)\leq e^{\varepsilon}P(M(D')\in S)+\delta
\end{equation}
\end{definition}
\end{frame}
\begin{frame}
\frametitle{Intersection entre confidentialité et equitée}
\begin{itemize}
\item \emph{Il y a un compromis à faire entre équitée et MIA.}
\begin{itemize}
\item \textit{On the Privacy Risks of Algorithmic Fairness},
Hongyan Chang and Reza Shokri, 2021.
\item \textit{Differential Privacy Has Disparate Impact on Model Accuracy}, Eugene Bagdasaryan and Cornell Tech and Omid Poursaeed and Cornell Tech and Vitaly Shmatikov, 2019.
\end{itemize}
\pause
\item \emph{L'équitée et l'AIA présentent des similariées.}
\begin{itemize}
\item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}
\frametitle{Intuition}
\begin{figure}
\begin{subfigure}{0.4\textwidth}
\includegraphics[width=150px]{images/figures/before.pdf}
\caption{Avant rééquilibrage adverse\textsuperscript{1}}
\end{subfigure}
\begin{subfigure}{0.4\textwidth}
\includegraphics[width=150px]{images/figures/after.pdf}
\caption{Après rééquilibrage adverse}
\end{subfigure}
\end{figure}
\textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018.
\vspace{50px}
\footnotesize
\textsuperscript{1}\textit{Adversarial debiasing}
\end{frame}
|