diff options
Diffstat (limited to 'backup.tex')
-rw-r--r-- | backup.tex | 122 |
1 files changed, 122 insertions, 0 deletions
@@ -104,3 +104,125 @@ \caption{Recensement USA (ADULT). Prédiction du salaire ($>\$50K$).} \end{figure} \end{frame} + +{ + \usebackgroundtemplate{\includegraphics[width=\paperwidth]{images/background/card/background.pdf}} +\begin{frame} + %\vspace{70px} + \hspace{70px} + \begin{minipage}{250px} + \centering + \Large + \textcolor{accent}{ + Autre notion d'équité + } + \end{minipage} +\end{frame} +} + +\begin{frame} + \frametitle{Définitions de l'équité} + \begin{definition}[Equité de chances\footnote{\textit{Equality of odds}}] + \begin{align*} + \forall (y,\hat{y},s_0,s_1)\in F\times F\times G\times G\\ + P(f\circ X=\hat{y}\mid Y=y\wedge S=s_0)= + P(f\circ X=\hat{y}\mid Y=y\wedge S=s_1) + \end{align*} + \end{definition} + \begin{definition}[Effet différencié\footnote{\textit{Disparate impact}}] + \begin{equation*} + \frac{P(f\circ X=Y\mid S=0)}{P(f\circ X=Y\mid S=1)} + \end{equation*} + \end{definition} +\end{frame} +\begin{frame} + \frametitle{L'équité des chances ne protège pas contre l'AIA prédiction} + \begin{table} + \begin{tabular}{|c|c|c|c|} + \hline + $y$ & $s$ & $\hat{y}$ & $a$\\ + \hline + 0 & 0 & 0 & 0\\ + \hline + 1 & 0 & 0 & 0\\ + \hline + 0 & 1 & 1 & 1\\ + \hline + 1 & 1 & 1 & 1\\ + \hline + \end{tabular} + \caption{L'attaque $a$ infère l'attribut sensible avec $100\%$ d'exactitude alors que le modèle $\hat{Y}$ satisfait l'équité des chances.} + \end{table} +\end{frame} +\begin{frame} + \frametitle{L'équité classique ne protège pas contre l'AIA logit} + \begin{table} + \begin{tabular}{|c|c|c|c|c|c|c|} + \hline + $x$ & $y$ & $s$ & $f(x)=1-x$ & $\hat{y}$ & $a(x)=1-|0,5-t(x)|$ & $\hat{s}$ $(\tau=0,65)$\\ + \hline + 0,1 & 1&1&0,9&1&0,6&1\\ + \hline + 0,2&1&0&0,8&1&0,7&0\\ + \hline + 0,8&0&0&0,2&0&0,7&0\\ + \hline + 0,9&0&1&0,1&0&0,6&1\\ + \hline + \end{tabular} + \caption{Base de données et formule explicite pour le modèle cible $f$ et l'attaque $a$} + \end{table} + \begin{align*} + P(\hat{Y}=0|S=1,Y=0) = P(\hat{Y}=0|S=0,Y=0) = 1\\ + P(\hat{Y}=1|S=1,Y=0) = P(\hat{Y}=1|S=0,Y=0) = 0\\ + P(\hat{Y}=0|S=1,Y=1) = P(\hat{Y}=0|S=0,Y=1) = 0\\ + P(\hat{Y}=1|S=1,Y=1) = P(\hat{Y}=1|S=0,Y=1) = 1\\ + \end{align*} +\end{frame} + +{ + \usebackgroundtemplate{\includegraphics[width=\paperwidth]{images/background/card/background.pdf}} +\begin{frame} + %\vspace{70px} + \hspace{70px} + \begin{minipage}{250px} + \centering + \Large + \textcolor{accent}{ + Espaces métriques informationnels + } + \end{minipage} +\end{frame} +} +\begin{frame} + \frametitle{Notions de distance sur les lois de probabilité} + \begin{definition}[Divergence de Kullback-Leibler] + \begin{equation*} + D_{KL}(P_{f\circ X}~||~P_Y) = + \int_{y\in F} + \text{log}\left( + \frac{P_{f\circ X}(dy)}{P_Y(dy)} + \right) + P_{f\circ X}(dy) + \end{equation*} + Où $s(\square) = \frac{P_{f\circ X}(\square)}{P_Y(\square)}$, la dérivée de Radon-Nikodym, est une fonction mesurable telle que + \begin{equation*} + \forall A\in\mathcal{F}P_{f\circ X}(A) = + \int_AsdP_Y + \end{equation*} + \end{definition} +\end{frame} + +\begin{frame} + \frametitle{Information mutuelle} + \begin{definition}[Information mutuelle] + \begin{equation*} + I(X;Y) = D_{KL}\left(P_{(X,Y)}~||~P_X\otimes P_Y\right) + \end{equation*} + \end{definition} + \begin{propriete}[Inégalité du traitement des données] + \begin{equation*} + I(X;Y)\geq I(f\circ X;Y) + \end{equation*} + \end{propriete} +\end{frame} |