\begin{frame} \frametitle{Modélisation} On se donne $(\Omega,\mathcal{T},P)$ un espace probabilisé. Ainsi que $(E,\mathcal{E})$, $(F,\mathcal{G})$ et $(G,\mathcal{G})$ des espaces mesurables. \begin{itemize} \item $X:(\Omega,\mathcal{T})\rightarrow (E,\mathcal{E})$ Les données d'entrée \item $Y:(\Omega,\mathcal{T})\rightarrow (F,\mathcal{F})$ Les étiquettes \item $S:(\Omega,\mathcal{T})\rightarrow (G,\mathcal{G})$ L'attribut sensible \item $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ Le modèle d'apprentissag automatique \item $\hat{Y}=f\circ X$ La sortie (prédiction, logit, etc.) \end{itemize} \end{frame} \begin{frame} \frametitle{Evaluation des modèles} \begin{definition}[Exactitude\footnote{\textit{Accuracy}}] \begin{equation*} P(f\circ X=Y) \end{equation*} \end{definition} \pause \begin{definition}[Exactitude équilibrée\footnote{\textit{Balanced accuracy}}] \begin{equation*} \frac{1}{\#F}\sum_{i\in F}P(f\circ X=i\mid Y=i) \end{equation*} \end{definition} \end{frame} \begin{frame} \frametitle{Equitée des modèles} \begin{definition} \label{def:background-eq-dp} $\hat{Y}$ satisfait la \emph{parité démographique} pour $S$ si et seulement si : $\forall (y,s_1,s_2)\in F\times G\times G~P(\hat{Y}=y | S=s_1) = P(\hat{Y}=y | S=s_2)$. \end{definition} \pause \begin{definition} \label{def:background-eq-eoo} $\hat{Y}$ satisfait l'\emph{équité des chances} pour $S$ si et seulement si : $\forall (\hat{y},y,s_1,s_2)\in E\times E\times G\times G \quad P(\hat{Y}=\hat{y} | S=s_1,Y=y) = P(\hat{Y}=\hat{y} | S=s_2,Y=y)$. \end{definition} \end{frame} \begin{frame} \frametitle{Imposer l'équitée} \emph{L'algorithme d'entraînement peut être modifié pour imposer l'équitée au modèle finale.} \begin{itemize} \item \textit{FairGrad: Fairness Aware Gradient Descent}, Gaurav Maheshwari and Michaël Perrot, 2022. \item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018. \item \textit{Deep Learning with Differential Privacy}, Martín Abadi and Andy Chu and Ian Goodfellow, 2016. \end{itemize} \end{frame} \begin{frame} \frametitle{Confidentialité : Inférence de l'appartenance (MIA)} \input{tikz/attack_mia} \end{frame} \begin{frame} \frametitle{Confidentialité : Inférence d'un attribut sensible (AIA)} \input{tikz/attack} \end{frame} \begin{frame} \frametitle{Pourquoi se concentrer sur ces deux enjeux ?} \begin{itemize} \item Deux notions liées théoriquement. \pause \item Deux notions capitales pour tous les aspects de l'IA. \pause \item La confidentialité est surtout étudiée sous l'angle de la MIA. \end{itemize} \end{frame} \begin{frame} \frametitle{Confidentialtié différentielle} \begin{definition}[$\varepsilon,\delta$-DP] Soit $\mathcal{D}$ un ensemble avec la relation $\sim$. Soit $M$ une fonction sur $\mathcal{D}$. On dit que $M$ satisfait $\varepsilon,\delta$-DP si et seulement si \begin{equation} \forall D\in\mathcal{D}~\forall D\in[D]_\sim~ P(M(D)\in S)\leq e^{\varepsilon}P(M(D')\in S)+\delta \end{equation} \end{definition} \end{frame} \begin{frame} \frametitle{Intersection entre confidentialité et equitée} \begin{itemize} \item \emph{Il y a un compromis à faire entre équitée et MIA.} \begin{itemize} \item \textit{On the Privacy Risks of Algorithmic Fairness}, Hongyan Chang and Reza Shokri, 2021. \item \textit{Differential Privacy Has Disparate Impact on Model Accuracy}, Eugene Bagdasaryan and Cornell Tech and Omid Poursaeed and Cornell Tech and Vitaly Shmatikov, 2019. \end{itemize} \pause \item \emph{L'équitée et l'AIA présentent des similariées.} \begin{itemize} \item \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018. \end{itemize} \end{itemize} \end{frame} \begin{frame} \frametitle{Intuition} \begin{figure} \begin{subfigure}{0.4\textwidth} \includegraphics[width=150px]{images/figures/before.pdf} \caption{Avant rééquilibrage adverse\textsuperscript{1}} \end{subfigure} \begin{subfigure}{0.4\textwidth} \includegraphics[width=150px]{images/figures/after.pdf} \caption{Après rééquilibrage adverse} \end{subfigure} \end{figure} \textit{Mitigating Unwanted Biases with Adversarial Learning}, Brian Hu Zhang and Blake Lemoine and Margaret Mitchell, 2018. \vspace{50px} \footnotesize \textsuperscript{1}\textit{Adversarial debiasing} \end{frame}