diff options
author | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-10-05 19:25:34 +0200 |
---|---|---|
committer | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-10-05 19:25:34 +0200 |
commit | 411624f6f259084641deb92f20d512908c8b7d4f (patch) | |
tree | c25c1ce9afbb9252217a45deb76b3e63ae648ab9 /background/eq.tex | |
parent | d4021e6f8a0bf771b755d39da8515266ef75e667 (diff) |
Correction maman
Diffstat (limited to 'background/eq.tex')
-rw-r--r-- | background/eq.tex | 12 |
1 files changed, 6 insertions, 6 deletions
diff --git a/background/eq.tex b/background/eq.tex index b8e431f..64f3de3 100644 --- a/background/eq.tex +++ b/background/eq.tex @@ -8,7 +8,7 @@ Ces biais sont appris par le modèle car ils sont présents dans les données d' Nous représentons sur la Figure~\ref{fig:background-eq-logi} comment une régression logistique peut présenter une différence de traitement entre deux sous-groupes de la population. Nous observons que comme il y a moins de données de femmes, le modèle a appris une courbe qui se rapproche plus des données d'hommes. Comme le seuil de ce modèle est situé à $0,5$, nous voyons que tous les points rouges qui correspondent aux femmes passent au dessus du seuil représenté par la ligne horizontale grise. -Ainsi, bien que les étiquettes soient réparties équitablement chez les hommes et chez les femmes, le modèle classifie toutes les femme dans la classe 1. +Ainsi, bien que les étiquettes soient réparties équitablement chez les hommes et chez les femmes, le modèle classifie toutes les femmes dans la classe 1. Il s'agit ici d'un cas scolaire sur des données générées mais supposons que la classe 1 soit désavantageuse. Par exemple, imaginons que ce modèle soit utilisé dans un programme de recrutement automatique. La classe 0 implique que le candidat est sélectionné, la classe 1 implique que le candidat est rejeté. @@ -40,13 +40,13 @@ Alors ce programme serait discriminatoire car bien que 50\% des femmes et 50\% d \subsubsection{Définitions de l'équité} L'équité en apprentissage automatique se présente sous deux aspects qui mettent en lumière deux visions différentes : -\textbf{L'équité individuelle}\footnote{Individual fairness} +\textbf{L'équité individuelle}\footnote{\textit{Individual fairness}} cherche à faire en sorte que deux données, à toutes choses égales, excepté l'attribut sensible, produisent la même prédiction. -\textbf{L'équité de groupe}\footnote{Group fairness} +\textbf{L'équité de groupe}\footnote{\textit{Group fairness}} vient de l'idée que différents sous-groupes définis par un critère de discrimination devraient être traités de manière similaire. Il y a différentes définitions mathématiques de l'équité de groupe. -Nous allons en regarder trois qui sont bien établies dans la littérature et souvent utilisées : l'effet différencié\footnote{disparate impact} la parité démographique\footnote{Demographic parity} et l'équité des chances\footnote{Equality of odds}. +Nous allons en regarder trois qui sont bien établies dans la littérature et souvent utilisées : l'effet différencié\footnote{\textit{disparate impact}} la parité démographique\footnote{\textit{Demographic parity}} et l'équité des chances\footnote{\textit{Equality of odds}}. Pour cela nous allons considérer le cadre suivant : Nous avons un classifieur modélisé par une variable aléatoire $\hat{Y}$ qui essaie d'inférer l'étiquette $Y$. @@ -62,7 +62,7 @@ De plus, nous avons l'attribut sensible modélisé par $S$ qui prend ses valeurs Cette notion ne fonctionne que pour $F=G=\{0,1\}$. \end{definition} -Cette définition est utilisé aux États-Unis pour montrer qu'une structure a une politique discriminatoire à l'encontre d'une minorité, comme nous l'avons vu à la Section~\ref{sec:contexte-legal}. +Cette définition est utilisée aux États-Unis pour montrer qu'une structure a une politique discriminatoire à l'encontre d'une minorité, comme nous l'avons vu à la Section~\ref{sec:contexte-legal}. \begin{definition} \label{def:background-eq-dp} @@ -79,7 +79,7 @@ Pour certaines applications cet effet n'est pas souhaitable. Ainsi Hardt et al.~\cite{fairmetric2} proposent de modifier la parité démographique pour prendre en compte l'étiquette, ce qui donne la définition suivante : \begin{definition} \label{def:background-eq-eoo} - $\hat{Y}$ satisfait l'équité des chances pour $S$ si et seulement si : $\forall (\hat{y},y,s_1,s_2)\in E\times E\times G\times G \quad + $\hat{Y}$ satisfait l'\emph{équité des chances} pour $S$ si et seulement si : $\forall (\hat{y},y,s_1,s_2)\in E\times E\times G\times G \quad P(\hat{Y}=\hat{y} | S=s_1,Y=y) = P(\hat{Y}=\hat{y} | S=s_2,Y=y)$. \end{definition} |