summaryrefslogtreecommitdiff
path: root/background
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-09-13 00:07:42 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-09-13 00:07:42 +0200
commitfaa07a8f3337c5d191597ea9b9587cc0969d663c (patch)
treea46440db847ce447917abecb7971d90db4a1f150 /background
parent7fc151d6a198d13dc9e1374522ec396d72905d3f (diff)
avnacé aia, remerciement notations, notes
Diffstat (limited to 'background')
-rw-r--r--background/eq.tex30
1 files changed, 16 insertions, 14 deletions
diff --git a/background/eq.tex b/background/eq.tex
index 8a76ee7..446ad95 100644
--- a/background/eq.tex
+++ b/background/eq.tex
@@ -1,22 +1,24 @@
\label{sec:bck_fair}
-Algorithmic fairness aims at reducing biases in ML model predictions.
-Indeed, data records belonging to certain subgroups influence $targetmodel$'s predictions more than others.
-For instance in criminal justice, the ethnicity of a culprit plays a non-negligible role in the prediction of them reoffending~\cite{fairjustice}. Generally, data records in the minority subgroup face unfair prediction behaviour compared to data records in the majority subgroup. These subgroups are identified based on a sensitive attribute (e.g., race or sex).
-Those biases are learnt by $targetmodel$ as they are part of the distribution of the training dataset.
-There is two main categories of fairness of a ML model:
+L'équitée algorithmique à pour but de réduire les bias dans le modèle prédictif.
+En effet, le fait qu'une donnée d'entraînement appratienne à certainne minorité peut avoir un impacte sur la qualitée de la prédiction.
+Par exemple en justice prédictie, la couleur de peau d'un peau d'un coupable jou un rôle qui n'est pas négligable dans la prédiction du récidivisme au Etats Unis~\cite{fairjustice}.
+Les minoritée sont identifié par un attribut sensible comme la couleur de peau, le genre ou l'orientation sexuelle.
+Pour savoir si un attribut est sensible ou non, nous pouvons nous référer à l'observatoire de inégalités.
+Ces bias sont appris par le modèle car ils sont présent dans les donnés d'entraînement qui reflète la population dans laquelle ces donnée ont été prélevés.
-\textbf{Individual fairness} ensures that two data records with same attributes except for $S$ have the same model prediction.
-This notion does not dwell on sensitive attribute and as such is not really useful in our goal of mitigating attribute inference attack at inference time.
-So we set it aside for the rest of the paper.
+L'équitée en apprantissag automatique se présente sous deux aspect qui mettent lumière deux visions différentes :
-\textbf{Group fairness} comes from the idea that different subgroups defined by an attribute such a skin color or gender should be treated equally.
-We focus our study on group fairness where $S$ represents either sex or race (i.e., $S(i)$ equals to 0 for woman, 1 for man, and 0 for black, 1 for white, respectively).
-There are different definitions of group fairness which have been introduced in prior work.
-We discuss two well-established and commonly used metrics: demographic parity and equality of odds.
+\textbf{L'équitée individuelle}\footnote{Individual fairness}
+cherche à faire en sorte que deux donnée, à toutes choses égale exepté l'attribut sensible, produisent la même prédiction.
+
+\textbf{L'équitée de groupe}\footnote{Group fairness}
+Vient de l'idée que different sous groupes défini par un critère de discrimination devrait être traite de manière similaire.
+Il y a différentes définitions mathématiques de l'équite de groupe.
+Nous allons en regarder deux qui sont bien établis dans la litérature et souvant utilisé : la paritée demographique\footnote{Demographic parity} et l'équitée de chances\footnote{Equality of odds}.
\begin{definition}
-\label{def:dp}
+\label{def:background-eq-dp}
$\hat{Y}$ satisfies demparity for $S$ if and only if: $P(\hat{Y}=0 | S=0) = P(\hat{Y}=0 | S=1)$.
From that, we will call $|P(\hat{Y}=0 | S=0) - P(\hat{Y}=0 | S=1)|$ the demPar-level of $\hat{Y}$.
\end{definition}
@@ -28,7 +30,7 @@ However, this may result in different false positive and true positive rates if
Hardt et al.~\cite{fairmetric2} proposed eo as a modification of demparity to ensure that both the true positive rate and false positive rate will be the same for each population.
\begin{definition}
- \label{def:eo}
+ \label{def:background-eq-eoo}
$\hat{Y}$, classifier of $Y$, satisfies equality of odds for $S$ if and only if: $\forall (\hat{y},y)\in\{0,1\}^2 \quad
P(\hat{Y}=\hat{y} | S=0,Y=y) = P(\hat{Y}=\hat{y} | S=1,Y=y)$.
\end{definition}