From faa07a8f3337c5d191597ea9b9587cc0969d663c Mon Sep 17 00:00:00 2001 From: Jan Aalmoes Date: Fri, 13 Sep 2024 00:07:42 +0200 Subject: =?UTF-8?q?avnac=C3=A9=20aia,=20remerciement=20notations,=20notes?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- background/eq.tex | 30 ++++++++++++++++-------------- 1 file changed, 16 insertions(+), 14 deletions(-) (limited to 'background/eq.tex') diff --git a/background/eq.tex b/background/eq.tex index 8a76ee7..446ad95 100644 --- a/background/eq.tex +++ b/background/eq.tex @@ -1,22 +1,24 @@ \label{sec:bck_fair} -Algorithmic fairness aims at reducing biases in ML model predictions. -Indeed, data records belonging to certain subgroups influence $targetmodel$'s predictions more than others. -For instance in criminal justice, the ethnicity of a culprit plays a non-negligible role in the prediction of them reoffending~\cite{fairjustice}. Generally, data records in the minority subgroup face unfair prediction behaviour compared to data records in the majority subgroup. These subgroups are identified based on a sensitive attribute (e.g., race or sex). -Those biases are learnt by $targetmodel$ as they are part of the distribution of the training dataset. -There is two main categories of fairness of a ML model: +L'équitée algorithmique à pour but de réduire les bias dans le modèle prédictif. +En effet, le fait qu'une donnée d'entraînement appratienne à certainne minorité peut avoir un impacte sur la qualitée de la prédiction. +Par exemple en justice prédictie, la couleur de peau d'un peau d'un coupable jou un rôle qui n'est pas négligable dans la prédiction du récidivisme au Etats Unis~\cite{fairjustice}. +Les minoritée sont identifié par un attribut sensible comme la couleur de peau, le genre ou l'orientation sexuelle. +Pour savoir si un attribut est sensible ou non, nous pouvons nous référer à l'observatoire de inégalités. +Ces bias sont appris par le modèle car ils sont présent dans les donnés d'entraînement qui reflète la population dans laquelle ces donnée ont été prélevés. -\textbf{Individual fairness} ensures that two data records with same attributes except for $S$ have the same model prediction. -This notion does not dwell on sensitive attribute and as such is not really useful in our goal of mitigating attribute inference attack at inference time. -So we set it aside for the rest of the paper. +L'équitée en apprantissag automatique se présente sous deux aspect qui mettent lumière deux visions différentes : -\textbf{Group fairness} comes from the idea that different subgroups defined by an attribute such a skin color or gender should be treated equally. -We focus our study on group fairness where $S$ represents either sex or race (i.e., $S(i)$ equals to 0 for woman, 1 for man, and 0 for black, 1 for white, respectively). -There are different definitions of group fairness which have been introduced in prior work. -We discuss two well-established and commonly used metrics: demographic parity and equality of odds. +\textbf{L'équitée individuelle}\footnote{Individual fairness} +cherche à faire en sorte que deux donnée, à toutes choses égale exepté l'attribut sensible, produisent la même prédiction. + +\textbf{L'équitée de groupe}\footnote{Group fairness} +Vient de l'idée que different sous groupes défini par un critère de discrimination devrait être traite de manière similaire. +Il y a différentes définitions mathématiques de l'équite de groupe. +Nous allons en regarder deux qui sont bien établis dans la litérature et souvant utilisé : la paritée demographique\footnote{Demographic parity} et l'équitée de chances\footnote{Equality of odds}. \begin{definition} -\label{def:dp} +\label{def:background-eq-dp} $\hat{Y}$ satisfies demparity for $S$ if and only if: $P(\hat{Y}=0 | S=0) = P(\hat{Y}=0 | S=1)$. From that, we will call $|P(\hat{Y}=0 | S=0) - P(\hat{Y}=0 | S=1)|$ the demPar-level of $\hat{Y}$. \end{definition} @@ -28,7 +30,7 @@ However, this may result in different false positive and true positive rates if Hardt et al.~\cite{fairmetric2} proposed eo as a modification of demparity to ensure that both the true positive rate and false positive rate will be the same for each population. \begin{definition} - \label{def:eo} + \label{def:background-eq-eoo} $\hat{Y}$, classifier of $Y$, satisfies equality of odds for $S$ if and only if: $\forall (\hat{y},y)\in\{0,1\}^2 \quad P(\hat{Y}=\hat{y} | S=0,Y=y) = P(\hat{Y}=\hat{y} | S=1,Y=y)$. \end{definition} -- cgit v1.2.3