\label{sec:bck_fair} L'équitée algorithmique à pour but de réduire les bias dans le modèle prédictif. En effet, le fait qu'une donnée d'entraînement appratienne à certainne minorité peut avoir un impacte sur la qualitée de la prédiction. Par exemple en justice prédictie, la couleur de peau d'un peau d'un coupable jou un rôle qui n'est pas négligable dans la prédiction du récidivisme au Etats Unis~\cite{fairjustice}. Les minoritée sont identifié par un attribut sensible comme la couleur de peau, le genre ou l'orientation sexuelle. Pour savoir si un attribut est sensible ou non, nous pouvons nous référer à l'observatoire de inégalités. Ces bias sont appris par le modèle car ils sont présent dans les donnés d'entraînement qui reflète la population dans laquelle ces donnée ont été prélevés. L'équitée en apprantissag automatique se présente sous deux aspect qui mettent lumière deux visions différentes : \textbf{L'équitée individuelle}\footnote{Individual fairness} cherche à faire en sorte que deux donnée, à toutes choses égale exepté l'attribut sensible, produisent la même prédiction. \textbf{L'équitée de groupe}\footnote{Group fairness} Vient de l'idée que different sous groupes défini par un critère de discrimination devrait être traite de manière similaire. Il y a différentes définitions mathématiques de l'équite de groupe. Nous allons en regarder deux qui sont bien établis dans la litérature et souvant utilisé : la paritée demographique\footnote{Demographic parity} et l'équitée de chances\footnote{Equality of odds}. \begin{definition} \label{def:background-eq-dp} $\hat{Y}$ satisfies demparity for $S$ if and only if: $P(\hat{Y}=0 | S=0) = P(\hat{Y}=0 | S=1)$. From that, we will call $|P(\hat{Y}=0 | S=0) - P(\hat{Y}=0 | S=1)|$ the demPar-level of $\hat{Y}$. \end{definition} demparity is the historical definition of fairness. Legally, disparate impact is the fairness definition recognized by law, where 80\% disparity is an agreed upon tolerance decided in the legal arena. demparity ensures that the number of correct prediction is the same for each population. However, this may result in different false positive and true positive rates if the true outcome does actually vary with $S$~\cite{dpbad}. Hardt et al.~\cite{fairmetric2} proposed eo as a modification of demparity to ensure that both the true positive rate and false positive rate will be the same for each population. \begin{definition} \label{def:background-eq-eoo} $\hat{Y}$, classifier of $Y$, satisfies equality of odds for $S$ if and only if: $\forall (\hat{y},y)\in\{0,1\}^2 \quad P(\hat{Y}=\hat{y} | S=0,Y=y) = P(\hat{Y}=\hat{y} | S=1,Y=y)$. \end{definition} The above fairness definitions can be achieved using three main fairness mechanisms: (a) pre-processing, (b) in-processing and (c) post-processing. \textit{Pre-processing} algorithms such as reweighing requires access to the training data and assigns weights to the data records to remove discrimination~\cite{preprocessing}. \textit{In-processing} algorithms such as advdebias~\cite{debiase} and egd~\cite{reductions} add constraint during $targetmodel$'s training to ensure fairness. %reductions \textit{Post-processing} techniques, in turn, hide the bias in output predictions to satisfy the above fairness constraints but the underlying model is still biased. Similar to previous work~\cite{chang2021privacy}, we focus on in-processing algorithms. Our work focuses on the theoretical guaranties on attribute inference attacks given by the different fairness notions and not so much on how to implement in-processing fairness mechanism. Nevertheless in the experiment section we try production ready state of the art implementations of those fairness constraints along unconstrained ML algorithm.