blob: aef5944de46c33513b0c3903c60f0d0b6a455cf1 (
plain)
1
2
3
4
5
6
7
8
|
Comme nous l'avons vu à la Section~\ref{sec:contexte-enjeu} la confidentialité et l'équité sont deux enjeux capitaux de l'IA.
Ces deux aspects doivent être présent pour que l'IA puisse être utilisé de manière morale.
Cela est vrai aussi bien pour les produits utilisé directement par les utilisateurs que pour les modèles utilisés dans les outils institutionnels.
L'équité et la confidentialité sont deux notions très liés théoriquement qui sont grandement étudiés~\cite{fioretto2022differential}.
Ces travaux se concentrent sur la confidentialité du point de vue de la MIA et montrent qu'il est impossible d'atteindre à la fois la confidentialité différentielle et l'équité de groupe sans perdre toute utilité~\cite{cummings2019compatibility}.
Dans ce manuscrit nous allons nous pencher sur une autre notion de confidentialité : l'inférence d'un attribut sensible (AIA) et nous allons étudier son intersection avec l'équité de groupe.
Cette intersection à été très peu étudié, ainsi je propose un développement théorique nouveau qui montre formellement que la parité démographique est bénéfique pour la confidentialité d'un attribut sensible.
Cette contribution vient donc compléter un aspect manquant de la littérature sur la compatibilité entre équité et confidentialité.
|