summaryrefslogtreecommitdiff
path: root/aia/<
blob: 9b2b48a0651a9f05f60e39bb142e6a374402a06a (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Nous avons vu à la Section~\ref{} que, pour imposer l'équitée à un modèle, nous pouvons utiliser différentes méthodes qui agissent lors de l'entraînement.
Utiliser ces méthodes peut causer une augmentation de certain risque liée à la confidentialité des donnée d'entraînement, ainsi il est admis qu'il y ai un compromis à faire enre equitée et confidentialitée~\cite{dudu2023sok}.
Cependant ce compromis ne concerne que les risquées liée aux attaque de MIA et rentre en coflit avec la confidentialité diférentielles~\cite{chang2021privacy,cummings,ijcai2022p766}.

Dans ce chapitre nous allons étudier les intéractions entre ces mécanismes d'équitée et l'attaque AIA.
Nous allons montrer que sous cet angle, l'équitée et la confidentialitée travailent de concert.
Cette étude peut être vue sous deux angles.
Le premier aspect consiste à étudier comment les mécanisme d'équitée peuvent être utilisé pour mitiger différent types d'AIA.
Le second aspect, en lien avec le primer, est d'utiliser les AIA pour contrôler dans un environement boîte noire le niveau d'équitée d'un modèle.

\subsection{Contributions}
Dans ce chaptre nous apportons les contributions suivante :
\begin{itemize}
    \itme