diff options
author | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-09-21 18:02:32 +0200 |
---|---|---|
committer | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-09-21 18:02:32 +0200 |
commit | 8ac6727e8be12f5c54c17f8aff305a6dd71071f6 (patch) | |
tree | 98c7a8cd5a614a1ff3b667e0e97b592ce79b21aa | |
parent | b8504c330be30ccf771d6745a34f395a83395ea5 (diff) |
mauvais non de fichier '<'
-rw-r--r-- | aia/< | 14 |
1 files changed, 0 insertions, 14 deletions
@@ -1,14 +0,0 @@ -Nous avons vu à la Section~\ref{} que, pour imposer l'équitée à un modèle, nous pouvons utiliser différentes méthodes qui agissent lors de l'entraînement. -Utiliser ces méthodes peut causer une augmentation de certain risque liée à la confidentialité des donnée d'entraînement, ainsi il est admis qu'il y ai un compromis à faire enre equitée et confidentialitée~\cite{dudu2023sok}. -Cependant ce compromis ne concerne que les risquées liée aux attaque de MIA et rentre en coflit avec la confidentialité diférentielles~\cite{chang2021privacy,cummings,ijcai2022p766}. - -Dans ce chapitre nous allons étudier les intéractions entre ces mécanismes d'équitée et l'attaque AIA. -Nous allons montrer que sous cet angle, l'équitée et la confidentialitée travailent de concert. -Cette étude peut être vue sous deux angles. -Le premier aspect consiste à étudier comment les mécanisme d'équitée peuvent être utilisé pour mitiger différent types d'AIA. -Le second aspect, en lien avec le primer, est d'utiliser les AIA pour contrôler dans un environement boîte noire le niveau d'équitée d'un modèle. - -\subsection{Contributions} -Dans ce chaptre nous apportons les contributions suivante : -\begin{itemize} - \itme |