From 8ac6727e8be12f5c54c17f8aff305a6dd71071f6 Mon Sep 17 00:00:00 2001 From: Jan Aalmoes Date: Sat, 21 Sep 2024 18:02:32 +0200 Subject: mauvais non de fichier '<' --- aia/< | 14 -------------- 1 file changed, 14 deletions(-) delete mode 100644 aia/< (limited to 'aia') diff --git a/aia/< b/aia/< deleted file mode 100644 index 9b2b48a..0000000 --- a/aia/< +++ /dev/null @@ -1,14 +0,0 @@ -Nous avons vu à la Section~\ref{} que, pour imposer l'équitée à un modèle, nous pouvons utiliser différentes méthodes qui agissent lors de l'entraînement. -Utiliser ces méthodes peut causer une augmentation de certain risque liée à la confidentialité des donnée d'entraînement, ainsi il est admis qu'il y ai un compromis à faire enre equitée et confidentialitée~\cite{dudu2023sok}. -Cependant ce compromis ne concerne que les risquées liée aux attaque de MIA et rentre en coflit avec la confidentialité diférentielles~\cite{chang2021privacy,cummings,ijcai2022p766}. - -Dans ce chapitre nous allons étudier les intéractions entre ces mécanismes d'équitée et l'attaque AIA. -Nous allons montrer que sous cet angle, l'équitée et la confidentialitée travailent de concert. -Cette étude peut être vue sous deux angles. -Le premier aspect consiste à étudier comment les mécanisme d'équitée peuvent être utilisé pour mitiger différent types d'AIA. -Le second aspect, en lien avec le primer, est d'utiliser les AIA pour contrôler dans un environement boîte noire le niveau d'équitée d'un modèle. - -\subsection{Contributions} -Dans ce chaptre nous apportons les contributions suivante : -\begin{itemize} - \itme -- cgit v1.2.3