summaryrefslogtreecommitdiff
path: root/aia/<
diff options
context:
space:
mode:
Diffstat (limited to 'aia/<')
-rw-r--r--aia/<14
1 files changed, 14 insertions, 0 deletions
diff --git a/aia/< b/aia/<
new file mode 100644
index 0000000..9b2b48a
--- /dev/null
+++ b/aia/<
@@ -0,0 +1,14 @@
+Nous avons vu à la Section~\ref{} que, pour imposer l'équitée à un modèle, nous pouvons utiliser différentes méthodes qui agissent lors de l'entraînement.
+Utiliser ces méthodes peut causer une augmentation de certain risque liée à la confidentialité des donnée d'entraînement, ainsi il est admis qu'il y ai un compromis à faire enre equitée et confidentialitée~\cite{dudu2023sok}.
+Cependant ce compromis ne concerne que les risquées liée aux attaque de MIA et rentre en coflit avec la confidentialité diférentielles~\cite{chang2021privacy,cummings,ijcai2022p766}.
+
+Dans ce chapitre nous allons étudier les intéractions entre ces mécanismes d'équitée et l'attaque AIA.
+Nous allons montrer que sous cet angle, l'équitée et la confidentialitée travailent de concert.
+Cette étude peut être vue sous deux angles.
+Le premier aspect consiste à étudier comment les mécanisme d'équitée peuvent être utilisé pour mitiger différent types d'AIA.
+Le second aspect, en lien avec le primer, est d'utiliser les AIA pour contrôler dans un environement boîte noire le niveau d'équitée d'un modèle.
+
+\subsection{Contributions}
+Dans ce chaptre nous apportons les contributions suivante :
+\begin{itemize}
+ \itme