blob: 6440f11659f3d2c299fa72dfc70d4ecee8c24aad (
plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
|
Comme au chapitre précédent, la confidentialité des données synthétiques est souvent considérée du point de vue suivant : à partir des données synthétiques, que pouvons nous apprendre des données réelles ?
Pour cela, la confidentialité différentielle permet une protection très forte, plus forte que d'autres notions de confidentialité, comme par exemple la limitation des fuites statistiques\footnote{\textit{Statistical disclosure limitation}}~\cite{abowd2008protective}.
Il existe ainsi des méthodes pour imposer la confidentialité différentielle dans les GAN~\cite{jordon2018pate} et dans les auto-encodeurs~\cite{abay2019privacy}.
Nous présentons dans ce chapitre un début de travail sur les liens entre données synthétiques et AIA.
Nous allons déjà étudier la MIA en utilisant des données synthétiques.
Ensuite, nous allons regarder l'impact de l'utilisation des données synthétiques lors de l'entraînement sur le succès de l'AIA.
\input{synthetic/related}
Nous nous plaçons une étape après dans la vie des données synthétiques, c'est-à-dire au moment de l'utilisation de ces données pour l'entraînement de modèles.
Nous apportons donc ici des premiers éléments de réponse à la question suivante :
quel est l'impact sur la confidentialité de l'utilisation des données synthétiques au lieu de données réelles, lors de l'entraînement de modèles ?
|