blob: a2574ccf5a23a6f8aa960dd05b5cc396f3af2da6 (
plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
Dans ce premier chapitre de contribution, nous allons construire un nouvel algorithme d'apprentissage ensembliste.
Plus précisément nous allons nous intéresser à la manière de combiner plusieurs classifieurs : ce que nous avons appelé la seconde partie de la vie d'un algorithme d'apprentissage ensembliste à la Section~\ref{sec:background-aens}.
Nous allons construire une solution similaire à celle de l'espace de connaissances du comportement\footnote{\textit{Behavior knowledge space}}~\cite{1626170} sauf qu'au lieu d'optimiser l'exactitude nous allons optimiser l'exactitude équilibrée.
Ce nouvel algorithme nous permettra aux prochains chapitres d'étudier l'attaque par inférence d'attribut sensible.
Dans cette attaque nous utilisons la sortie d'un modèle de classification pour inférer un attribut sensible.
En effet, l'ensemble des classes de sorties possibles est fini tout comme l'ensemble des attributs sensibles possibles.
Pour construire cet algorithme nous allons considérer que nous cherchons une fonction d'un ensemble fini $E$ vers un autre $F$.
$E$ correspond à l'ensemble des uplets possibles des sorties des classifieurs faibles et $F$ aux classes.
Nous commençons notre étude en considérant que nous avons une base de données ayant deux colonnes.
L'une contient des éléments de $E$ et l'autre contient des étiquettes de $F$.
Une solution évidente est d'essayer toutes les fonctions possibles de $E$ dans $F$ mais cela n'est pas possible pour de grands ensembles.
Ainsi nous allons chercher un solution qui soit économe en nombre d'opérations.
|