summaryrefslogtreecommitdiff
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-10-18 13:02:58 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-10-18 13:02:58 +0200
commitd9346078140dbc187ba96f77b0e6ac17ab250aba (patch)
tree9677cdb19f5040b0165b194a461a95833f8c8e21
parent500798274122dab4da33818e3de2cdd5fbcefcca (diff)
intro
-rw-r--r--introduction.tex11
1 files changed, 7 insertions, 4 deletions
diff --git a/introduction.tex b/introduction.tex
index bbc2941..d67b0b0 100644
--- a/introduction.tex
+++ b/introduction.tex
@@ -4,22 +4,25 @@ Cette inéquité est étudiée à deux niveaux dans la littérature scientifique
L'équité individuelle cherche à s'assurer que les IA se comportent de la même manière à toutes choses égales, excepté un attribut sensible comme la couleur de peau.
L'équité de groupe, quant à elle, cherche à comprendre les différences de traitement par les IA entre les minorités.
-Ma principale contribution a été publiée à la conférence vise à comprendre le lien entre l'équité et la confidentialité.
+Ma principale contribution vise à comprendre le lien entre l'équité et la confidentialité.
+Plus précisement elle étudie en quoi un manque d'équitée permet l'inférence d'attribut sensible.
+C'est par exemple le cas en reconaissance faciale : Song et al.~\cite{Song2020Overlearning} on cherché à inferer le genre et on montré que, à partir de cet inférence, il est possible de retrouver la couleur de peau à 62.18\%.
Notre approche théorique nous a amené à démontrer que, sous un certain aspect, la confidentialité et l'équité pouvaient travailler de concert pour créer des IA plus fiables.
Nous avons validé ces résultats en suivant une approche expérimentale en étudiant des bases de données et des algorithmes d'apprentissage standards.
J'ai aussi pris part au travaux suivants.
Déjà j'ai pu participer à l'élaboration de MixNN~\cite{Lebrun_2022} : un protocole d'apprentissage fédéré respectueux de la confidentialité des données des participants à l'apprentissage.
+Cette solution mélange les couches des mise-à-jours envoyés par les participants à l'apprentissage fédéré à l'aide d'un serveur intermédiaire~\footnote{\textit{Proxy}}.
+J'ai démontrer que cet opération n'a pas d'impacte sur l'utilitté du modèle agloméré finale.
Ensuite j'ai contribué à une étude théorique du protocole LoraWAN : un protocole de communication de l'internet des objets\footnote{\textit{Internet Of Things}} (IOT).
Les identifiants séquentiels confidentielles\footnote{\textit{Sequential private identifiers}} rendent ce protocole robuste face à la ré-identification des objets connectés~\cite{pelissier2024privacy}.
J'ai vérifié que cette modification n'entraîne pas de collisions de paquets et j'ai précisé les garanties théoriques de confidentialité atteintes.
-Nous allons donc dans ce manuscrit étudier le lien entre équité et confidentialité dans l'IA.
+Je me concentre dans ce manuscrit sur l'étude du lien entre équité et confidentialité dans l'IA.
Pour ce faire nous commencerons par présenter un contexte général dans le Chapitre~\ref{sec:contexte} qui permettra de mieux comprendre ce qu'est l'IA, quels sont les attentes, les enjeux et les régulations.
-Nous verrons ainsi que l'équité et la confidentialité sont des points capitaux qu'il faut prendre en compte pour un développement moral de l'IA, aligné avec nos valeurs républicaines.
+Nous verrons ainsi que l'équité et la confidentialité sont des points capitaux qu'il faut prendre en compte pour un développement moral de l'IA, aligné avec nos valeurs républicaines, dans le respect des législations européennes et françaises.
Ensuite, je vous présenterai dans le Chapitre~\ref{sec:pre} les notions clefs dont nous allons avoir besoin pour comprendre mes développements nouveaux.
Il s'agit de fixer les objets mathématiques que nous utiliserons mais aussi de présenter un rapide état de l'art de l'équité et de la confidentialité en IA sur lequel reposent les bases de mes contributions.
-A partir du Chapitre~\ref{sec:fini} nous ne traiterons plus que de mes travaux originaux, sauf exception avec les parties \textquote{Travaux voisins} ou si je le mentionne explicitement.
Dans le Chapitre~\ref{sec:fini} nous allons construire un nouvel algorithme d'apprentissage automatique optimisé pour des bases de données déséquilibrées vis-à-vis d'un attribut.
Grâce à cet algorithme, nous mettrons en place une attaque d'inférence d'attribut sensible que nous utiliserons au Chapitre~\ref{sec:aia} pour l'étude du lien entre équité et confidentialité.
Les données synthétiques sont utilisées pour contourner les obligations légales de protection des données personnelles.