summaryrefslogtreecommitdiff
path: root/introduction.tex
diff options
context:
space:
mode:
Diffstat (limited to 'introduction.tex')
-rw-r--r--introduction.tex23
1 files changed, 12 insertions, 11 deletions
diff --git a/introduction.tex b/introduction.tex
index 73d04d8..bbc2941 100644
--- a/introduction.tex
+++ b/introduction.tex
@@ -1,18 +1,18 @@
L'intelligence artificielle (IA) est de plus en plus présente dans de nombreux domaines comme la santé~\cite{dildar2021skin,gulshan2016development,quinn2022three}, les médias~\cite{gptjournal} ou les ressources humaines~\cite{ore2022opportunities}.
Ces technologies induisent des risques pour la confidentialité des données personnelles des utilisateurs~\cite{MehnazAttInf,yeom,shokri2017membership,Song2020Overlearning} et peuvent introduire des biais discriminatoires rendant les décisions automatiques non équitables~\cite{fairmetric,fairmetric2,debiase,reductions}.
-Mes travaux s'inscrivent dans une lignée de recherches visant à mieux comprendre ces enjeux capitaux et à trouver des solutions pour rentre l'intelligence artificielle morale.
+Cette inéquité est étudiée à deux niveaux dans la littérature scientifique.
+L'équité individuelle cherche à s'assurer que les IA se comportent de la même manière à toutes choses égales, excepté un attribut sensible comme la couleur de peau.
+L'équité de groupe, quant à elle, cherche à comprendre les différences de traitement par les IA entre les minorités.
-Ma principale contribution a été publiée à la conférence Wise 2024 et vise à comprendre le lien entre l'équité et la confidentialité.
+Ma principale contribution a été publiée à la conférence vise à comprendre le lien entre l'équité et la confidentialité.
Notre approche théorique nous a amené à démontrer que, sous un certain aspect, la confidentialité et l'équité pouvaient travailler de concert pour créer des IA plus fiables.
-Nous avons validé ces résultats expérimentalement en étudiant des bases de données et des algorithmes standards.
+Nous avons validé ces résultats en suivant une approche expérimentale en étudiant des bases de données et des algorithmes d'apprentissage standards.
-Outre cette contribution j'ai pu prendre part à deux autres travaux qui ont été publiés mais qui ne figurent pas dans ce manuscrit car ils s'éloignent légèrement du sujet de cette thèse.
+J'ai aussi pris part au travaux suivants.
Déjà j'ai pu participer à l'élaboration de MixNN~\cite{Lebrun_2022} : un protocole d'apprentissage fédéré respectueux de la confidentialité des données des participants à l'apprentissage.
-MixNN a été publié à la conférence Middleware 2022.
Ensuite j'ai contribué à une étude théorique du protocole LoraWAN : un protocole de communication de l'internet des objets\footnote{\textit{Internet Of Things}} (IOT).
-Samuel Pélissier a mis au point une modification de ce protocole visant à protéger la confidentialité des utilisateurs.
+Les identifiants séquentiels confidentielles\footnote{\textit{Sequential private identifiers}} rendent ce protocole robuste face à la ré-identification des objets connectés~\cite{pelissier2024privacy}.
J'ai vérifié que cette modification n'entraîne pas de collisions de paquets et j'ai précisé les garanties théoriques de confidentialité atteintes.
-Nous avons publié cet article~\cite{pelissier2024privacy} à la conférence WiSec 2024.
Nous allons donc dans ce manuscrit étudier le lien entre équité et confidentialité dans l'IA.
Pour ce faire nous commencerons par présenter un contexte général dans le Chapitre~\ref{sec:contexte} qui permettra de mieux comprendre ce qu'est l'IA, quels sont les attentes, les enjeux et les régulations.
@@ -20,7 +20,8 @@ Nous verrons ainsi que l'équité et la confidentialité sont des points capitau
Ensuite, je vous présenterai dans le Chapitre~\ref{sec:pre} les notions clefs dont nous allons avoir besoin pour comprendre mes développements nouveaux.
Il s'agit de fixer les objets mathématiques que nous utiliserons mais aussi de présenter un rapide état de l'art de l'équité et de la confidentialité en IA sur lequel reposent les bases de mes contributions.
A partir du Chapitre~\ref{sec:fini} nous ne traiterons plus que de mes travaux originaux, sauf exception avec les parties \textquote{Travaux voisins} ou si je le mentionne explicitement.
-Le Chapitre~\ref{sec:fini} présente un nouvel algorithme d'apprentissage automatique optimisé pour des bases de données déséquilibrées vis-à-vis d'un attribut.
-Grâce à cet algorithme nous construisons une attaque d'inférence d'attribut sensible que nous utilisons au Chapitre~\ref{sec:aia} pour l'étude du lien entre équité et confidentialité.
-Au Chapitre~\ref{sec:synth} nous explorerons l'impact de l'utilisation de données synthétiques sur ces notions.
-Le Chapitre~\ref{sec:per} reprend les trois chapitres précédents et propose de nouvelles pistes de recherche.
+Dans le Chapitre~\ref{sec:fini} nous allons construire un nouvel algorithme d'apprentissage automatique optimisé pour des bases de données déséquilibrées vis-à-vis d'un attribut.
+Grâce à cet algorithme, nous mettrons en place une attaque d'inférence d'attribut sensible que nous utiliserons au Chapitre~\ref{sec:aia} pour l'étude du lien entre équité et confidentialité.
+Les données synthétiques sont utilisées pour contourner les obligations légales de protection des données personnelles.
+Nous explorerons donc l’impact de l’utilisation des données synthétiques pour l'entraînement des IA sur l'inférence d'attributs sensibles au Chapitre~\ref{sec:synth}.
+Finalement, nous ouvrons de nouvelles pistes de recherche au Chapitre~\ref{sec:per}.