summaryrefslogtreecommitdiff
path: root/introduction.tex
blob: d4bdc0a4fcf542f9e61fd2407db083d0172311e9 (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
L'intelligence artificielle (IA) est de plus en plus présente dans de nombreux domaines comme la santé~\cite{dildar2021skin,gulshan2016development,quinn2022three}, les médias~\cite{gptjournal} ou les ressources humaines~\cite{ore2022opportunities}. 
Ces technologies induisent des risques pour la confidentialité des données personnelles des utilisateurs~\cite{MehnazAttInf,yeom,shokri2017membership,Song2020Overlearning} et peuvent introduire des biais discriminatoires rendant les décisions automatiques non équitables~\cite{fairmetric,fairmetric2,debiase,reductions}.
Mes travaux s'inscrivent dans une lignée florissante de recherches visant à mieux comprendre ces enjeux capitaux et à trouver des solutions pour rentre l'intelligence artificielle morale.

Ma principale contribution a été publiée à la conférence Wise 2024 et vise à comprendre le lien entre l'équité et la confidentialité.
Notre approche théorique nous a amené à démontrer que, sous un certain aspect, la confidentialité et l'équité pouvaient travailler de concert pour créer des IA plus fiables.
Nous avons validé ces résultats expérimentalement en étudiant des bases de données et des algorithmes standards.

Outre cette contribution j'ai pu prendre part à deux autres travaux qui ont été publiés mais qui ne figurent pas dans ce manuscrit car ils s'éloignent légèrement du sujet de cette thèse.
Déjà j'ai pu participer à l'élaboration de MixNN~\cite{Lebrun_2022} : un protocole d'apprentissage fédéré respectueux de la confidentialité des données des participants à l'apprentissage.
MixNN a été publié à la conférence Middleware 2022.
Ensuite j'ai contribué à une étude théorique du protocole LoraWAN : un protocole de communication de l'internet des objets\footnote{\textit{Internet Of Things}} (IOT).
Samuel Pélissier a mis au point une modification de ce protocole visant à protéger la confidentialité des utilisateurs.
J'ai vérifié que cette modification n'entraîne pas de collisions de paquets et j'ai précisé les garanties théoriques de confidentialité atteintes.
Nous avons publié cet article~\cite{pelissier2024privacy} à la conférence WiSec 2024.

Nous allons donc dans ce manuscrit étudier le lien entre équité et confidentialité dans l'IA.
Pour ce faire nous commencerons par présenter un contexte général dans le Chapitre~\ref{sec:contexte} qui permettra de mieux comprendre ce qu'est l'IA, quels sont les attentes, les enjeux et les régulations.
Nous verrons ainsi que l'équité et la confidentialité sont des points capitaux qu'il faut prendre en compte pour un développement moral de l'IA, aligné avec nos valeurs républicaines.
Ensuite, je vous présenterai dans le Chapitre~\ref{sec:pre} les notions clefs dont nous allons avoir besoin pour comprendre mes développements nouveaux. 
Il s'agit de fixer les objets mathématiques que nous utiliserons mais aussi de présenter un rapide état de l'art de l'équité et de la confidentialité en IA sur lequel reposent les bases de mes contributions.
A partir du Chapitre~\ref{sec:fini} nous ne traiterons plus que de mes travaux originaux, sauf exception avec les parties \textquote{Travaux voisins} ou si je le mentionne explicitement.
Le Chapitre~\ref{sec:fini} présente un nouvel algorithme d'apprentissage automatique optimisé pour des bases de données déséquilibrées vis-à-vis d'un attribut.
Grâce à cet algorithme nous construisons une attaque d'inférence d'attribut sensible que nous utilisons au Chapitre~\ref{sec:aia} pour l'étude du lien entre équité et confidentialité.
Au Chapitre~\ref{sec:synth} nous explorerons l'impact de l'utilisation de données synthétiques sur ces notions.
Le Chapitre~\ref{sec:per} reprend les trois chapitres précédents et propose de nouvelles pistes de recherche.