summaryrefslogtreecommitdiff
path: root/conclusion.tex
blob: 487416ec4875097a68f09edf797725ca4838bbd2 (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
L'IA est un enjeu majeur des années à venir comme le prouvent les investissements massifs dont font preuve les secteurs privée et publics en la matière.
Les géants du numérique et de la littérature d'anticipation font miroiter un ensemble de technologies qui changeraient drastiquement notre manière de vivre, aussi bien sur le plan individuel avec de nouveaux outils de travail, que sur le plan institutionnel comme dans les domaines de la santé ,de la justice ou de l'éducation.
Face à de telles attentes, il est capital d'obtenir une compréhension en profondeur des modèles d'apprentissage automatique, qui sont la clé de voûte de l'IA moderne.
En effet, certains effets indésirables liés à l'utilisation de ces modèles ont été observés.
Les modèles consomment énormément d'énergie, sont susceptibles d'avoir des failles de sécurité, peuvent révéler des attributs sensibles de personnes réelles, créent des prédictions inexplicables et bissées et peuvent être utilisées à des fins illégales.
De plus, les implication sociales d'une potentielle future AGI ne sont pas clairement établies hors du cadre de la science-fiction.

Pour pallier cela et créer une IA alignée avec les valeurs de République Française il faut des garanties théoriques fortes, couplées à des résultats expérimentaux réalisés sur le long terme avec des bases de données incluant les minorités victimes de discriminations.
C'est dans cette optique que s'inscrit ce manuscrit et plus précisément comment les interactions entre les différents effets indésirables listés plus haut ne sont pas encore compris dans leur entièreté.
Nous nous somment penchés sur les interactions entre l'équité et la confidentialité et nous avons démontré que, dans une certaine mesure, l'équité pouvait aller de pair avec confidentialité.
Pour cela, nous avons créé des attaques ayant la garantie d'être les plus performantes tout en minimisant le coût de calcul.
Cela permettra à des organisations de contrôle, comme la Défenseure des droits, de mesurer avec certitude si une IA respecte les exigences d'équité.
Les études théoriques que nous avons produites ont permis aussi de démontrer plusieurs résultats qui améliorent la compréhension que nous avons de l'exactitude équilibrée : une manière courante d'évaluer les modèles.

Enfin, nous nous somme attaqués à l'idée reçue que les données synthétiques protègent totalement la confidentialité des utilisateurs et leur attributs sensibles en exhibant des contre-exemples.
Néanmoins, modifier les algorithmes de génération de données en introduisant des contraintes d'équité et de confidentialité pourrait permettre des avancées significatives vers une IA plus morale.