L'IA est un enjeu majeur des années à venir comme le prouve les investissements massifs dont font preuve les secteurs privée et publique. Les géants du numérique et la littérature d'anticipation font miroiter un ensemble de technologies qui changerait drastiquement notre manière de vivre, aussi bien sur le plan individuel avec de nouveaux outils de travail, que sur le plan institutionnel comme dans les domaines de la santé ,de la justice ou de l'éducation. Face à de telles attentes, il est capitale d'obtenir une compréhension en profondeur des modèles d'apprentissage automatique qui sont la clé de voûte de l'IA moderne. En effet, certain effets indésirables liés à l'utilisation de ces modèles ont été observés. Les modèles consomment énormément d'énergie, sont susceptibles d'avoir des failles de sécurité, peuvent révéler des attributs sensibles de personnes réelles, créent des prédictions inexplicables et bissées et peuvent être utilisées à des fins illégales. De plus les implication sociales d'une potentielle future AGI ne sont pas clairement établies hors du cadre de la science fiction. Pour palier cela et créer une IA alignée avec les valeurs de République Française il faut des garanties théoriques fortes couplées à des résultats expérimentaux réalisés sur le long terme avec des bases de données incluant les minorités victimes de discriminations. C'est dans cette optique que s'inscrit ce manuscrit, plus précisément : les interactions entre les différents effets indésirables listés plus haut ne sont pas encore compris dans leur entièreté. Nous nous somment penché sur les interactions entre l'équité et la confidentialité et nous avons démontré que dans une certaine mesure, l'équité pouvais aller de pair avec confidentialité. Pour cela nous avons crée des attaques ayant la garantie d'être les plus performantes tout en minimisant le coût de calcul. Cela permettra à des organisations de contrôle, comme la Défenseur des droits, de mesurer avec certitude si une IA respecte les exigences d'équité. Les études théoriques que nous avons produites ont permis aussi de démontrer plusieurs résultats qui améliorent la compréhension que nous avons de l'exactitude équilibrée : une manière courante d'évaluer les modèles. Enfin nous nous somme attaqué à l'idée reçu que les donnée synthétiques protègent totalement la confidentialité des utilisateurs et leur attributs sensibles en exhibant des contre exemples. Néanmoins, modifier les algorithmes de génération de donnée en introduisant des contraintes d'équité et de confidentialité pourrait permettre des avancées significative vers une IA plus morale.