From 57715cacec8d0f0d3d1436a26f92ae5c0f0e128e Mon Sep 17 00:00:00 2001 From: Jan Aalmoes Date: Tue, 27 Aug 2024 21:07:18 +0200 Subject: debut du background sur ZF --- background/main.tex | 78 +++++++++++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 78 insertions(+) create mode 100644 background/main.tex (limited to 'background/main.tex') diff --git a/background/main.tex b/background/main.tex new file mode 100644 index 0000000..93ee12b --- /dev/null +++ b/background/main.tex @@ -0,0 +1,78 @@ +Nous présentons dans ce chapitre les différentes théories et concepts sur les quelles se basent nos développements. +\section{Mathématiques} +L'originie de l'IA est mathématique~\cite{dartmouth,lecun2019quand}. +Nous utilisons dans ce manuscrit principalement deux théories : l'optimisation pour entraîner les modèles et les probabilitées pour les évaluer. +Ainsi nous présentons dans cette section les prérequi necessaire pour comprendre les prochains dévelopements. +Cette section ne serai être en cours exhaustif mais a pour but de mettre en place les définitions et les principaux théorèmes qui nous allons utiliser. +Nous supposons que le lecteur est familier du clacul des prédicats. +Nous utiliserons les quantificateurs $\forall$ (pour tout) et $\exists$ (il existe tel que). +Nous utiliserons aussi les opératuer logiques suivant que nous définissons par leur tables de véritée : +\begin{equation} +\begin{matrix} +a & b & a\iff b & a\implies b & a\wedge b & a\vee b & \neg a\\ +0 & 0 & 1 & 1 & 0 & 0 & 1\\ +0 & 1 & 0 & 1 & 0 & 1 & 1\\ +1 & 0 & 0 & 0 & 0 & 1 & 0\\ +1 & 1 & 1 & 1 & 1 & 1 & 0\\ +\end{matrix} +\end{equation} +\subsection{Ensembles et fonctions} + \input{background/set} + +\subsection{Algèbre linéaire} + \subsubsection{Espace vectoriel} + \subsubsection{Application linéaires} + \subsubsection{Matrices} + +\subsection{Mesurer le hasard pour prédire et inférer} + \label{sec:background-proba} + \input{background/proba} + %\subsection{Théorie de la mesure} + %\subsection{Probabilitées} + %\subsection{Statistiques} + +\subsection{Topologie} + \subsubsection{Distances et normes} + \subsubsection{Espaces topologiques} + \subsubsection{Application aux fonctions} + +\subsection{Calcul différentiel} + \subsubsection{Différentiel} + \subsubsection{Gradient} + +\subsection{Optimisation} + \label{sec:background-opti} + \subsubsection{Multiplicateurs de Lagrange} + + \subsubsection{Descente de gradient} + \paragraph{Descente de gradient stochastique} + + \paragraph{Descente de gradient exponentiée} + +\section{Apprentissage automatique} + \label{sec:background-ml} + \subsection{Principe} + \subsection{Entraîner un modèle} + \subsubsection{Fonction de coût} + \subsection{Evaluer un modèle} + \subsubsection{Classification} + \paragraph{La courbe ROC} + \paragraph{La courbe de precision/recall} + \subsubsection{Regression} + \subsection{Décentralisation} + \subsubsection{Federated learning} + \subsection{Modèles génératifs} + \label{sec:background-generation} + +\section{Equité} + \label{sec:background-eq} + \input{background/eq} + %\subsection{Différentes notions d'équité} + +\section{Confidentialité} + \label{sec:background-conf} + \input{background/conf} + %\subsection{Mitiger l'inéquitée} + %\subsubsection{Preprocessing} + % \subsubsection{Inprocessing} + %\subsubsection{Postprocessing} -- cgit v1.2.3