summaryrefslogtreecommitdiff
path: root/background/main.tex
diff options
context:
space:
mode:
Diffstat (limited to 'background/main.tex')
-rw-r--r--background/main.tex78
1 files changed, 78 insertions, 0 deletions
diff --git a/background/main.tex b/background/main.tex
new file mode 100644
index 0000000..93ee12b
--- /dev/null
+++ b/background/main.tex
@@ -0,0 +1,78 @@
+Nous présentons dans ce chapitre les différentes théories et concepts sur les quelles se basent nos développements.
+\section{Mathématiques}
+L'originie de l'IA est mathématique~\cite{dartmouth,lecun2019quand}.
+Nous utilisons dans ce manuscrit principalement deux théories : l'optimisation pour entraîner les modèles et les probabilitées pour les évaluer.
+Ainsi nous présentons dans cette section les prérequi necessaire pour comprendre les prochains dévelopements.
+Cette section ne serai être en cours exhaustif mais a pour but de mettre en place les définitions et les principaux théorèmes qui nous allons utiliser.
+Nous supposons que le lecteur est familier du clacul des prédicats.
+Nous utiliserons les quantificateurs $\forall$ (pour tout) et $\exists$ (il existe tel que).
+Nous utiliserons aussi les opératuer logiques suivant que nous définissons par leur tables de véritée :
+\begin{equation}
+\begin{matrix}
+a & b & a\iff b & a\implies b & a\wedge b & a\vee b & \neg a\\
+0 & 0 & 1 & 1 & 0 & 0 & 1\\
+0 & 1 & 0 & 1 & 0 & 1 & 1\\
+1 & 0 & 0 & 0 & 0 & 1 & 0\\
+1 & 1 & 1 & 1 & 1 & 1 & 0\\
+\end{matrix}
+\end{equation}
+\subsection{Ensembles et fonctions}
+ \input{background/set}
+
+\subsection{Algèbre linéaire}
+ \subsubsection{Espace vectoriel}
+ \subsubsection{Application linéaires}
+ \subsubsection{Matrices}
+
+\subsection{Mesurer le hasard pour prédire et inférer}
+ \label{sec:background-proba}
+ \input{background/proba}
+ %\subsection{Théorie de la mesure}
+ %\subsection{Probabilitées}
+ %\subsection{Statistiques}
+
+\subsection{Topologie}
+ \subsubsection{Distances et normes}
+ \subsubsection{Espaces topologiques}
+ \subsubsection{Application aux fonctions}
+
+\subsection{Calcul différentiel}
+ \subsubsection{Différentiel}
+ \subsubsection{Gradient}
+
+\subsection{Optimisation}
+ \label{sec:background-opti}
+ \subsubsection{Multiplicateurs de Lagrange}
+
+ \subsubsection{Descente de gradient}
+ \paragraph{Descente de gradient stochastique}
+
+ \paragraph{Descente de gradient exponentiée}
+
+\section{Apprentissage automatique}
+ \label{sec:background-ml}
+ \subsection{Principe}
+ \subsection{Entraîner un modèle}
+ \subsubsection{Fonction de coût}
+ \subsection{Evaluer un modèle}
+ \subsubsection{Classification}
+ \paragraph{La courbe ROC}
+ \paragraph{La courbe de precision/recall}
+ \subsubsection{Regression}
+ \subsection{Décentralisation}
+ \subsubsection{Federated learning}
+ \subsection{Modèles génératifs}
+ \label{sec:background-generation}
+
+\section{Equité}
+ \label{sec:background-eq}
+ \input{background/eq}
+ %\subsection{Différentes notions d'équité}
+
+\section{Confidentialité}
+ \label{sec:background-conf}
+ \input{background/conf}
+ %\subsection{Mitiger l'inéquitée}
+ %\subsubsection{Preprocessing}
+ % \subsubsection{Inprocessing}
+ %\subsubsection{Postprocessing}