summaryrefslogtreecommitdiff
path: root/background/proba.tex
diff options
context:
space:
mode:
Diffstat (limited to 'background/proba.tex')
-rw-r--r--background/proba.tex22
1 files changed, 11 insertions, 11 deletions
diff --git a/background/proba.tex b/background/proba.tex
index 2ff37b7..f4cbd96 100644
--- a/background/proba.tex
+++ b/background/proba.tex
@@ -1,13 +1,13 @@
La théorie des probabilités est profondément liée à l'apprentissage automatique.
-Les propriétés de modèles comme la confidentialité différentielle, les définitions d'équité, les métriques d'utilité, etc. que nous aborderons en Section~\ref{sec:background-ml} s'écrivent en terme de probabilité.
+Les propriétés des modèles comme la confidentialité différentielle, les définitions d'équité, les métriques d'utilité, etc. que nous aborderons en Section~\ref{sec:background-ml} s'écrivent en termes de probabilité.
Ainsi nous présentons les notions de probabilités et de théorie de la mesure que nous allons utiliser.
-A la manière de la Section~\ref{sec:background-set}, notre présentation à principalement le but de fixer les objets que nous utiliserons dans les prochaines sections et non pas d'être un cours complet.
-Si le.la lecteur.rice souhaite en apprendre plus sur la théorie de la mesure nous le renvoyons vers les notes de cours de Thierry Gallay de l'université Joseph Fourrier~\cite{mesure}.
-Si il.elle souhait explorer plus en avant les probabilités il.elle pourra consulter les notes de cours de Jean-François Le Gall de l'École Normale Supérieur de Paris~\cite{proba}.
+A la manière de la Section~\ref{sec:background-set}, notre présentation a principalement le but de fixer les objets que nous utiliserons dans les prochaines sections et non pas d'être un cours complet.
+Si le.la lecteur.rice souhaite en apprendre plus sur la théorie de la mesure nous le renvoyons vers les notes de cours de Thierry Gallay de l'Université Joseph Fourrier~\cite{mesure}.
+Si il.elle souhaite explorer plus en avant les probabilités il.elle pourra consulter les notes de cours de Jean-François Le Gall de l'École Normale Supérieure de Paris~\cite{proba}.
Soit $A$ un ensemble.
-Nous appelons une tribu que nous notons $\mathcal{A}$ un sous ensemble de $\mathcal{P}(A)$ qui contient $\emptyset$ et $A$, qui est stable par complémentaire et qui est stable par union dénombrable d'éléments de $\mathcal{A}$.
+Nous appelons une tribu que nous notons $\mathcal{A}$ un sous-ensemble de $\mathcal{P}(A)$ qui contient $\emptyset$ et $A$, qui est stable par complémentaire et qui est stable par union dénombrable d'éléments de $\mathcal{A}$.
Nous disons alors que $(A,\mathcal{A})$ est un espace mesurable.
Soit maintenant $A\subset\mathcal{P}(A)$, nous appelons $\sigma(A)$ la plus petite tribu pour l'intersection qui contient tous les éléments de $A$.
@@ -57,17 +57,17 @@ Nous définissons la mesure image de $f$ par $d$, que nous notons $d_f$, par l'e
\end{equation}
\begin{definition}{Intégrale}
- Soient $(E,\mathcal{E},\mu)$ un espace mesuré.
- Pour une fonction $f=\sum_{i\in I}\alpha_i 1_{A_i}$, nous dirons étagé,
+ Soit $(E,\mathcal{E},\mu)$ un espace mesuré.
+ Pour une fonction $f=\sum_{i\in I}\alpha_i 1_{A_i}$, nous dirons étagée,
avec $\{A_i\mid i\in I\} \subset \mathcal{E}$ et $\alpha_i\in\mathbb{R}^+$.
alors $\int_E f d\mu= \sum_{i\in I}\alpha_i \mu(A_i)$.
- Soit $g$ un fonction mesurable de $(E,\mathcal{E},\mu)$ dans $\mathbb{R}^+$, alors
+ Soit $g$ une fonction mesurable de $(E,\mathcal{E},\mu)$ dans $\mathbb{R}^+$, alors
\begin{equation*}
\int_{E}gd\mu = sup\left\{\int_E fd\mu\mid f~\text{est étagé}\wedge f\leq g\right\}
\end{equation*}
- Enfin dans le cas générale de $h$ une fonction mesurable de $(E,\mathcal{E},\mu)$ dans $\mathbb{R}$, alors
+ Enfin dans le cas général de $h$ une fonction mesurable de $(E,\mathcal{E},\mu)$ dans $\mathbb{R}$, alors
si $\int_E |h|d\mu\in\mathbb{R}$ on pose
\begin{equation*}
\int_E hd\mu = \int_E max(h,0)d\mu - \int_E max(-h,0)d\mu
@@ -76,7 +76,7 @@ Nous définissons la mesure image de $f$ par $d$, que nous notons $d_f$, par l'e
Dans le cas particulier où $d(A) = 1$, nous appelons $d$ une mesure de probabilité
- $(A,\mathcal{A},d)$ est alors un espace probabilisé et les fonctions mesurables sur cet espace sont appelés variables aléatoires.
+ $(A,\mathcal{A},d)$ est alors un espace probabilisé et les fonctions mesurables sur cet espace sont appelées variables aléatoires.
Pour un évènement $a\in\mathcal{A}$ tel que $d(a)\neq 0$, la probabilité conditionnelle est
\begin{equation*}
d(\square\mid a):\left\{
@@ -87,7 +87,7 @@ Pour un évènement $a\in\mathcal{A}$ tel que $d(a)\neq 0$, la probabilité cond
\right.
\end{equation*}
La loi de probabilité d'une variable aléatoire $f$ sur $(X,\mathcal{X})$ est la mesure image de $f$ sur $d$.
-Nous dirons que deux variables aléatoire $f$ et $g$ sont indépendantes si et seulement si la loi de la variables aléatoire $h:\omega\mapsto (f(\omega),g(\omega))$ est la mesure produit de la loi de $f$ et $g$.
+Nous dirons que deux variables aléatoires $f$ et $g$ sont indépendantes si et seulement si la loi de la variables aléatoire $h:\omega\mapsto (f(\omega),g(\omega))$ est la mesure produit de la loi de $f$ et $g$.
De plus, dans le cas des variables aléatoires, il est courant d'écrire $\{f\in A\}$ pour $f^{-1}(A)$ et $\{f=a\}$ pour $f^{-1}(\{a\})$.