summaryrefslogtreecommitdiff
path: root/classification_finie
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-09-11 11:08:02 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-09-11 11:08:02 +0200
commit7fc151d6a198d13dc9e1374522ec396d72905d3f (patch)
treea77839e5f0ad057647603db60d78f7981d52cde4 /classification_finie
parentbf5b05a84e877391fddd1b0a0b752f71ec05e901 (diff)
Ajout notations
Diffstat (limited to 'classification_finie')
-rw-r--r--classification_finie/ba.tex89
1 files changed, 88 insertions, 1 deletions
diff --git a/classification_finie/ba.tex b/classification_finie/ba.tex
index 7069668..21e272c 100644
--- a/classification_finie/ba.tex
+++ b/classification_finie/ba.tex
@@ -17,6 +17,79 @@ Nous proposons donc la définition suivante :
Alors pour $\hat{Y}=f\circ X$, nous avons
$P_{(Y,\hat{Y})} = P_Y\otimes P_{\hat{Y}}$
\end{definition}
+\begin{lemma}
+ \label{lemme:aia-xycca}
+ Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé.
+ Soient $X:(\Omega,\mathcal{T}) \rightarrow (E,\mathcal{E})$ et $Y:\Omega \rightarrow (F,\mathcal{F})$ des variables aléatoires.
+ Les deux propositions suivantes sont équivalantes :
+ \begin{enumerate}
+ \item $P_{(X,Y)} = P_X\otimes P_Y$.
+ \item Toute fonction mesurable $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$ est un CCA pour prédire $Y$ à partir de $X$.
+ \end{enumerate}
+\end{lemma}
+\begin{proof}
+ En gardant les objets définis dans le Lemme~\ref{lemme:aia-xycca}.
+ Nous allons prouver séparément les deux implications.
+ \paragraph{$(1)\implies(2)$}
+ Nous supposons que $P_{(X,Y)} = P_X\otimes P_Y$.
+ Soit $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$, un fonction mesurerable,
+ nous allons montrer que $f$ est un CCA, c'est-à dire que $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$.
+
+ Soient $(A,B)\in\mathcal{E}\times\mathcal{F}$
+ \begin{align*}
+ &P_{(f\circ X,Y)}(A,B)&\\
+ =&P(\{f\circ X\in A\}\cap\{Y\in B\})&\\
+ =&P(\{X\in f^{-1}(A)\}\cap\{Y\in B\})&\\
+ &&\textit{Comme $X$ et $Y$ sont indépendantes.}\\
+ =&P_X(f^{-1}(A))P_Y(B)&\\
+ =&P_{f\circ X}(A)P_Y(B)&
+ \end{align*}
+
+ Ainsi, $\forall (A,B)\in\mathcal{E}\times\mathcal{F}~P_{(f\circ X,Y)}(A,B) = P_{f\circ X}(A)P_Y(B)$.
+ D'après la définition de le mesure produit donnée à la Section~\ref{sec:background-proba}, nous avons donc bien $P_{(f\circ X,Y)} = P_{f\circ X}\otimes P_Y$.
+ Ce qui est bien la définition de l'indépendant donnée en Section~\ref{sec:background-proba}.
+
+ \paragraph{$(2)\implies (1)$}
+ Nous supposons que tout classifieur de $Y$ à partir de $X$ est un CCA.
+ Montrons que $P_{(X,Y)} = P_{f\circ X}\otimes P_Y$.
+ Soit $(A,B)\in\mathcal{E}\times\mathcal{F}$.
+ Nous allons montrer que
+ $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B)$.
+
+ \paragraph{Cas 1 : $\mathcal{F}=\{\emptyset,F\}$}
+ Si $B=\emptyset$ alors
+ $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = \emptyset$.
+ Si $B=F$ alors
+ $P(X\in A\cap Y\in B) = P(X\in A)P(Y\in B) = P(X\in A)$.
+
+ \paragraph{Cas 2 : $\#\mathcal{F}>2$}
+ Alors il existe $C\in\mathcal{F}$ tel que $C\neq\emptyset$ et $F\backslash C\neq\emptyset$.
+ Nous pouvons donc choisir $c$ dans $C$ et $c'$ dans $F\backslash C$.
+ Nous construisons la fonction suivante:
+ \begin{equation*}
+ f:\left\{
+ \begin{matrix}
+ E\rightarrow F\\
+ e\mapsto\left\{
+ \begin{matrix}
+ c~\text{si}~e\in A\\
+ c'~\text{sinon}
+ \end{matrix}
+ \right.
+ \end{matrix}
+ \right.
+ \end{equation*}
+ Alors $f:(E,\mathcal{E})\rightarrow (F,\mathcal{F})$ est une fonction mesurable et $f^{-1}(C) = A$.
+ Ainsi
+ \begin{align*}
+ &P(X\in A\cap Y\in B)\\
+ =&P(X\in f^{-1}(C)\cap Y\in B)\\
+ \text{Comme $f$ est un CCA.}&\\
+ =&P(f\circ X\in C)P(Y\in B)\\
+ =&P(X\in A)P(Y\in B)
+ \end{align*}
+
+\end{proof}
\begin{propriete}
\label{prop:CCA_BA}
@@ -104,7 +177,21 @@ Déjà la \textit{balanced accuracy} est égale à $\frac{1}{3}$ car
$\forall y\in F~P(\hat{Y}=y\mid Y=y)=\frac{1}{3}$.
Enfin nous voyons que $f$ n'est pas un CCA car
$P(\hat{Y}=1\cap Y=2) = 0$ et
-$P(\hat{Y}=1)P(Y=2) = \frac{2}{9}\frac{1}{3} = \frac{2}{27}$
+$P(\hat{Y}=1)P(Y=2) = \frac{2}{9}\frac{1}{3} = \frac{2}{27}$.
+
+Remarquons que le réciproque de la Propriété~\ref{prop:CCA_BA} est vrai dans le cas d'une classifieur binaire, c'est-à dire $\#F=2$.
+En effet dans ce cas, supposons que la \textit{balanced accuracy} vale $0,5$, alors
+\begin{align*}
+ &P(f\circ X=0\mid Y=0)+P(f\circ X=1\mid Y=1) = 1\\
+ \implies&\left\{
+ \begin{matrix}
+ &P(f\circ X=1\mid Y=0)=P(f\circ X=1\mid Y=1)\\
+ \text{et}&\\
+ &P(f\circ X=0\mid Y=0)=P(f\circ X=0\mid Y=1)
+ \end{matrix}
+ \right.\\
+ \implies&\text{$f$ est un CCA}
+\end{align*}
Bien qu'une \textit{balanced accuracy} égale à $\frac{1}{\#F}$ ne soit pas un critère de CCA, nous pouvons utiliser cette métrique pour savoir si il existe un classifieur qui soit un CCA.
En effet nous avons le resultat suivant :