1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
|
\begin{frame}
\frametitle{Etude des CCA}
\begin{definition}
Un CCA est un classifieur ayant une \emph{prédiction indépendante de l'étiquette}.
C'est-à-dire que pour un classifieur $f: E\rightarrow F$.
Avec une étiquette $Y:\Omega\rightarrow F$
et une entrée $X:\Omega\rightarrow E$.
Alors pour $\hat{Y}=f\circ X$, nous avons
\emph{$P_{(Y,\hat{Y})} = P_Y\otimes P_{\hat{Y}}$}
\end{definition}
\pause
\begin{lemma}
\label{lemme:aia-xycca}
Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé.
Soient $X:(\Omega,\mathcal{T}) \rightarrow (E,\mathcal{E})$ et $Y:\Omega \rightarrow (F,\mathcal{F})$ des variables aléatoires.
Les deux propositions suivantes sont équivalentes :
\begin{enumerate}
\item $P_{(X,Y)} = P_X\otimes P_Y$.
\item Toute fonction mesurable $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$ est un CCA pour prédire $Y$ à partir de $X$.
\end{enumerate}
\end{lemma}
\end{frame}
\begin{frame}
\frametitle{Etude des CCA}
\begin{propriete}
\label{prop:CCA_BA}
Les CCA ayant comme image $ F$ ont une exactitude équilibrée égale à $\frac{1}{\# F}$.
\end{propriete}
\pause
\begin{theorem}
\label{th:fini-bacca}
En notant $BA(f)$ l'exactitude équilibrée de $f$.
\begin{equation*}
\forall f~BA(f)=\frac{1}{\#F} \iff
\forall f~\text{$f$ est un CCA}
\end{equation*}
\end{theorem}
\end{frame}
\begin{frame}
\frametitle{Nouvelle contribution : Classification finie}
\input{tikz/ef}
\pause
\vspace{20px}
\emph{$n^m$ applications à essayer !}\\
\vspace{20px}
\pause
Plan:
\begin{enumerate}
\item Problème introductif : Exactitude $P(Y=f\circ X)$
\item Exactitude équilibrée $\frac{1}{n}\sum_{i\in F}P(f\circ X=i|Y=i)$
\end{enumerate}
\end{frame}
\begin{frame}
\frametitle{Classification finie}
\begin{minipage}[t]{0.2\linewidth}
\begin{tabular}{cc}
\textbf{X}&\textbf{Y}\\
0&$\bigcirc$\\
2&$\times$\\
1&$\bigcirc$\\
0&$\bigcirc$\\
2&$\times$\\
0&$\bigcirc$\\
1&$\bigcirc$\\
1&$\bigtriangleup$\\
0&$\bigcirc$\\
2&$\bigcirc$\\
1&$\bigcirc$\\
1&$\bigtriangleup$\\
2&$\bigcirc$\\
2&$\bigcirc$\\
\end{tabular}
\end{minipage}
\begin{minipage}[t]{0.75\linewidth}
On cherche une fonction $f$ de $E = \{0,1,2\}$ dans $F = \{\bigcirc,\bigtriangleup,\times\}$.
\\\vspace{0.5cm}\\
Nous n'allons pas essayer les \emph{$3^3=27$ fonctions}.
\\\vspace{0.5cm}\\
A la place, étudions deux manières de ranger le jeu de données.
\end{minipage}
\end{frame}
\begin{frame}
\frametitle{Maximisation de l'exactitude}
\input{tikz/chaussette/a}
\end{frame}
\begin{frame}
\frametitle{Maximisation de l'exactitude}
\begin{theorem}
L'application qui maximise l'éxactitude est
\begin{equation*}
f: \left\{
\begin{matrix}
E\rightarrow F\\
e\mapsto \text{argmax}_{i\in F} P(Y=i|X=e)
\end{matrix}
\right.
\end{equation*}
\end{theorem}
\vspace{50px}
\footnotesize
\textit{The behavior-knowledge space method for combination of multiple classifiers}, Huang, YS et Suen, C.Y. 1993
\end{frame}
\begin{frame}
\frametitle{Maximisation de l'exactitude équilibrée}
\vspace{5px}
\input{tikz/chaussette/ba}
\end{frame}
\begin{frame}
\frametitle{Maximisation de l'exactitude équilibrée}
\begin{theorem}
L'application qui maximise l'exactitude équilibrée est
\begin{equation*}
f:\left\{
\begin{matrix}
E \rightarrow F\\
e\mapsto \text{argmax}_{i\in F}P(X=e|Y=i)
\end{matrix}
\right.
\end{equation*}
\end{theorem}
\end{frame}
|