\begin{frame} \frametitle{Etude des CCA} \begin{definition} Un CCA est un classifieur ayant une \emph{prédiction indépendante de l'étiquette}. C'est-à-dire que pour un classifieur $f: E\rightarrow F$. Avec une étiquette $Y:\Omega\rightarrow F$ et une entrée $X:\Omega\rightarrow E$. Alors pour $\hat{Y}=f\circ X$, nous avons \emph{$P_{(Y,\hat{Y})} = P_Y\otimes P_{\hat{Y}}$} \end{definition} \pause \begin{lemma} \label{lemme:aia-xycca} Soit $(\Omega,\mathcal{T},P)$ un espace probabilisé. Soient $X:(\Omega,\mathcal{T}) \rightarrow (E,\mathcal{E})$ et $Y:\Omega \rightarrow (F,\mathcal{F})$ des variables aléatoires. Les deux propositions suivantes sont équivalentes : \begin{enumerate} \item $P_{(X,Y)} = P_X\otimes P_Y$. \item Toute fonction mesurable $f:(E,\mathcal{T})\rightarrow (F,\mathcal{F})$ est un CCA pour prédire $Y$ à partir de $X$. \end{enumerate} \end{lemma} \end{frame} \begin{frame} \frametitle{Etude des CCA} \begin{propriete} \label{prop:CCA_BA} Les CCA ayant comme image $ F$ ont une exactitude équilibrée égale à $\frac{1}{\# F}$. \end{propriete} \pause \begin{theorem} \label{th:fini-bacca} En notant $BA(f)$ l'exactitude équilibrée de $f$. \begin{equation*} \forall f~BA(f)=\frac{1}{\#F} \iff \forall f~\text{$f$ est un CCA} \end{equation*} \end{theorem} \end{frame} \begin{frame} \frametitle{Nouvelle contribution : Classification finie} \input{tikz/ef} \pause \vspace{20px} \emph{$n^m$ applications à essayer !}\\ \vspace{20px} \pause Plan: \begin{enumerate} \item Problème introductif : Exactitude $P(Y=f\circ X)$ \item Exactitude équilibrée $\frac{1}{n}\sum_{i\in F}P(f\circ X=i|Y=i)$ \end{enumerate} \end{frame} \begin{frame} \frametitle{Classification finie} \begin{minipage}[t]{0.2\linewidth} \begin{tabular}{cc} \textbf{X}&\textbf{Y}\\ 0&$\bigcirc$\\ 2&$\times$\\ 1&$\bigcirc$\\ 0&$\bigcirc$\\ 2&$\times$\\ 0&$\bigcirc$\\ 1&$\bigcirc$\\ 1&$\bigtriangleup$\\ 0&$\bigcirc$\\ 2&$\bigcirc$\\ 1&$\bigcirc$\\ 1&$\bigtriangleup$\\ 2&$\bigcirc$\\ 2&$\bigcirc$\\ \end{tabular} \end{minipage} \begin{minipage}[t]{0.75\linewidth} On cherche une fonction $f$ de $E = \{0,1,2\}$ dans $F = \{\bigcirc,\bigtriangleup,\times\}$. \\\vspace{0.5cm}\\ Nous n'allons pas essayer les \emph{$3^3=27$ fonctions}. \\\vspace{0.5cm}\\ A la place, étudions deux manières de ranger le jeu de données. \end{minipage} \end{frame} \begin{frame} \frametitle{Maximisation de l'exactitude} \input{tikz/chaussette/a} \end{frame} \begin{frame} \frametitle{Maximisation de l'exactitude} \begin{theorem} L'application qui maximise l'éxactitude est \begin{equation*} f: \left\{ \begin{matrix} E\rightarrow F\\ e\mapsto \text{argmax}_{i\in F} P(Y=i|X=e) \end{matrix} \right. \end{equation*} \end{theorem} \vspace{50px} \footnotesize \textit{The behavior-knowledge space method for combination of multiple classifiers}, Huang, YS et Suen, C.Y. 1993 \end{frame} \begin{frame} \frametitle{Maximisation de l'exactitude équilibrée} \vspace{5px} \input{tikz/chaussette/ba} \end{frame} \begin{frame} \frametitle{Maximisation de l'exactitude équilibrée} \begin{theorem} L'application qui maximise l'exactitude équilibrée est \begin{equation*} f:\left\{ \begin{matrix} E \rightarrow F\\ e\mapsto \text{argmax}_{i\in F}P(X=e|Y=i) \end{matrix} \right. \end{equation*} \end{theorem} \end{frame}