summaryrefslogtreecommitdiff
path: root/classification_finie
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-10-05 19:25:34 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-10-05 19:25:34 +0200
commit411624f6f259084641deb92f20d512908c8b7d4f (patch)
treec25c1ce9afbb9252217a45deb76b3e63ae648ab9 /classification_finie
parentd4021e6f8a0bf771b755d39da8515266ef75e667 (diff)
Correction maman
Diffstat (limited to 'classification_finie')
-rw-r--r--classification_finie/finit_classif.tex6
-rw-r--r--classification_finie/introduction.tex4
-rw-r--r--classification_finie/main.tex2
-rw-r--r--classification_finie/tabular.tex6
4 files changed, 9 insertions, 9 deletions
diff --git a/classification_finie/finit_classif.tex b/classification_finie/finit_classif.tex
index b958275..3c30b0e 100644
--- a/classification_finie/finit_classif.tex
+++ b/classification_finie/finit_classif.tex
@@ -26,7 +26,7 @@ Nous pouvons alors construire un jeu de données d'indices :
{\#\{j\in [|0,o-1|]\quad| d_1(j)=y\}}
\end{equation*}
\end{definition}
-Cette définition est une approximation de l'exactitude équilibrée que nous avons défini plus haut.
+Cette définition est une approximation de l'exactitude équilibrée que nous avons définie plus haut.
\textbf{Le problème consiste à trouver une application $f:E\rightarrow F$ telle que l'exactitude équilibrée de $f$ sur $d$ est maximale.}
\subsection{Relation entre éléments et indices}
@@ -76,7 +76,7 @@ Pour simplifier un peu les notations, nous appellerons $B_{m\rightarrow n}$ l'en
$\varphi$ et $\psi$ peuvent être vus comme des indices sur $E$ et $F$.
Par exemple, chaque élément $e$ dans $E$ a un unique index $\varphi(e)$.
-Cette étape d'abstraction nous permet de construire des fonctions explicites de $E$ dans $F$ sans prendre en compte les spécificités des objets mathématiques dans ses ensembles.
+Cette étape d'abstraction nous permet de construire des fonctions explicites de $E$ dans $F$ sans prendre en compte les spécificités des objets mathématiques dans ces ensembles.
En effet, le théorème~\ref{th:bij} nous dit que pour chaque fonction des indices de $E$ vers les indices de $F$ nous pouvons trouver une unique fonction de $E$ dans $F$.
Et la preuve, étant constructive, nous indique que pour trouver cette fonction nous pouvons utiliser $\Phi^{-1}$.
@@ -359,7 +359,7 @@ Pour cela, dans le lemme qui suit nous allons reformuler l'exactitude équilibrÃ
\end{proof}
Ce lemme nous permet de calculer l'argmax souhaité en calculant l'entrée de la matrice $M = \left(e_i(l)\right)_{i\in[|0,m-1|],l\in[|0,m-1|]}$
-au lieu de calculer l'exactitude équilibrée de toutes le fonctions de $B_{m\rightarrow n}$.
+au lieu de calculer l'exactitude équilibrée de toutes les fonctions de $B_{m\rightarrow n}$.
Nous cherchons donc le maximum de chaque ligne de $M$ ce qui fait que nous n'avons qu'à parcourir une fois chaque élément de $M$.
Nous formalisons cette idée dans le théorème suivant :
diff --git a/classification_finie/introduction.tex b/classification_finie/introduction.tex
index 0e3443d..ac815fa 100644
--- a/classification_finie/introduction.tex
+++ b/classification_finie/introduction.tex
@@ -1,8 +1,8 @@
Dans ce premier chapitre de contribution, nous allons construire un nouvel algorithme d'apprentissage ensembliste.
Plus précisément nous allons nous intéresser à la manière de combiner plusieurs classifieurs : ce que nous avons appelé la seconde partie de la vie d'un algorithme d'apprentissage ensembliste à la Section~\ref{sec:background-aens}.
-Nous allons construire une solution similaire à celle de l'espace de connaissances du comportement\footnote{\textit{Behavior knowledge space}}~\cite{1626170} sauf que au lieu d'optimiser l'exactitude nous allons optimiser l'exactitude équilibré.
+Nous allons construire une solution similaire à celle de l'espace de connaissances du comportement\footnote{\textit{Behavior knowledge space}}~\cite{1626170} sauf que au lieu d'optimiser l'exactitude nous allons optimiser l'exactitude équilibrée.
Pour cela nous allons considérer que nous cherchons une fonction d'un ensemble fini $E$ vers un autre $F$.
$E$ correspond à l'ensemble des uplets possibles des sorties des classifieurs faibles et $F$ aux classes.
Nous commençons notre étude en considérant que nous avons une base de donnée ayant deux colonnes.
-L'une contient des éléments de $E$ et l'autre contient des étiquette de $F$.
+L'une contient des éléments de $E$ et l'autre contient des étiquettes de $F$.
diff --git a/classification_finie/main.tex b/classification_finie/main.tex
index 212477f..0d7a253 100644
--- a/classification_finie/main.tex
+++ b/classification_finie/main.tex
@@ -3,7 +3,7 @@
\section{Exactitude équilibrée et Classifieur à Choix Aléatoire}
\input{classification_finie/ba}
-\section{Construction d'un algorithme d'apprentissage ensemblise maximisant l'excatitude équilibrée}
+\section{Construction d'un algorithme d'apprentissage ensemblise maximisant l'exactitude équilibrée}
\input{classification_finie/finit_classif}
\section{Résultats expérimentaux}
diff --git a/classification_finie/tabular.tex b/classification_finie/tabular.tex
index 3f98b6b..656a855 100644
--- a/classification_finie/tabular.tex
+++ b/classification_finie/tabular.tex
@@ -2,7 +2,7 @@ Dans cette section nous allons évaluer comment se comporte notre algorithme dan
\subsection{Classification de données tabulaires}
Nous allons évaluer notre nouvel algorithme sur les jeux de données COMPAS et sur LAW.
-Nous présenterons plus en détail ces bases de données à la Section~\ref{sec:aia-méthodo-jeu}.
+Nous présenterons plus en détail ces bases de données à la Section~\ref{sec:aia-methodo-jeu}.
Disons pour le moment que COMPAS est un jeu tabulaire utilisé en justice prédictive pour créer des RAI comme nous les avons présentés en Section~\ref{sec:contexte-insti} et que LAW sert aux écoles de droit aux États-Unis pour sélectionner les étudiants en première année.
Nous allons entraîner notre algorithme ainsi qu'une forêt aléatoire pour prédire si un coupable est récidiviste ou non sur COMPAS et pour prédire si un étudiant en droit va réussir l'examen du barreau par LAW.
@@ -56,9 +56,9 @@ Notre algorithme développé plus haut ne soufre pas de tel problème car nous t
Nous explorons cet aspect avec l'expérience suivante : nous avons demandé à un panel d'utilisateur.ice.s de décrire en quelques mots les styles des tableaux de Paul Cézanne, un peintre impressionniste connu principalement pour ses tableaux de Provence.
Les utilisateur.ices.s ont vu défiler les tableaux un-à-un.
-Pour chaque tableau il.elle.s devaient remplir un champ de texte n'imposant aucune restriction.
+Pour chaque tableau il.elle.s devaient remplir un champ de textes n'imposant aucune restriction.
Cela a créé des réponses très hétérogènes comme par exemple \textit{Paul Alexis lisant à Émile Zola} montré en Figure~\ref{fig:zola} qui à été classifié comme \textquote{Hôpital psychiatrique}.
-Les utilisateur.rice.s peuvent être vu.e.s comme l'ensemble des classifieurs faibles dont notre algorithme va cumuler les prédictions pour en créer une qui fai consensus au sens de la maximisation de l'exactitude équilibrée.
+Les utilisateur.rice.s peuvent être vu.e.s comme l'ensemble des classifieurs faibles dont notre algorithme va cumuler les prédictions pour en créer une qui fasse consensus au sens de la maximisation de l'exactitude équilibrée.
C'est donc une méthode qui se rapproche de la votation.
\begin{figure}