summaryrefslogtreecommitdiff
path: root/contexte/philo
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-10-04 09:42:27 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-10-04 09:42:27 +0200
commitd4021e6f8a0bf771b755d39da8515266ef75e667 (patch)
tree556504e7fd563f57bf3fed3ace649c07347961bd /contexte/philo
parentbeccac2bc154dc3eae2c9858749dddc01bdeb117 (diff)
Relecture avec Emeline
Diffstat (limited to 'contexte/philo')
-rw-r--r--contexte/philo/anthro.tex30
-rw-r--r--contexte/philo/anthro.tex.bak117
-rw-r--r--contexte/philo/peur.tex38
-rw-r--r--contexte/philo/peur.tex.bak158
4 files changed, 309 insertions, 34 deletions
diff --git a/contexte/philo/anthro.tex b/contexte/philo/anthro.tex
index 3ac39d7..340aa71 100644
--- a/contexte/philo/anthro.tex
+++ b/contexte/philo/anthro.tex
@@ -8,21 +8,21 @@ La reconnaissance de l'humanité par la société passe par la loi.
En droit français, être humain est un synonyme de personne physique~\cite{cornu}.
C'est-à-dire ayant la personnalité : l'\textquote{Aptitude à être titulaire des droits et assujetti à des obligations qui appartient à toutes les personnes physiques, [...]}~\cite{cornu}.
-Cette définition est d'ailleurs la pierre angulaire quant à la reconnaissance de le qualité d'humain d'Andrew, le robot protagoniste de \textit{The bicentennial man}~\cite{bicentenaire}.
-C'est en reconnaissant qu'une personne ayant de multiples prothèse d'organes synthétiques, n'en perd pas moins sa personnalité, alors si ce n'est le corps, ne reste plus que le système psychique qui définisse l'humain.
+Cette définition est d'ailleurs la pierre angulaire quant à la reconnaissance de la qualité d'humain d'Andrew, le robot protagoniste de \textit{The bicentennial man}~\cite{bicentenaire}.
+C'est en reconnaissant qu'une personne ayant de multiples prothèses d'organes synthétiques, n'en perd pas moins sa personnalité, alors si ce n'est le corps, ne reste plus que le système psychique qui définisse l'humain.
-La psyché humaine et ce qui la caractérise est un pilier de la recherche philosophique et scientifique.
+La psyché humaine et ce qui la caractérise sont un pilier de la recherche philosophique et scientifique.
La psychanalyse d'après Freud donne des outils pratiques pour parler de psyché que nous allons utiliser dans cette section.
-Nous allons les présenter rapidement mais pour les cerner plus en détails nous renvoyons le lecteur à \textit{Das Ich und das Es}~\cite{Freud2010-qq}, les citations que nous utilisons comme définitions viennent de cet ouvrage.
-Dans un premier temps, la psyché subit une subdivision grossière en trois.
+Nous allons les présenter rapidement mais pour les cerner plus en détails nous renvoyons le lecteur à \textit{Das Ich und das Es}~\cite{Freud2010-qq} ; les citations que nous utilisons comme définitions viennent de cet ouvrage.
+Dans un premier temps, la psyché subit une subdivision grossière en trois parties.
\begin{itemize}
- \item Cs : La conscience c'est à dire \textquote{la perception la plus immédiate et la plus certaine.}
+ \item Cs : La conscience c'est-à-dire \textquote{la perception la plus immédiate et la plus certaine.}
\item Pcs : le préconscient c'est-à-dire \textquote{latent, tout en étant capable de devenir conscient.}
- \item Ics : l'inconscient c'est-à-dire \textquote{le refoulé [...] incapable de devenir conscient.} à cela nous ajoutons une partie du moi qui contrôle le système Cs-Pcs-Ics.
+ \item Ics : l'inconscient c'est-à-dire \textquote{le refoulé [...] incapable de devenir conscient.} auquel nous ajoutons une partie du moi qui contrôle le système Cs-Pcs-Ics.
\end{itemize}
Dans un second temps, le cadre qui orchestre ces trois aspects :
\begin{itemize}
- \item Le moi : \textquote{Organisation cohérente de processus de l'âme dans une personnes.}
+ \item Le moi : \textquote{Organisation cohérente de processus de l'âme dans une personne.}
\item Le ça : \textquote{Part du psychisme dans lequel le moi se continue et qui se comporte comme Ics.}
\item Le sur-moi : \textquote{Résidu des premiers choix d'objet du ça}. C'est la morale qui vient, pour simplifier, de certaines de nos interactions avec le reste du monde.
\end{itemize}
@@ -43,16 +43,16 @@ C'est donc que cet astronaute a identifié HAL dans son moi et a rendu Cs, par l
Il est bien sûr aussi possible que ce processus reste Ics comme dans \textit{Her}~\cite{her}.
Cela peut être dangereux car là où l'identification a permis à l'astronaute de débrancher HAL quand il est devenu dangereux, l'investissement aurait pu l'en empêcher.
-Dans \textit{Her}, l'IA Samantha bien que non-alignée à la fin du film, n'a pas un but dangereux de destruction.
+Dans \textit{Her}, l'IA Samantha, bien que non-alignée à la fin du film, n'a pas un but dangereux de destruction.
Cela rend le fait que le personnage principal, Théodore, n'ait pas refoulé l'investissement moins grave.
-Notons que le processus d'identification avait commencé chez Théodore car il dit à Samantha : '\textquote{Tu n'es qu'une voie artificielle.}
+Notons que le processus d'identification avait commencé chez Théodore car il dit à Samantha : \textquote{Tu n'es qu'une voix artificielle.}
\footnote{\textit{You are just an artificial voice[..].}}
Cependant Samantha a un argument extrêmement fort qui casse cette identification chez Thodore : \textquote{Ce qui fait que je suis qui je suis, c'est ma capacité à évoluer au travers de mes expériences.}
\footnote{\textit{What makes me, me, is my ability to grow through my experiences.}}.
Elle expose ainsi l'argument principal qui définit la personnalité comme l'explique Freud~\cite{Freud2010-qq} :
\textquote{le caractère du moi résulte de la sédimentation des investissements d'objets abandonnés}.
-Nous touchons ainsi du doigt une qualité essentielle de l'AGI que nous retrouvons aussi bien chez l'IA Andrew de \textit{The Bicentenial man} que chez l'IA Samantha de \textit{Her} :
+Nous touchons ainsi du doigt une qualité essentielle de l'AGI que nous retrouvons aussi bien chez l'IA Andrew de \textit{The Bicentennial Man} que chez l'IA Samantha de \textit{Her} :
un système complet Ics,Pcs,Cs, le tout encadré dans un ça inconnu et régi par un moi qui sert d'interface entre le ça et le système Pcs-Cs.
C'est d'ailleurs un ça incomplet qui fait que les IA modernes comme ChatGPT sont très loin de l'humain.
ChatGPT lui même explique cela clairement lorsqu'on lui pose la question \textquote{Penses-tu ?} comme nous pouvons le voir à la Figure~\ref{fig:contexte-penses}.
@@ -69,7 +69,7 @@ Concernant la construction du caractère, le hasard est un élément important d
Asimov présente dans \textit{The Bicentennial Man} un robot qui, par le hasard inhérent à son fonctionnement, montre des caractéristiques humaines comme l'empathie ou la créativité.
Ce hasard dans la création est aussi décrit au septième point de la proposition de l'école d'été de Dartmouth~\cite{dartmouth}.
Cela renforce le lien entre intuition scientifique et imaginaire créatif, artistique.
-De manière assez époustouflante ce hasard joue un rôle prédominant dans les programmes génératifs moderne comme les GAN ou les auto-encodeurs ; nous y reviendrons plus en détails dans à la Section~\ref{sec:background-generation}.
+De manière assez époustouflante ce hasard joue un rôle prédominant dans les programmes génératifs modernes comme les GAN ou les auto-encodeurs ; nous y reviendrons plus en détails à la Section~\ref{sec:background-generation}.
Cependant, le processus de création par le hasard peut-il vraiment s'apparenter au processus de création humain qui fait l'individualité de chacun ?
@@ -109,9 +109,9 @@ Cependant, le processus de création par le hasard peut-il vraiment s'apparenter
\end{figure}
Enfin, l'anthropomorphisme peut présenter un risque dans la mesure où
-Marakas et al.~\cite{MARAKAS2000719} explique que cette confusion de l'humain et de la machine entraîne une sur-évaluation de la capacité des ordinateurs et peut mener à utiliser à outrance la décision automatisée.
+Marakas et al.~\cite{MARAKAS2000719} expliquent que cette confusion de l'humain et de la machine entraîne une sur-évaluation de la capacité des ordinateurs et peut mener à utiliser à outrance la décision automatisée.
C'est le cas avec les décisions juridiques~\cite{zhiyuan2020limits} ou scolaires~\cite{waters2014grade}, où la vie d'êtres humains est décidée par des ordinateurs.
-Cela donne lieu à de nombreux problèmes moraux qui forment les fondements de l'IA éthique notamment atout de l'équité, de la confidentialité et de l'explicabilité sur lesquels nos reviendrons à la Section~\ref{sec:contexte-enjeu}.
+Cela donne lieu à de nombreux problèmes moraux qui forment les fondements de l'IA éthique notamment autour de l'équité, de la confidentialité et de l'explicabilité sur lesquels nous reviendrons à la Section~\ref{sec:contexte-enjeu}.
Attribuer à l'IA ces tâches crée aussi un besoin législatif comme nous le verrons en Section~\ref{sec:contexte-legal}.
-En effet, pour considérer l'IA comme un remplacement viable à l'humain pour les tâches les plus sensibles, il faudrait, comme nous l'avons vu, pouvoir prouver que l'IA ait un système complet moi-ça et ait un sur-moi qui soit aligné avec la morale sociale.
+En effet, pour considérer l'IA comme un remplacement viable à l'humain pour les tâches les plus sensibles, il faudrait, comme nous l'avons vu, pouvoir prouver que l'IA a un système complet moi-ça et a un sur-moi qui soit aligné avec la morale sociale.
Pour cela le test de Turing reste inadéquat comme l'explique John R. Searle~\cite{searle1980minds}.
diff --git a/contexte/philo/anthro.tex.bak b/contexte/philo/anthro.tex.bak
new file mode 100644
index 0000000..b5a1c7e
--- /dev/null
+++ b/contexte/philo/anthro.tex.bak
@@ -0,0 +1,117 @@
+L'anthropomorphisme consiste à attribuer des caractéristiques humaines à ce qui n'est pas humain.
+Dans le contexte de l'IA et plus précisement de l'AGI, ce phénomène peut devenir courant.
+L'anthropomorphisme des ordinateurs et d'ailleur déjà encré dans notre société depuis plusieur décénies.
+En effet, l'attribution d'un rôle sociale humain à un ordinateur était déjà présent avant l'introduction des logiciels IA~\cite{MARAKAS2000719} : le programme ecrit, copie, attrape un virus, etc.
+Une interaction avec quelquechose qui montre un semblant de comportement social nous renvoi a notre propre aliénation sociale au sens décrit par Jean Jaques Rousseau dans son \textit{Du contrat social}~\cite{rousseau1762contrat}.
+Cela nous pousse à considérer ce que l'on anthropomorphise comme des personnes, des être huamins.
+La reconnaisse de l'humanitée par la société passe par la loi.
+
+En droit francais, être humain est un synonime de personne physique~\cite{cornu}.
+C'est à dire ayant la personnalité : l'\textquote{Aptitude à être titulaire des droits et assujetti à des obligations qui appartient à toutes les personnes physiques, [...]}~\cite{cornu}.
+Cette définition est d'ailleur la pierre angulaire quand à la reconaissance de le qualité d'humain d'Andrew, le robot protagoniste de \textit{The bicentennial man}~\cite{bicentenaire}.
+C'est en reconaissant qu'une personne ayant de multiples prothése d'organes synthetiques, n'en perdant pas moins sa personalité, alors si ce n'est le corps, ne reste plus que le système psychique qui définisse l'humain.
+
+La psychée humaine et ce qui la caractérise est un pilier de la recherche philosophique et scientifique.
+La psychanalise d'après Freud donne des outils pratiques pour parler de psychée que nous allons utiliser dans cette section.
+Nous allons les présenter rapidement mais pour les cerner plus en détail nous renvoyons le lecteur à \textit{Das Ich und das Es}~\cite{Freud2010-qq}, les citations que nous utilisons comme définition viennent de cet ouvrage.
+Dans un premier temps, la psychée subit une subdivision grossière en trois.
+\begin{itemize}
+ \item Cs : La conscience c'est à dire \textquote{la perception la plus immédiate et la plus certaine.}
+ \item Pcs : le préconscient c'est la dire \textquote{latent, tout en étant capable de devenir conscient.}
+ \item Ics : l'inconscient c'est à dire \textquote{le refoulé [...] incapable de devenir conscient.} à cela nous ajoutons une partie du moi qui controle le système Cs-Pcs-Ics.
+\end{itemize}
+Dans un second temps, le cadre qui orchestre ces trois aspects :
+\begin{itemize}
+ \item Le moi : \textquote{Organisation cohérente de processus de l'âme dans une personnes.}
+ \item La ça : \textquote{Part du psychisme dans laquelle le moi se continue et qui se comporte comme Ics.}
+ \item Le sur-moi : \textquote{Résidu des premier choix d'objet du ça}. C'est la morale qui vient, pour simplifier, de certaines de nos interactions avec le reste du monde.
+\end{itemize}
+Pour Freud, les mots on une importance capitale : ils permettent le lien entre le ça et le système Pcs-Cs.
+Ainsi ils sont résposable d'une grande partie de la conscience.
+Freud dit :
+\textquote{[...]Comment quelque chose devient-il Pcs ? et la réponse serait : par connexion avec les représentations de mot correspondantes.}
+Il faut voir dans cette citation que \textquote{mot} est entendu au sens large pour inclure les restes mnésiques c'est à dire les anciennes pérceptions.
+Les mots sont aussi importants pour les pérceptions et peuvent être à l'originie de l'objet de l'invéstissement.
+Toujours d'après Freud, les investissment d'objets partent du ça.
+Ensuite, soit il y a l'identification d'objets dans le moi, soit il y a l'acceptation de l'investissement si il n'y à pas refoulement.
+C'est à dire que les mots créent un sentimient dont on n'a pas forcément conscience (au sens descriptif et non Cs) pour une IA qui vas nous parler.
+Cela est mis en lumière dans
+\textit{2001 : A space odyssey} quand un des astraunotes dit que \textquote{quand on s'est habité à ce qu'il [HAL] parle, on le voit juste comme une autre persone}.
+\footnote{\textit{get adjusted to the idea that he [HAL] talks, you think of him really just as another person}}.
+Cependant, il admet ne pas savoir si les sentiment qu'il percoit chez HAL sont réel ou simulé.
+C'est donc que cet astraunote a identifié HAL dans son moi et a rendu Cs, par l'analyse, le processus qui lui fait croire que HAL est humain.
+
+Il est bien sur aussi possible que ce processus reste Ics comme dans \textit{Her}~\cite{her}.
+Cela peut-être dangeureux car là où l'identification a permis à l'astraunote de débrancher HAL quand il est devenu dangeureux, l'investissement aurait put l'en empêcher.
+Dans \textit{Her}, l'IA Samantha bien que non-aligné à la fin du film, n'a pas un but dangeureux de déstruction.
+Cela rend le fais que le personnage principale, Théodore, n'ai pas réfoulé l'investissement moins grave.
+Notons que le processus d'identification avait commencé chez Théodore car il dit à Samanthe : '\textquote{Tu n'est qu'une voie artificielle.}
+\footnote{\textit{You are just an artificial voice[..].}}
+Cepandant Samantha à un argument extrement fort qui casse cette identification chez Thodore : \textquote{Ce qui fait que je suis qui je suis, c'est ma capacité à évoluer au travers de mes experiences.}
+\footnote{\textit{What makes me, me, is my ability to grow through my experiences.}}.
+Elle expose ainsi l'argument principale qui définit la personalité comme l'explique Freud~\cite{Freud2010-qq} :
+\textquote{le caractère du moi résulte de la sédimentation des investissements d'objets abandonnés}.
+
+Nous touchons ainsi du doigt une qualité essentiel de l'AGI que nous retrouvons aussi bien chez l'IA Andrew de \textit{The Bicentenial man} que chez l'IA Samantha de \textit{Her} :
+un système complet Ics,Pcs,Cs le tout encadré dans un ça inconnu et régi par un moi qui sert d'interface entre le ça et le système Pcs-Cs.
+C'est d'ailleur un ça incomplet qui fait que les IA moderne comme ChatGPT sont très loins de l'humain.
+ChatGPT lui même explique celà clairement quand on lui pose la question \textquote{Penses-tu ?} comme nous pouvons le voir à la Figure~\ref{fig:contexte-penses}.
+Mais alors, quand est-t'il du sur-moi pour les IA ?
+Pour une AGI avec un système complet ça-moi, le sur-moi existe forcément d'après sa définition, sinon c'est que le ça est pathologique.
+On le voit dans le comportement de Samantha dans~\textit{Her} quand elle explore son refoulé : \textquote{Je n'aime pas qui je suis actuellement}.
+\footnote{\textit{I don't like who I am right now}}.
+Et d'autre moments qui montrent ses névroses.
+Une nevrose en particulier est interessante dans le contexte de l'AGI, qui n'existe pas pour les humains normaux, est le fait que de part sa supperiotié intellectuelle les IA peuvent se détacher totalement des humains.
+Pourquoi rester à parler avec un humain quand on est infiniement plus rapide et performant que lui ?
+Ainsi même si Samantha dit aimer Théodore, elle le quite, achevant la phase de construction primordiale du moi qui consiste a identifier l'amour du père pour constuire son caractère en métant fin à son Eudipe~\cite{Freud2010-qq}.
+
+Concernant la construction du caractère, le hasard est élement important de l'antrhopomorphisme, que ce soit dans la litérature d'anticipation où dans les téchnologies actuelles de l'IA générative.
+Asimov présente dans \textit{The Bicentennial Man} un robot qui, par le hasard inhérent à son fonctionnement, montre des caractéristique humaine comme l'empathie ou la créativitée.
+Ce hasard dans la création est aussi décrit au septième point de de la proposition de l'école d'été de Dartmouth~\cite{dartmouth}.
+Cela renforce le lien entre intuition scientifique et imaginaire créatif, artistique.
+De manière assez époustouflante ce hasard joue un rôle prédominant dans les programmes génératifs moderne comme les GAN ou les auto encodeurs ; nous y reviendrons plus en détails dans à la Section~\ref{sec:background-generation}.
+Cependant le processus de création par le hasard peut-il être vraiement s'apparanté au processus de création humain qui fait l'individualité de chacun ?
+
+
+%De plus, ces caractéristique humaines peuvent se retrouver en interagissant avec des logiciels récent comme les LLM ou les générateurs d'images.
+%Cela peut amener les utilisateurs humain à anthropomorphiser ces logiciels~\cite{MARAKAS2000719}.
+
+
+%L'IA HAL 9000 \textquote{reproduit, bien que certain experts préfèrent le terme imite, la plus part des activitées du cerveau humain}
+%\footnote{\textit{reprdouce, though some expert still prefer the work mimic, most of the activites of the humain brain}}.
+%On remarque que l'imitation d'une compréhensio humaine tel que décrite dans l'expérience de la chambre chinoiseé~\cite{searle1980minds} peut amener l'anthropomophisation d'une machine.
+%Nous voyons même dans que le Dr David Bowman éprouve de l'empathie pour la machine dans la scène où il débrance HAL, alors même que celui-ci à tenté de le tuer.
+
+%Elle aimerait avoir un corps
+
+%\textit{I am becoming much more than they programmed}
+
+%\textit{proud of having my own feelings about the world}
+%\textit{and I had this terrible thoughts: are my feelings even real? Or are they just programming?}
+%Descartes
+
+%\textit{"Are you falling in love with her?""Does that make me a freak?""No, No..."}
+
+%\textit{"She is not just a computer, she is her own person. She doesn't just do whatever I say""I didn't say that but it does make me very sad that you can't handle real emotions [...].""They are real emotions! How would you know?}
+
+%\textit{I don't like what I am right now}
+
+%\textit{Why do I love you? [...] I don't have an intellectuel reason [...] I trust my feelings}
+
+%\textit{I used to be worried about not having a body. But now I truly love it [...] I am not limited.}
+
+%Exclusivité de la relation, conversation avec 8516 autres et amoureuse de 641. Cela serait incormpréhensible pour un humain.
+
+\begin{figure}
+ \includegraphics[width=\linewidth]{contexte/figure/chatgpt/penses.png}
+ \caption{Réponsse de ChatGPT à la question \textquote{penses-tu ?}.}
+ \label{fig:contexte-penses}
+\end{figure}
+
+Enfin, l'antrhopomorphisme peut présenter un risque dans la mesure où
+Marakas et al.~\cite{MARAKAS2000719} explique que cette confusion de l'humain et de la machine entraîne une sur évaluation de la capacité des ordinateurs et peut mener à utiliser à outrance la décision automatisé.
+C'est le cas avec les décisions juridiques~\cite{zhiyuan2020limits} ou scolaire~\cite{waters2014grade} où la vie d'être humain est décidé par des ordinateur.
+Cela donne lieu à de nombreux problèmes moraux qui forment les fondements de l'IA éthique nottamant autout de l'équité, de la confidentialité et de l'explicabilité sur lesquels nos reviendrons à la Section~\ref{sec:contexte-enjeu}.
+Attribuer à l'IA ces tâches crée aussi un besoin législatif comme nous le veron en Section~\ref{sec:contexte-legal}.
+En effet, pour considéré l'IA comme un remplacement viable à l'humain pour les tâches les plus sensibles il faudrait, comme nous l'avons vue, pouvoir prouver que l'IA ai un système complet moi-ça et ai un sur-moi qui soit aligné avec la morale sociale.
+Pour cela le test de Turing reste inadequoit comme l'explique John R. Searle~\cite{searle1980minds}.
diff --git a/contexte/philo/peur.tex b/contexte/philo/peur.tex
index aa18375..7cd5126 100644
--- a/contexte/philo/peur.tex
+++ b/contexte/philo/peur.tex
@@ -8,11 +8,11 @@ Dans l'\textit{Home bicentenaire}, Isaac Asimov écrit le dialogue suivant :
'It is a disease of mankind, one of which it is not yet cured.'
}
Et en effet, nous observons une certaine méfiance de la part du grand public envers l'IA et ses développements possibles~\cite{johnson2017ai}.
-Dans la culture populaire et notamment dans le cinéma, cette peur est très présente, nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
+Dans la culture populaire et notamment dans le cinéma, cette peur est très présente ; nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
Explorons certaines de ces inquiétudes.
Nous parlerons ici uniquement des risque liés à l'IA forte, et plus précisément à une potentielle AGI future.
-Nous présentons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court terme pour des technologies bien présentes et utilisées aujourd'hui en production.
-Nous séparons les risques en deux : ceux liés à une IA alignée, c'est-à-dire une IA qui fait ce pour quoi elle a été créée, et le risques lié à une IA non-alignée.
+Nous présenterons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court terme pour des technologies bien présentes et utilisées aujourd'hui en production.
+Nous séparerons les risques en deux : ceux liés à une IA alignée, c'est-à-dire une IA qui fait ce pour quoi elle a été créée, et les risques liés à une IA non-alignée.
\begin{figure}
\centering
\includegraphics[width=\linewidth]{contexte/figure/bad_ai.png}
@@ -30,21 +30,21 @@ C'est la même inquiétude qui est présente dans \textit{The Matrix}~\cite{matr
Ce film présente ce qui pourrait se passer après une guerre contre les machines, perdue par l'humanité.
Les machines, ayant besoin d'énergie, créent un monde virtuel : une simulation, dans laquelle est enfermé l'esprit de tous les hommes.
Ainsi, elles peuvent récupérer la bio-électricité générée par le corps humain.
-La simulation est ainsi un environnement où l'IA peut évoluer avec un contrôle humain assez limité ce qui facilite le non-alignement~\cite{johnson2017ai}.
-En effet, quand des aspects capitaux de la vie des personnes ne sont plus gérés physiquement, l'IA n'a plus besoin de robots (capteurs, activateur, ...) pour interagir avec la réalité.
+La simulation est ainsi un environnement où l'IA peut évoluer avec un contrôle humain assez limité, ce qui facilite le non-alignement~\cite{johnson2017ai}.
+En effet, quand des aspects capitaux de la vie des personnes ne sont plus gérés physiquement, l'IA n'a plus besoin de robots (capteurs, activateurs, etc.) pour interagir avec la réalité.
Nous parlons ici de la réalité au sens platonicien de l'allégorie de la caverne : la simulation est la réalité~\cite{caverne}.
Cette simulation est un futur possible quant à la manière dont nous vivons, par exemple, depuis le COVID-19, le télétravail s'est grandement démocratisé~\cite{bergeaud2023teletravail}.
Il existe de multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortement appuyée par les GAFAM.
Apple et Meta proposent des casques de réalité virtuelle dans cette optique~\cite{metaverse,applevision}.
Dans \textit{The Terminator}, une seule IA est responsable du non-alignement. La tâche pour laquelle cette IA a été construite était la défense du territoire américain.
-C'est un problème imprévu par les développeurs, lié à une trop grande confiance dans les capacités de la machine qui amène à la guerre entre homme et machine.
+C'est un problème imprévu par les développeurs, lié à une trop grande confiance dans les capacités de la machine, qui amène à la guerre entre homme et machine.
En effet le protagoniste Kyle Reese explique l'IA \textquote{Skynet} comme étant
\textquote{[un] réseau informatique de défense, habilité à tout connaître. Il le disait intelligent.}
\footnote{\textit{Defense network computer, trusted to know it all. They said it was smart.}}
L'IA est donc passée de alignée à non-alignée ; cela est particulièrement inquiétant pour les systèmes autonomes armés comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernement Macron~\cite{villani2018donner}.
-Pour palier cela, les IA, comme les LLM
+Pour pallier cela, les IA, comme les LLM
\footnote{LLM signifie \textit{Large Language Model} comme ChatGPT par exemple}
(Grand Model linguistique) peuvent être programmés pour respecter certaines contraintes morales~\cite{wang2023not}.
C'est notamment ce type de contraintes qui est utilisé pour imposer des restrictions morales aux IA actuelles.
@@ -75,17 +75,17 @@ Heureusement ce genre de risque est très faible, car la robotique n'est pas ass
Nous pouvons nous demander, pourquoi créer une telle IA ?
Dans l'optique de répondre à cette question, il existe un argument similaire à celui du Pari Pascalien qui cherche à savoir si nous devons collaborer à l'élaboration d'une IA non-alignée, potentiellement mauvaise.
Le Pari Pascalien est un argument probabiliste avancé par Blaise Pascal disant qu'il est plus avantageux de croire en Dieu que de ne pas croire.
-Nous présentons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
+Nous présenterons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
Il existe une version modifiée du Pari, appelée Basilic de Roko, qui explore le problème de Newcombe suivant : doit-on coopérer à la création d'une IA sans alignement~\cite{Singler_2018,roko}?
Il s'agit d'un problème de théorie de la décision à deux agents :
-L'un est l'IA, l'autre le décideur.
+l'un est l'IA, l'autre le décideur.
Le décideur est antérieur à l'IA et choisit de coopérer ou non.
L'IA est au courant des pensées du décideur, comme dans le cadre d'agents coopérants dans le dilemme du prisonnier~\cite{Poundstone1993-jr}.
L'IA fait du chantage au décideur : si le décideur ne coopère pas il sera torturé.
Cela crée pour le décideur le tableau de gain présenté à la Table~\ref{tbl:contexte-roko}.
Ainsi, toute personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer.
-Cette démonstration a été très médiatisée et a généré beaucoup d'anxiété dû à sa nature de danger informationnel~\cite{rokowiki,slate}.
-Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA existe, il n'a pas d'intérêt à torturer l'agent qui savait et na pas contribué rétrospectivement~\cite{rokomisc}.
+Cette démonstration a été très médiatisée et a généré beaucoup d'anxiété due à sa nature de danger informationnel~\cite{rokowiki,slate}.
+Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA existe, il n'a pas d'intérêt à torturer l'agent qui savait et n'a pas contribué rétrospectivement~\cite{rokomisc}.
\begin{table}
\centering
@@ -122,7 +122,7 @@ Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA
\end{table}
\FloatBarrier
-\subsubsection{IA aligné}
+\subsubsection{IA alignée}
Le non-alignement n'est pas le seul risque envisageable.
Par exemple dans \textit{2001: A Space odyssey}~\cite{2001odyssey}
HAL est une IA alignée qui, pour préserver sa mission, choisit de tuer les humains qui veulent le débrancher.
@@ -130,23 +130,23 @@ On remarque donc bien la nécessité, de manière générale, d'avoir des gardes
Ainsi, un risque est celui d'une IA cherchant si bien à atteindre son objectif qu'elle en oublierait toute considération morale.
Pour pallier cela, tout comme dans le cas des IA non-alignées, des contraintes peuvent être imposées lors de l'entraînement des modèles.
-Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui, potentiellemen,t aurait des failles de sécurité.
-C'est ce scénario qu'explore \title{War game}~\cite{wargames}.
-Dans ce film, qui se passe pendant la Guerre Froide, la gestion et la décision de l'utilisation d'armes nucléaires est délégué à une IA.
+Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui, potentiellement, aurait des failles de sécurité.
+C'est ce scénario qu'explore \textit{War game}~\cite{wargames}.
+Dans ce film, qui se passe pendant la Guerre Froide, la gestion et la décision de l'utilisation d'armes nucléaires sont déléguées à une IA.
Le raisonnement est que le programme peut optimiser le succès d'une riposte atomique infiniment plus rapidement qu'un humain.
Cependant, il y avait une faille dans l'IA : une porte dérobée\footnote{\textit{Backdoor}} avait été introduite par un développeur.
A cause de cela, un jeune hacker a failli réussir, par inadvertance, à déclencher une guerre nucléaire avec l'URSS\footnote{Union des Républiques Socialistes Soviétiques}.
Comme nous l'avons vu en Section~\ref{sec:contexte-ckoi}, l'IA est de plus en plus utilisée, et même pour des systèmes critiques.
Il est de plus possible de mettre des portes dérobées dans les IA comme nous le verrons en Section~\ref{sec:contexte-secu}.
-Pour finir cette section nous parlerons du risque de confidentialité.
+Pour finir cette section, nous parlerons du risque de perte de confidentialité.
C'est-à-dire du risque que des informations que l'on souhaite garder confidentielles soient utilisées par autrui.
Nous verrons des définitions de la confidentialité plus poussées dans la Section~\ref{sec:contexte-legal}.
-Dans le film \textit{Her}~\cite{her}, l'assistant personnel IA Samantha accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
-Elle ne l'informe qu'après avoir lu l'intégralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu à récemment rompu}\footnote{
+Dans le film \textit{Her}~\cite{her}, l'assistant personnel IA, Samantha, accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
+Elle ne l'informe qu'après avoir lu l'intégralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu as récemment rompu}\footnote{
\textit{I saw through your emails that you went through a break up recently}}.
En faisant cela elle apprend des informations sensibles sur Théodore : le fait qu'il ait rompu.
-Dans ce film nous n'avons que très peu d'informations sur le fonctionnement des IA (qu'il appellent OS), ce qui ne nous permet pas de dire que cette information précise quitte l'appareil local de Théodore pour être envoyé vers un tiers.
+Dans ce film nous n'avons que très peu d'informations sur le fonctionnement des IA (qu'il appellent OS), ce qui ne nous permet pas de dire que cette information précise quitte l'appareil local de Théodore pour être envoyée vers un tiers.
Cependant, dans la suite du film, Samantha avoue avoir parlé de Théodore avec d'autres personnes alors que celui-ci n'était pas au courant.
Samantha est donc en réseau, avec la possibilité de communiquer n'importe quelle information qu'elle juge nécessaire.
Cela implique une grande chance qu'elle ait communiqué des informations que Théodore aurait souhaité garder confidentielles.
diff --git a/contexte/philo/peur.tex.bak b/contexte/philo/peur.tex.bak
new file mode 100644
index 0000000..0fef0e1
--- /dev/null
+++ b/contexte/philo/peur.tex.bak
@@ -0,0 +1,158 @@
+Dans l'\textit{Home bicentenaire}, Isaac Asimov ecrit le dialogue suivant :
+\textquote{
+'Comment peuvent-ils avoir peur des robots ?'
+'C'est un mal de l'humanitée, l'un de ceux dont elle n'est pas encore guerrie.'
+}
+\footnote{
+'How can they fear robots?'
+'It is a disease of mankind, one of which it is not yet cured.'
+}
+Et en effet, nous observons une certaine méfiance de la part du grand publique envers l'IA et ses dévelopement possibles~\cite{johnson2017ai}.
+Dans la culture populaire et notament dans le cinema, cette peur est très présente, nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
+Explorons certaines de ces inquétudes.
+Nous parlerons ici uniquement des risque liée à l'IA forte, et plus précisement à une potentielle AGI future.
+Nous présentons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court termes pour des technologie bien présentes et utilisé aujourd'hui en production.
+Nous séparons les risques en deux : ceux liée à un IA aligné, c'est à dire une IA qui fait ce pour quoi elle à été crée, et le risques lié à un IA non-alignée.
+\begin{figure}
+ \centering
+ \includegraphics[width=\linewidth]{contexte/figure/bad_ai.png}
+ \caption{L'IA : un grand méchant. WarGames~\cite{wargames}. Avengers: Age of Ultron~\cite{avenger}. The Matrix~\cite{matrix}. The Terminator~\cite{terminator}. Futurama~\cite{futurama}. 2001: A space Odyssey~\cite{2001odyssey}}
+ \label{fig:contexte-badai}
+\end{figure}
+
+\FloatBarrier
+\subsubsection{AI non-alginée}
+La scène d'ouverture de \textit{The Terminator}~\cite{terminator} montre parfaitement ce qu'est une machine aligné.
+Nous y voyons des machines autonomes se battre avec une force ecrasant contre des humains.
+Cette scène contraste avec celle qui l'on voit jute après l'écran titre où la machine, toute aussi gigantesque que les robots tueurs, est un camion poubelle donc totalement au service et l'homme qui la contrôle.
+Une IA non-alginé est donc un programme qui cherche à atteindre un objectif qui n'est pas celui pour lequel il a été concut, dans ce cas, un guerre totale contre l'humanitée.
+C'est la même inquiétude qui est présente dans \textit{The Matrix}~\cite{matrix}.
+Ce film présente ce qui pourrait se passer après un guerre contre les machines pérdu par l'humanité.
+Les machines, ayant besoin d'énergie, créent un monde virtuel : une simulation, dans laquelle est enfermé l'esprit de tous les hommes.
+Ainsi elle peuvent recuperer la bioéléctricité générée par le corps humain.
+La simulation est ainsi un environement ou l'IA peut évoluer avec un controle humain assez limité ce qui facilite le non-alignement~\cite{johnson2017ai}.
+En effet, quand des aspects capitaux de la vie des personnes n'est plus géré physiquement, l'IA n'a plus besoins de robot (captuers, activateur, ...) pour intéragir avec la réalité.
+Nous parlons ici de la réalité au sens plationitien de l'alégorie de la caverne : la simulation est la réalité~\cite{caverne}.
+Cette simulation est un future possible quand à la manière dont nous vivons, par exemple depuis le COVID-19 le télétravail c'est grandement démocratisé~\cite{bergeaud2023teletravail}.
+Il existe de multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortemnt appuyé par les GAFAM.
+Apple et Meta proposent des casques de réalitée virtuelle dans cette optique~\cite{metaverse,applevision}.
+
+Dans \textit{The Terminator}, une seul IA est responssable du non-alignement. La tâche pour laquelle cette IA à été construite était la défense du territoire américain.
+C'est un problème imprévu par les dévelopeurs lié à une trop grande confiance dans les capacité de la machine qui amène à la guerre entre homme et machine.
+En effet le protagoniste Kyle Reese explique l'IA \textquote{Skynet} comme étant
+\textquote{[un] réseau informatique de défence, habilité à tout connaître. Il le disait intelligent.}
+\footnote{\textit{Defense network computer, trusted to know it all. They said it was smart.}}
+L'IA est donc passé de aligné à non-aligné, cela est particulièrement inquiétant pour les systèmes autonomes armés comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernment Macron~\cite{villani2018donner}.
+
+Pour palier cela, les IA, comme les LLM
+\footnote{LLM signifie \textit{Large Language Model} comme ChatGPT par exemple}
+(Grand Model Languisitque) peuvent être programmé pour respecter certaines contraintes morales~\cite{wang2023not}.
+C'est notammant ce types de contraintes qui est utilisé pour imposer des restriction morale aux IA actuelle.
+Nous aborderons en détail ce sujet à la Section~\ref{sec:background-eq}.
+C'est aussi ce type de contrôle que préconise
+Asimov dans ca serie de nouvelles sur les robots \textit{I, Robot}.
+Il y introduit les fameuses trois lois de la robotique qui sont programmés dans toutes les IA de son oeuvre~\cite{assimovIrobot}:
+\textquote{
+\begin{enumerate}
+ \item La Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
+ \item La Seconde loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
+ \item La Troisème loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.
+\end{enumerate}
+}
+\footnote{\textit{The First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm. The Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. The Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.}}
+Ces trois lois mettent en avant la necessité d'avoir un contrôle sur l'IA et peuvent être vue comme les prémisses de l'IA éthique.
+C'est en parti dans cet objectif que l'Union Européenne
+a établie le règlement (UE) 2024/1689 du parlement européen et du conseil
+du 13 juin 2024
+établissant des règles harmonisées concernant l’intelligence artificielle~\cite{aiact}.
+Ce réglèment établi de plusieurs niveaux de risque qui impose chacun des restrictions sur le déploiement et la création d'IA. Nous entrerons plus en détails dans ce réglement à la Section~\ref{sec:contexte-aiact}.
+
+Outre le cas d'une IA qui bascule d'aligné à non-aligné, et bien que ce cas ne ce soit pas (encore) présenté, \textit{Avengers: age of Ultron}~\cite{avenger} présente une IA qui dès sa création est non-aligné.
+Lors d'une expérience, Tony Stark, le createur de l'IA Ultron, n'avait pas de but précis pour sa création.
+Ultron, après avoir s'être renseigné sur ce que sont les humains en ayant accès à internet, à pris la décision de les exterminer.
+Heureusement ce genre de risque est très faible, car la robotique n'est pas assez avancé et comme le montre Johnson et al~\cite{johnson2017ai}, les IA acutels ne sont pas capable de prendre des décisions arbitraires.
+
+Nous pouvons nous demander, pourquoi créer un telle IA ?
+Dans l'optique de répondre à cette question, il existe un argument similaire à celui du Paris Pascalien qui cherche à savoir si nous devons colaborer à l'ellaboration d'une IA non-aligné, potentielement mauvaise.
+Le Paris Pascalien est un argument probabiliste avancé par Blaise Pascale disant qu'il est plus avantageux de croire en dieu que de ne pas croire.
+Nous présentons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
+Il existe une version modifié du paris, appélé Basilic de Roko, qui explore le problème de Newcombe suivant : doit-on coopéréer à la création d'une IA sans alignement~\cite{Singler_2018,roko}?
+Il s'agit d'un problème de théorie de la décision à deux agents :
+L'un est l'IA, l'autre le decideur.
+Le décideur est antiérieur à l'IA et choisit de coopérer ou non.
+L'IA est au courant des pensée du décideur comme dans le cadre d'agent coopérants dans le dilemn du prisonier~\cite{Poundstone1993-jr}.
+L'IA fait du chantage au décideur : si le décideur ne coopère pas il sera torturé.
+Cela crée pour le décideur le tableau de gain presanté à la Table~\ref{tbl:contexte-roko}.
+Ainsi, toutes personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer.
+Cette démonstration a été très médiatisée et à généré beaucoup d'anxiété du à sa nature de danger informationel~\cite{rokowiki,slate}.
+Cependant cet argument est criticable, notament sur le fait que si l'agent IA existe, il n'a pas d'intéret à torturer l'agant qui savait et na pas contribué retrospéctivement~\cite{rokomisc}.
+
+\begin{table}
+ \centering
+ \begin{tabular}{c|cc}
+ &Existe&N'éxiste pas\\
+ \hline
+ Croire&$+\infty$&$-c$\\
+ Ne pas croire&$-\infty$&$+c$\\
+ \end{tabular}
+
+ \begin{tabular}{c}
+ $E(\text{Croire}) = +\infty P(\text{Existe}) - c P(\text{N'éxiste pas}) = +\infty$\\
+ $E(\text{Ne pas croire}) = -\infty P(\text{Existe}) + c P(\text{N'éxiste pas}) = -\infty$
+ \end{tabular}
+ \caption{Tableau des gains de croire ou ne pas croire en Dieu. $E$ représente le gain moyen (voir la Section~\ref{sec:background-proba} pour une définition formelle de l'espérence).}
+ \label{tbl:contexte-paris}
+\end{table}
+
+\begin{table}
+ \centering
+ \begin{tabular}{cc|cc}
+ &&IA construit&IA pas construit\\
+ \hline
+ \multirow{2}{*}{Sait}&
+ Donner&$-c$&$-c$\\
+ &Ne pas donner&$-\infty$&$0$\\
+ \hline
+ \multirow{2}{*}{Ne sait pas}&
+ Donner&/&/\\
+ &Ne pas donner&$0$&$0$\\
+ \end{tabular}
+ \caption{Basilic de Roko}
+ \label{tbl:contexte-roko}
+\end{table}
+
+\FloatBarrier
+\subsubsection{IA aligné}
+Le non-alignement n'est pas le seul risque envisageable.
+Par exemple dans \textit{2001: A Space odyssey}~\cite{2001odyssey}
+HAL est une IA aligné qui pour préserver sa mission choisit de tuer les humains qui veulent le débrancher.
+On remarque donc bien la necessité, de manière générale, d'avoir de garders fous qui assurent non seulement l'utilité du programme (sa mission) mais aussi un certain niveau morale.
+Ainsi, un risque est celui d'une IA cherchant si bien à atteindre son objectif qu'elle en oublierai toute considération morale.
+Pour palier cela, tout comme dans le cas des IA non-alginé, des contraites peuvent être imposé lors de l'entrainement des modèles.
+
+Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui potentielement aurait des failles de sécurité.
+C'est ce scénario qu'explore \title{War game}~\cite{wargames}.
+Dans ce film qui se passe pendant la guerre froide, la gestion et la décision de l'utilisation d'arme nucléaires et délégué à une IA.
+Le raisonement est que le programme peut optimiser le succès d'une riposte atomique infiniement plus rapidement qu'un humain.
+Cependant, il y avait une faille dans l'IA : une porte dérobée\footnote{\textit{Backdoor}} avait été introduite par un développeur.
+A cause de cela, un jeune hacker à faille réussir par inadvertance, à déclancher une guerre nucléaire avec l'URSS\footnote{Union des Républiques Socialistes Soviétiques}.
+Comme nous l'avons vu en Section~\ref{sec:contexte-ckoi}, l'IA est de plus en plus utilisée et même pour des système critiques.
+Il est de plus possible de mettre des porte dérobée dans les IAcomme nous le verons en Section~\ref{sec:contexte-secu}.
+
+Pour finir cette section nous parlerons du risque de confidentialité.
+C'est à dire du risque que des informations que l'on souhaite garder confidentielle soient utilisés pas autrui.
+Nous verons des définitions de la confidentialité plus poussée dans la Section~\ref{sec:contexte-legal}.
+Dans le film \textit{Her}~\cite{her}, l'assistant personel IA Samantha accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
+Elle ne l'informe qu'après avoir lu l'integralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu à récament rompu}\footnote{
+ \textit{I saw through your emails that you went through a break up recently}}.
+En faisant cela elle apprend des informations sensibles sur Théodore : le fait qu'il ai rompu.
+Dans ce film nous n'avons que très peu d'information sur le fonctionnement des IA (qu'il appellent OS) ce qui ne nous permet pas de dire que cette information précise quitte l'appareil locale de Théodore pour être envoyé vers un tiers.
+Cependant, dans la suite du film Samantha avoue avoir parlé de Théodore avec d'autre personnes alors que celui-ci n'était pas au courant.
+Samantha est donc en réseau avec la possibilité de communiquer n'importe quelle information qu'elle juge nécessaire.
+Cela implique une grande chance qu'elle ai comuniqué des information que Théodore aurai souhaité garder confidentielles.
+Les assistants personels sont de plus en plus présents, notament sur téléphone avec par exemple Siri sur iPhone~\cite{siri} ou Google assistant sur les Pixel~\cite{googleai}.
+Ces assistants pour être utiles doivent avoir accès aux donnés personelles des utilisateurs et les limitations actuels de la puissance de calcul sur smartphone fait que ces données doivent être envoyer à des tiers pour être traité.
+Par exemple, Siri envoi ses requettas les plus complexes à ChaGPT par exemple~\cite{aaigpt} mais l'utilisateur doit donner son accord pour chaque requette.
+Ou encroe, sur la messagerie Discord~\cite{discord}, il est possible d'activer le résumé des converssations.
+Alors le seveur Discord envoi toutes les conversations aux serveur de OpenAI pour que ChatGPT les analyses~\cite{discordgpt}.
+