summaryrefslogtreecommitdiff
path: root/contexte/philo.tex
diff options
context:
space:
mode:
Diffstat (limited to 'contexte/philo.tex')
-rw-r--r--contexte/philo.tex69
1 files changed, 6 insertions, 63 deletions
diff --git a/contexte/philo.tex b/contexte/philo.tex
index 7ebdfb8..6c53b5b 100644
--- a/contexte/philo.tex
+++ b/contexte/philo.tex
@@ -1,75 +1,18 @@
-\subsection{La peur et le contrôle}
-\subsection{La mauvaise utilisation}
-\subsection{Anthropomorphisation}
-
Enfin, nous allons terminer cette section visant à mieux cernerles différents aspects de l'IA, par une présentation succinte de ses apparition marquante dans la culture populaire ainsi que de ces implications philosophie.
Cele permet de mettre en avant l'imaginaire collectif, fantasmé, voir effrayant, que les mots Intelligence Artificiele engendrent.
Alors que scientifiquemet l'IA en était à ses balbutiement avec la conférence de Dartmouth, l'immaginaire humain quand à lui avait une longueur d'avance.
Des auteur de litérature d'anticipation comme Isaac Asimov propsaient, dès les années 1950, des situtationsa ainsi qu'une reflexion sur les implication de l'introduction de machines intelligentes dans notre vie de tous les jours.
-Asimov dans ca serie de nouvelles sur les robots \textit{I, Robot}, introduit les fameuses trois lois de la robotique~\cite{assimovIrobot}:
-\textquote{
-\begin{enumerate}
- \item La Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
- \item La Seconde loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
- \item La Troisème loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.
-\end{enumerate}
-}
-\footnote{\textit{The First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm. The Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. The Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.}}
-
-Ces trois lois mettent en avant la necessité d'avoir un contrôle sur l'IA et peuvent être vue comme les premisses de l'IA éthique.
-Asimov les explore plus dans \textit{The Bicentennial Man}, une nouvelle publiée en 1976, dans la quelle un robot, par le hasard inhérent à son fonctionnement, montre des caractéristique humaine comme l'empathie ou la créativitée.
-Ce hasard dans la création est aussi décrit au septième point de de la proposition de l'école d'été de Dartmouth~\cite{dartmouth}.
-Cela renforce le lien entre intuition scientifique et imaginaire créatif, artistique.
-De manière assez époustouflante ce hasard joue un rôle prédominant dans les programme génératif moderne comme les GAN ou les auto encodeurs ; nous y reviendrons plus en détails dans à la Section~\ref{sec:background-generation}.
-De plus, ces caractéristique humaines peuvent se retrouver en interagissant avec des logiciels récent comme les LLM ou les générateurs d'images.
-Cela peut amener les utilisateurs humain à anthropomorphiser ces logiciels~\cite{}.
-
-Cependant, l'attribution d'un rôle sociale humain à un ordinateur était déjà présent avant l'introduction des logiciels IA~\cite{MARAKAS2000719} : le programme ecrit, copie, attrape un virus, etc.
-Une interaction avec \textquote{quelquechose} qui montre un semblant de comportement social nous renvoi a notre propre aliénation sociale au sens décrit par Jean Jaques Rousseau dans son \textit{Du contrat social}~\cite{}.
-Marakas et al. explque aussi que cette confusion de l'humain et de la machine entraîne une sur évaluation de la capacité des ordinateurs et peut mener à utiliser à outrance la décision automatisé.
-C'est le cas avec les décision juridique ou scolaire où la vie d'être humain est décidé par des ordinateur~\cite{}.
-Cela donne lieu à de nombreux problème moraux qui forment les fondements de l'IA éthique nottamant autout de l'équitée, de la confidentialité et de l'explicabilité sur lesquels nos reviendrons à la Section~\ref{sec:contexte-enjeu}.
-
-
-%Differences humain machine
-%Turing test
-
-%Juridique
-En droit francais, \textquote{etre humain} est un synonime de \textquote{personne physique}~\cite{cornu}.
-C'est à dire ayant la personnalité : l'\textquote{Aptitude à être titulaire des droits et assujetti à des obligations qui appartient à toutes les personnes physiques, [...]}~\cite{cornu}.
-Cette définition est d'ailleur la pierre angulaire quand à la reconaissance de le qualité d'humain d'Andrew, le robot protagoniste de \textit{The bicentennial man}~\cite{bicentenaire}.
-C'est en reconaissant qu'une personne ayant de multiples prothése d'organes synthetiques, n'en perdant pas moins sa personalité, alors ne reste plus que la conscience qui définisse l'humain.
-
-Penchons nous donc du coté de la conscience.
-Qu'est-ce que l'homme = une de quatres grandes questions de la philosohpie d'après Kant.
-Inconscient de Freud = différence avec l'IA. L'IA à-t'elle un inconscient ?
-\begin{figure}
- \includegraphics[width=\linewidth]{contexte/figure/chatgpt/penses.png}
- \caption{Réponsse de ChatGPT à la question \textquote{penses-tu ?}.}
- \label{fig:contexte-penses}
-\end{figure}
-%IA = bullshit
-Experience de la Chambre Chinoise~\cite{searle1980minds}.
-
-%Peur de l'IA
-Basilique de Roko, Paris Pascalien~\cite{Singler_2018}
-
-\textit{The Bicentennial Man}~\cite{bicentenaire} (livre).
-\textquote{
-'Comment peuvent-ils avoir peur des robots ?'
-'C'est un mal de l'humanitée, l'un de ceux dont elle n'est pas encore guerrie.'
-}
-\footnote{
-'How can they fear robots?'
-'It is a disease of mankind, one of which it is not yet cured.'
-}
-Alignement de l'IA
+\subsection{La peur et le contrôle}
+\input{contexte/philo/peur}
+\subsection{La mauvaise utilisation}
+\input{contexte/philo/mu}
+\subsection{Anthropomorphisation}
+\input{contexte/philo/anthro}
-Convergence de l'IA
\textit{The Matrix}~\cite{matrix}.