summaryrefslogtreecommitdiff
path: root/contexte/philo/peur.tex.bak
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-10-04 09:42:27 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-10-04 09:42:27 +0200
commitd4021e6f8a0bf771b755d39da8515266ef75e667 (patch)
tree556504e7fd563f57bf3fed3ace649c07347961bd /contexte/philo/peur.tex.bak
parentbeccac2bc154dc3eae2c9858749dddc01bdeb117 (diff)
Relecture avec Emeline
Diffstat (limited to 'contexte/philo/peur.tex.bak')
-rw-r--r--contexte/philo/peur.tex.bak158
1 files changed, 158 insertions, 0 deletions
diff --git a/contexte/philo/peur.tex.bak b/contexte/philo/peur.tex.bak
new file mode 100644
index 0000000..0fef0e1
--- /dev/null
+++ b/contexte/philo/peur.tex.bak
@@ -0,0 +1,158 @@
+Dans l'\textit{Home bicentenaire}, Isaac Asimov ecrit le dialogue suivant :
+\textquote{
+'Comment peuvent-ils avoir peur des robots ?'
+'C'est un mal de l'humanitée, l'un de ceux dont elle n'est pas encore guerrie.'
+}
+\footnote{
+'How can they fear robots?'
+'It is a disease of mankind, one of which it is not yet cured.'
+}
+Et en effet, nous observons une certaine méfiance de la part du grand publique envers l'IA et ses dévelopement possibles~\cite{johnson2017ai}.
+Dans la culture populaire et notament dans le cinema, cette peur est très présente, nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
+Explorons certaines de ces inquétudes.
+Nous parlerons ici uniquement des risque liée à l'IA forte, et plus précisement à une potentielle AGI future.
+Nous présentons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court termes pour des technologie bien présentes et utilisé aujourd'hui en production.
+Nous séparons les risques en deux : ceux liée à un IA aligné, c'est à dire une IA qui fait ce pour quoi elle à été crée, et le risques lié à un IA non-alignée.
+\begin{figure}
+ \centering
+ \includegraphics[width=\linewidth]{contexte/figure/bad_ai.png}
+ \caption{L'IA : un grand méchant. WarGames~\cite{wargames}. Avengers: Age of Ultron~\cite{avenger}. The Matrix~\cite{matrix}. The Terminator~\cite{terminator}. Futurama~\cite{futurama}. 2001: A space Odyssey~\cite{2001odyssey}}
+ \label{fig:contexte-badai}
+\end{figure}
+
+\FloatBarrier
+\subsubsection{AI non-alginée}
+La scène d'ouverture de \textit{The Terminator}~\cite{terminator} montre parfaitement ce qu'est une machine aligné.
+Nous y voyons des machines autonomes se battre avec une force ecrasant contre des humains.
+Cette scène contraste avec celle qui l'on voit jute après l'écran titre où la machine, toute aussi gigantesque que les robots tueurs, est un camion poubelle donc totalement au service et l'homme qui la contrôle.
+Une IA non-alginé est donc un programme qui cherche à atteindre un objectif qui n'est pas celui pour lequel il a été concut, dans ce cas, un guerre totale contre l'humanitée.
+C'est la même inquiétude qui est présente dans \textit{The Matrix}~\cite{matrix}.
+Ce film présente ce qui pourrait se passer après un guerre contre les machines pérdu par l'humanité.
+Les machines, ayant besoin d'énergie, créent un monde virtuel : une simulation, dans laquelle est enfermé l'esprit de tous les hommes.
+Ainsi elle peuvent recuperer la bioéléctricité générée par le corps humain.
+La simulation est ainsi un environement ou l'IA peut évoluer avec un controle humain assez limité ce qui facilite le non-alignement~\cite{johnson2017ai}.
+En effet, quand des aspects capitaux de la vie des personnes n'est plus géré physiquement, l'IA n'a plus besoins de robot (captuers, activateur, ...) pour intéragir avec la réalité.
+Nous parlons ici de la réalité au sens plationitien de l'alégorie de la caverne : la simulation est la réalité~\cite{caverne}.
+Cette simulation est un future possible quand à la manière dont nous vivons, par exemple depuis le COVID-19 le télétravail c'est grandement démocratisé~\cite{bergeaud2023teletravail}.
+Il existe de multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortemnt appuyé par les GAFAM.
+Apple et Meta proposent des casques de réalitée virtuelle dans cette optique~\cite{metaverse,applevision}.
+
+Dans \textit{The Terminator}, une seul IA est responssable du non-alignement. La tâche pour laquelle cette IA à été construite était la défense du territoire américain.
+C'est un problème imprévu par les dévelopeurs lié à une trop grande confiance dans les capacité de la machine qui amène à la guerre entre homme et machine.
+En effet le protagoniste Kyle Reese explique l'IA \textquote{Skynet} comme étant
+\textquote{[un] réseau informatique de défence, habilité à tout connaître. Il le disait intelligent.}
+\footnote{\textit{Defense network computer, trusted to know it all. They said it was smart.}}
+L'IA est donc passé de aligné à non-aligné, cela est particulièrement inquiétant pour les systèmes autonomes armés comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernment Macron~\cite{villani2018donner}.
+
+Pour palier cela, les IA, comme les LLM
+\footnote{LLM signifie \textit{Large Language Model} comme ChatGPT par exemple}
+(Grand Model Languisitque) peuvent être programmé pour respecter certaines contraintes morales~\cite{wang2023not}.
+C'est notammant ce types de contraintes qui est utilisé pour imposer des restriction morale aux IA actuelle.
+Nous aborderons en détail ce sujet à la Section~\ref{sec:background-eq}.
+C'est aussi ce type de contrôle que préconise
+Asimov dans ca serie de nouvelles sur les robots \textit{I, Robot}.
+Il y introduit les fameuses trois lois de la robotique qui sont programmés dans toutes les IA de son oeuvre~\cite{assimovIrobot}:
+\textquote{
+\begin{enumerate}
+ \item La Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
+ \item La Seconde loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
+ \item La Troisème loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.
+\end{enumerate}
+}
+\footnote{\textit{The First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm. The Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. The Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.}}
+Ces trois lois mettent en avant la necessité d'avoir un contrôle sur l'IA et peuvent être vue comme les prémisses de l'IA éthique.
+C'est en parti dans cet objectif que l'Union Européenne
+a établie le règlement (UE) 2024/1689 du parlement européen et du conseil
+du 13 juin 2024
+établissant des règles harmonisées concernant l’intelligence artificielle~\cite{aiact}.
+Ce réglèment établi de plusieurs niveaux de risque qui impose chacun des restrictions sur le déploiement et la création d'IA. Nous entrerons plus en détails dans ce réglement à la Section~\ref{sec:contexte-aiact}.
+
+Outre le cas d'une IA qui bascule d'aligné à non-aligné, et bien que ce cas ne ce soit pas (encore) présenté, \textit{Avengers: age of Ultron}~\cite{avenger} présente une IA qui dès sa création est non-aligné.
+Lors d'une expérience, Tony Stark, le createur de l'IA Ultron, n'avait pas de but précis pour sa création.
+Ultron, après avoir s'être renseigné sur ce que sont les humains en ayant accès à internet, à pris la décision de les exterminer.
+Heureusement ce genre de risque est très faible, car la robotique n'est pas assez avancé et comme le montre Johnson et al~\cite{johnson2017ai}, les IA acutels ne sont pas capable de prendre des décisions arbitraires.
+
+Nous pouvons nous demander, pourquoi créer un telle IA ?
+Dans l'optique de répondre à cette question, il existe un argument similaire à celui du Paris Pascalien qui cherche à savoir si nous devons colaborer à l'ellaboration d'une IA non-aligné, potentielement mauvaise.
+Le Paris Pascalien est un argument probabiliste avancé par Blaise Pascale disant qu'il est plus avantageux de croire en dieu que de ne pas croire.
+Nous présentons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
+Il existe une version modifié du paris, appélé Basilic de Roko, qui explore le problème de Newcombe suivant : doit-on coopéréer à la création d'une IA sans alignement~\cite{Singler_2018,roko}?
+Il s'agit d'un problème de théorie de la décision à deux agents :
+L'un est l'IA, l'autre le decideur.
+Le décideur est antiérieur à l'IA et choisit de coopérer ou non.
+L'IA est au courant des pensée du décideur comme dans le cadre d'agent coopérants dans le dilemn du prisonier~\cite{Poundstone1993-jr}.
+L'IA fait du chantage au décideur : si le décideur ne coopère pas il sera torturé.
+Cela crée pour le décideur le tableau de gain presanté à la Table~\ref{tbl:contexte-roko}.
+Ainsi, toutes personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer.
+Cette démonstration a été très médiatisée et à généré beaucoup d'anxiété du à sa nature de danger informationel~\cite{rokowiki,slate}.
+Cependant cet argument est criticable, notament sur le fait que si l'agent IA existe, il n'a pas d'intéret à torturer l'agant qui savait et na pas contribué retrospéctivement~\cite{rokomisc}.
+
+\begin{table}
+ \centering
+ \begin{tabular}{c|cc}
+ &Existe&N'éxiste pas\\
+ \hline
+ Croire&$+\infty$&$-c$\\
+ Ne pas croire&$-\infty$&$+c$\\
+ \end{tabular}
+
+ \begin{tabular}{c}
+ $E(\text{Croire}) = +\infty P(\text{Existe}) - c P(\text{N'éxiste pas}) = +\infty$\\
+ $E(\text{Ne pas croire}) = -\infty P(\text{Existe}) + c P(\text{N'éxiste pas}) = -\infty$
+ \end{tabular}
+ \caption{Tableau des gains de croire ou ne pas croire en Dieu. $E$ représente le gain moyen (voir la Section~\ref{sec:background-proba} pour une définition formelle de l'espérence).}
+ \label{tbl:contexte-paris}
+\end{table}
+
+\begin{table}
+ \centering
+ \begin{tabular}{cc|cc}
+ &&IA construit&IA pas construit\\
+ \hline
+ \multirow{2}{*}{Sait}&
+ Donner&$-c$&$-c$\\
+ &Ne pas donner&$-\infty$&$0$\\
+ \hline
+ \multirow{2}{*}{Ne sait pas}&
+ Donner&/&/\\
+ &Ne pas donner&$0$&$0$\\
+ \end{tabular}
+ \caption{Basilic de Roko}
+ \label{tbl:contexte-roko}
+\end{table}
+
+\FloatBarrier
+\subsubsection{IA aligné}
+Le non-alignement n'est pas le seul risque envisageable.
+Par exemple dans \textit{2001: A Space odyssey}~\cite{2001odyssey}
+HAL est une IA aligné qui pour préserver sa mission choisit de tuer les humains qui veulent le débrancher.
+On remarque donc bien la necessité, de manière générale, d'avoir de garders fous qui assurent non seulement l'utilité du programme (sa mission) mais aussi un certain niveau morale.
+Ainsi, un risque est celui d'une IA cherchant si bien à atteindre son objectif qu'elle en oublierai toute considération morale.
+Pour palier cela, tout comme dans le cas des IA non-alginé, des contraites peuvent être imposé lors de l'entrainement des modèles.
+
+Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui potentielement aurait des failles de sécurité.
+C'est ce scénario qu'explore \title{War game}~\cite{wargames}.
+Dans ce film qui se passe pendant la guerre froide, la gestion et la décision de l'utilisation d'arme nucléaires et délégué à une IA.
+Le raisonement est que le programme peut optimiser le succès d'une riposte atomique infiniement plus rapidement qu'un humain.
+Cependant, il y avait une faille dans l'IA : une porte dérobée\footnote{\textit{Backdoor}} avait été introduite par un développeur.
+A cause de cela, un jeune hacker à faille réussir par inadvertance, à déclancher une guerre nucléaire avec l'URSS\footnote{Union des Républiques Socialistes Soviétiques}.
+Comme nous l'avons vu en Section~\ref{sec:contexte-ckoi}, l'IA est de plus en plus utilisée et même pour des système critiques.
+Il est de plus possible de mettre des porte dérobée dans les IAcomme nous le verons en Section~\ref{sec:contexte-secu}.
+
+Pour finir cette section nous parlerons du risque de confidentialité.
+C'est à dire du risque que des informations que l'on souhaite garder confidentielle soient utilisés pas autrui.
+Nous verons des définitions de la confidentialité plus poussée dans la Section~\ref{sec:contexte-legal}.
+Dans le film \textit{Her}~\cite{her}, l'assistant personel IA Samantha accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
+Elle ne l'informe qu'après avoir lu l'integralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu à récament rompu}\footnote{
+ \textit{I saw through your emails that you went through a break up recently}}.
+En faisant cela elle apprend des informations sensibles sur Théodore : le fait qu'il ai rompu.
+Dans ce film nous n'avons que très peu d'information sur le fonctionnement des IA (qu'il appellent OS) ce qui ne nous permet pas de dire que cette information précise quitte l'appareil locale de Théodore pour être envoyé vers un tiers.
+Cependant, dans la suite du film Samantha avoue avoir parlé de Théodore avec d'autre personnes alors que celui-ci n'était pas au courant.
+Samantha est donc en réseau avec la possibilité de communiquer n'importe quelle information qu'elle juge nécessaire.
+Cela implique une grande chance qu'elle ai comuniqué des information que Théodore aurai souhaité garder confidentielles.
+Les assistants personels sont de plus en plus présents, notament sur téléphone avec par exemple Siri sur iPhone~\cite{siri} ou Google assistant sur les Pixel~\cite{googleai}.
+Ces assistants pour être utiles doivent avoir accès aux donnés personelles des utilisateurs et les limitations actuels de la puissance de calcul sur smartphone fait que ces données doivent être envoyer à des tiers pour être traité.
+Par exemple, Siri envoi ses requettas les plus complexes à ChaGPT par exemple~\cite{aaigpt} mais l'utilisateur doit donner son accord pour chaque requette.
+Ou encroe, sur la messagerie Discord~\cite{discord}, il est possible d'activer le résumé des converssations.
+Alors le seveur Discord envoi toutes les conversations aux serveur de OpenAI pour que ChatGPT les analyses~\cite{discordgpt}.
+