1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
|
Dans l'\textit{Home bicentenaire}, Isaac Asimov écrit le dialogue suivant :
\textquote{
'Comment peuvent-ils avoir peur des robots ?'
'C'est un mal de l'humanité, l'un de ceux dont elle n'est pas encore guérie.'
}
\footnote{
'How can they fear robots?'
'It is a disease of mankind, one of which it is not yet cured.'
}
Et en effet, nous observons une certaine méfiance de la part du grand public envers l'IA et ses développements possibles~\cite{johnson2017ai}.
Dans la culture populaire et notamment dans le cinéma, cette peur est très présente ; nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
Explorons certaines de ces inquiétudes.
Nous parlerons ici uniquement des risque liés à l'IA forte, et plus précisément à une potentielle AGI future.
Nous présenterons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court terme pour des technologies bien présentes et utilisées aujourd'hui en production.
Nous séparerons les risques en deux : ceux liés à une IA alignée, c'est-à-dire une IA qui fait ce pour quoi elle a été créée, et les risques liés à une IA non-alignée.
\begin{figure}
\centering
\includegraphics[width=\linewidth]{contexte/figure/bad_ai.png}
\caption{L'IA : un grand méchant. WarGames~\cite{wargames}. Avengers: Age of Ultron~\cite{avenger}. The Matrix~\cite{matrix}. The Terminator~\cite{terminator}. Futurama~\cite{futurama}. 2001: A space Odyssey~\cite{2001odyssey}}
\label{fig:contexte-badai}
\end{figure}
\FloatBarrier
\subsubsection{AI non-alignée}
La scène d'ouverture de \textit{The Terminator}~\cite{terminator} montre parfaitement ce qu'est une machine alignée.
Nous y voyons des machines autonomes se battre avec une force écrasante contre des humains.
Cette scène contraste avec celle que l'on voit jute après l'écran titre où la machine, tout aussi gigantesque que les robots tueurs, est un camion poubelle, donc totalement au service de l'homme qui la contrôle.
Une IA non-alignée est donc un programme qui cherche à atteindre un objectif qui n'est pas celui pour lequel il a été conçu ; dans ce cas, une guerre totale contre l'humanité.
C'est la même inquiétude qui est présente dans \textit{The Matrix}~\cite{matrix}.
Ce film présente ce qui pourrait se passer après une guerre contre les machines, perdue par l'humanité.
Les machines, ayant besoin d'énergie, créent un monde virtuel : une simulation, dans laquelle est enfermé l'esprit de tous les hommes.
Ainsi, elles peuvent récupérer la bio-électricité générée par le corps humain.
La simulation est ainsi un environnement où l'IA peut évoluer avec un contrôle humain assez limité, ce qui facilite le non-alignement~\cite{johnson2017ai}.
En effet, quand des aspects capitaux de la vie des personnes ne sont plus gérés physiquement, l'IA n'a plus besoin de robots (capteurs, activateurs, etc.) pour interagir avec la réalité.
Nous parlons ici de la réalité au sens platonicien de l'allégorie de la caverne : la simulation est la réalité~\cite{caverne}.
Cette simulation est un futur possible quant à la manière dont nous vivons, par exemple, depuis le COVID-19, le télétravail s'est grandement démocratisé~\cite{bergeaud2023teletravail}.
Il existe de multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortement appuyée par les GAFAM.
Apple et Meta proposent des casques de réalité virtuelle dans cette optique~\cite{metaverse,applevision}.
Dans \textit{The Terminator}, une seule IA est responsable du non-alignement. La tâche pour laquelle cette IA a été construite était la défense du territoire américain.
C'est un problème imprévu par les développeurs, lié à une trop grande confiance dans les capacités de la machine, qui amène à la guerre entre homme et machine.
En effet le protagoniste Kyle Reese explique l'IA \textquote{Skynet} comme étant
\textquote{[un] réseau informatique de défense, habilité à tout connaître. Il le disait intelligent.}
\footnote{\textit{Defense network computer, trusted to know it all. They said it was smart.}}
L'IA est donc passée de alignée à non-alignée ; cela est particulièrement inquiétant pour les systèmes autonomes armés comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernement Macron~\cite{villani2018donner}.
Pour pallier cela, les IA, comme les LLM
\footnote{LLM signifie \textit{Large Language Model} comme ChatGPT par exemple}
(Grand Model linguistique) peuvent être programmés pour respecter certaines contraintes morales~\cite{wang2023not}.
C'est notamment ce type de contraintes qui est utilisé pour imposer des restrictions morales aux IA actuelles.
Nous aborderons en détail ce sujet à la Section~\ref{sec:background-eq}.
C'est aussi ce type de contrôle que préconise
Asimov dans sa série de nouvelles sur les robots \textit{I, Robot}.
Il y introduit les fameuses trois lois de la robotique qui sont programmées dans toutes les IA de son œuvre~\cite{assimovIrobot}:
\textquote{
\begin{enumerate}
\item La Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
\item La Seconde loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
\item La Troisième loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.
\end{enumerate}
}
\footnote{\textit{The First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm. The Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. The Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.}}
Ces trois lois mettent en avant la nécessité d'avoir un contrôle sur l'IA et peuvent être vues comme les prémices de l'IA éthique.
C'est en partie dans cet objectif que l'Union Européenne
a établi le Règlement (UE) 2024/1689 du Parlement Européen et du Conseil
du 13 juin 2024
établissant des règles harmonisées concernant l’intelligence artificielle~\cite{aiact}.
Ce règlement établit plusieurs niveaux de risque qui imposent chacun des restrictions sur le déploiement et la création d'IA. Nous entrerons plus en détails dans ce Règlement à la Section~\ref{sec:contexte-aiact}.
Outre le cas d'une IA qui bascule de alignée à non-alignée, et bien que ce cas ne se soit pas (encore) présenté, \textit{Avengers: age of Ultron}~\cite{avenger} présente une IA qui, dès sa création, est non-alignée.
Lors d'une expérience, Tony Stark, le créateur de l'IA Ultron, n'avait pas de but précis pour sa création.
Ultron, après s'être renseigné sur ce que sont les humains en ayant accès à internet, a pris la décision de les exterminer.
Heureusement ce genre de risque est très faible, car la robotique n'est pas assez avancée et comme le montre Johnson et al~\cite{johnson2017ai}, les IA actuelles ne sont pas capables de prendre des décisions arbitraires.
Nous pouvons nous demander, pourquoi créer une telle IA ?
Dans l'optique de répondre à cette question, il existe un argument similaire à celui du Pari Pascalien qui cherche à savoir si nous devons collaborer à l'élaboration d'une IA non-alignée, potentiellement mauvaise.
Le Pari Pascalien est un argument probabiliste avancé par Blaise Pascal disant qu'il est plus avantageux de croire en Dieu que de ne pas croire.
Nous présenterons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
Il existe une version modifiée du Pari, appelée Basilic de Roko, qui explore le problème de Newcombe suivant : doit-on coopérer à la création d'une IA sans alignement~\cite{Singler_2018,roko}?
Il s'agit d'un problème de théorie de la décision à deux agents :
l'un est l'IA, l'autre le décideur.
Le décideur est antérieur à l'IA et choisit de coopérer ou non.
L'IA est au courant des pensées du décideur, comme dans le cadre d'agents coopérants dans le dilemme du prisonnier~\cite{Poundstone1993-jr}.
L'IA fait du chantage au décideur : si le décideur ne coopère pas il sera torturé.
Cela crée pour le décideur le tableau de gain présenté à la Table~\ref{tbl:contexte-roko}.
Ainsi, toute personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer.
Cette démonstration a été très médiatisée et a généré beaucoup d'anxiété due à sa nature de danger informationnel~\cite{rokowiki,slate}.
Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA existe, il n'a pas d'intérêt à torturer l'agent qui savait et n'a pas contribué rétrospectivement~\cite{rokomisc}.
\begin{table}
\centering
\begin{tabular}{c|cc}
&Existe&N'existe pas\\
\hline
Croire&$+\infty$&$-c$\\
Ne pas croire&$-\infty$&$+c$\\
\end{tabular}
\begin{tabular}{c}
$E(\text{Croire}) = +\infty P(\text{Existe}) - c P(\text{N'existe pas}) = +\infty$\\
$E(\text{Ne pas croire}) = -\infty P(\text{Existe}) + c P(\text{N'existe pas}) = -\infty$
\end{tabular}
\caption{Tableau des gains de croire ou ne pas croire en Dieu. $E$ représente le gain moyen (voir la Section~\ref{sec:background-proba} pour une définition formelle de l'espérance).}
\label{tbl:contexte-paris}
\end{table}
\begin{table}
\centering
\begin{tabular}{cc|cc}
&&IA construit&IA pas construit\\
\hline
\multirow{2}{*}{Sait}&
Donner&$-c$&$-c$\\
&Ne pas donner&$-\infty$&$0$\\
\hline
\multirow{2}{*}{Ne sait pas}&
Donner&/&/\\
&Ne pas donner&$0$&$0$\\
\end{tabular}
\caption{Basilic de Roko}
\label{tbl:contexte-roko}
\end{table}
\FloatBarrier
\subsubsection{IA alignée}
Le non-alignement n'est pas le seul risque envisageable.
Par exemple dans \textit{2001: A Space odyssey}~\cite{2001odyssey}
HAL est une IA alignée qui, pour préserver sa mission, choisit de tuer les humains qui veulent le débrancher.
On remarque donc bien la nécessité, de manière générale, d'avoir des gardes-fous qui assurent non seulement l'utilité du programme (sa mission) mais aussi un certain niveau moral.
Ainsi, un risque est celui d'une IA cherchant si bien à atteindre son objectif qu'elle en oublierait toute considération morale.
Pour pallier cela, tout comme dans le cas des IA non-alignées, des contraintes peuvent être imposées lors de l'entraînement des modèles.
Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui, potentiellement, aurait des failles de sécurité.
C'est ce scénario qu'explore \textit{War game}~\cite{wargames}.
Dans ce film, qui se passe pendant la Guerre Froide, la gestion et la décision de l'utilisation d'armes nucléaires sont déléguées à une IA.
Le raisonnement est que le programme peut optimiser le succès d'une riposte atomique infiniment plus rapidement qu'un humain.
Cependant, il y avait une faille dans l'IA : une porte dérobée\footnote{\textit{Backdoor}} avait été introduite par un développeur.
A cause de cela, un jeune hacker a failli réussir, par inadvertance, à déclencher une guerre nucléaire avec l'URSS\footnote{Union des Républiques Socialistes Soviétiques}.
Comme nous l'avons vu en Section~\ref{sec:contexte-ckoi}, l'IA est de plus en plus utilisée, et même pour des systèmes critiques.
Il est de plus possible de mettre des portes dérobées dans les IA comme nous le verrons en Section~\ref{sec:contexte-secu}.
Pour finir cette section, nous parlerons du risque de perte de confidentialité.
C'est-à-dire du risque que des informations que l'on souhaite garder confidentielles soient utilisées par autrui.
Nous verrons des définitions de la confidentialité plus poussées dans la Section~\ref{sec:contexte-legal}.
Dans le film \textit{Her}~\cite{her}, l'assistant personnel IA, Samantha, accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
Elle ne l'informe qu'après avoir lu l'intégralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu as récemment rompu}\footnote{
\textit{I saw through your emails that you went through a break up recently}}.
En faisant cela elle apprend des informations sensibles sur Théodore : le fait qu'il ait rompu.
Dans ce film nous n'avons que très peu d'informations sur le fonctionnement des IA (qu'il appellent OS), ce qui ne nous permet pas de dire que cette information précise quitte l'appareil local de Théodore pour être envoyée vers un tiers.
Cependant, dans la suite du film, Samantha avoue avoir parlé de Théodore avec d'autres personnes alors que celui-ci n'était pas au courant.
Samantha est donc en réseau, avec la possibilité de communiquer n'importe quelle information qu'elle juge nécessaire.
Cela implique une grande chance qu'elle ait communiqué des informations que Théodore aurait souhaité garder confidentielles.
Les assistants personnels sont de plus en plus présents, notamment sur téléphone, avec par exemple Siri sur iPhone~\cite{siri} ou Google assistant sur les Pixel~\cite{googleai}.
Ces assistants, pour être utiles, doivent avoir accès aux données personnelles des utilisateurs et les limitations actuelles de la puissance de calcul sur smartphone font que ces données doivent être envoyées à des tiers pour être traitées.
Par exemple, Siri envoie ses requêtes les plus complexes à ChaGPT par exemple~\cite{aaigpt} mais l'utilisateur doit donner son accord pour chaque requête.
Ou encore, sur la messagerie Discord~\cite{discord}, il est possible d'activer le résumé des conversations.
Alors le serveur Discord envoie toutes les conversations aux serveurs de OpenAI pour que ChatGPT les analyse~\cite{discordgpt}.
|