summaryrefslogtreecommitdiff
path: root/contexte/philo/peur.tex
diff options
context:
space:
mode:
authorJan Aalmoes <jan.aalmoes@inria.fr>2024-10-04 09:42:27 +0200
committerJan Aalmoes <jan.aalmoes@inria.fr>2024-10-04 09:42:27 +0200
commitd4021e6f8a0bf771b755d39da8515266ef75e667 (patch)
tree556504e7fd563f57bf3fed3ace649c07347961bd /contexte/philo/peur.tex
parentbeccac2bc154dc3eae2c9858749dddc01bdeb117 (diff)
Relecture avec Emeline
Diffstat (limited to 'contexte/philo/peur.tex')
-rw-r--r--contexte/philo/peur.tex38
1 files changed, 19 insertions, 19 deletions
diff --git a/contexte/philo/peur.tex b/contexte/philo/peur.tex
index aa18375..7cd5126 100644
--- a/contexte/philo/peur.tex
+++ b/contexte/philo/peur.tex
@@ -8,11 +8,11 @@ Dans l'\textit{Home bicentenaire}, Isaac Asimov écrit le dialogue suivant :
'It is a disease of mankind, one of which it is not yet cured.'
}
Et en effet, nous observons une certaine méfiance de la part du grand public envers l'IA et ses développements possibles~\cite{johnson2017ai}.
-Dans la culture populaire et notamment dans le cinéma, cette peur est très présente, nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
+Dans la culture populaire et notamment dans le cinéma, cette peur est très présente ; nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
Explorons certaines de ces inquiétudes.
Nous parlerons ici uniquement des risque liés à l'IA forte, et plus précisément à une potentielle AGI future.
-Nous présentons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court terme pour des technologies bien présentes et utilisées aujourd'hui en production.
-Nous séparons les risques en deux : ceux liés à une IA alignée, c'est-à-dire une IA qui fait ce pour quoi elle a été créée, et le risques lié à une IA non-alignée.
+Nous présenterons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court terme pour des technologies bien présentes et utilisées aujourd'hui en production.
+Nous séparerons les risques en deux : ceux liés à une IA alignée, c'est-à-dire une IA qui fait ce pour quoi elle a été créée, et les risques liés à une IA non-alignée.
\begin{figure}
\centering
\includegraphics[width=\linewidth]{contexte/figure/bad_ai.png}
@@ -30,21 +30,21 @@ C'est la même inquiétude qui est présente dans \textit{The Matrix}~\cite{matr
Ce film présente ce qui pourrait se passer après une guerre contre les machines, perdue par l'humanité.
Les machines, ayant besoin d'énergie, créent un monde virtuel : une simulation, dans laquelle est enfermé l'esprit de tous les hommes.
Ainsi, elles peuvent récupérer la bio-électricité générée par le corps humain.
-La simulation est ainsi un environnement où l'IA peut évoluer avec un contrôle humain assez limité ce qui facilite le non-alignement~\cite{johnson2017ai}.
-En effet, quand des aspects capitaux de la vie des personnes ne sont plus gérés physiquement, l'IA n'a plus besoin de robots (capteurs, activateur, ...) pour interagir avec la réalité.
+La simulation est ainsi un environnement où l'IA peut évoluer avec un contrôle humain assez limité, ce qui facilite le non-alignement~\cite{johnson2017ai}.
+En effet, quand des aspects capitaux de la vie des personnes ne sont plus gérés physiquement, l'IA n'a plus besoin de robots (capteurs, activateurs, etc.) pour interagir avec la réalité.
Nous parlons ici de la réalité au sens platonicien de l'allégorie de la caverne : la simulation est la réalité~\cite{caverne}.
Cette simulation est un futur possible quant à la manière dont nous vivons, par exemple, depuis le COVID-19, le télétravail s'est grandement démocratisé~\cite{bergeaud2023teletravail}.
Il existe de multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortement appuyée par les GAFAM.
Apple et Meta proposent des casques de réalité virtuelle dans cette optique~\cite{metaverse,applevision}.
Dans \textit{The Terminator}, une seule IA est responsable du non-alignement. La tâche pour laquelle cette IA a été construite était la défense du territoire américain.
-C'est un problème imprévu par les développeurs, lié à une trop grande confiance dans les capacités de la machine qui amène à la guerre entre homme et machine.
+C'est un problème imprévu par les développeurs, lié à une trop grande confiance dans les capacités de la machine, qui amène à la guerre entre homme et machine.
En effet le protagoniste Kyle Reese explique l'IA \textquote{Skynet} comme étant
\textquote{[un] réseau informatique de défense, habilité à tout connaître. Il le disait intelligent.}
\footnote{\textit{Defense network computer, trusted to know it all. They said it was smart.}}
L'IA est donc passée de alignée à non-alignée ; cela est particulièrement inquiétant pour les systèmes autonomes armés comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernement Macron~\cite{villani2018donner}.
-Pour palier cela, les IA, comme les LLM
+Pour pallier cela, les IA, comme les LLM
\footnote{LLM signifie \textit{Large Language Model} comme ChatGPT par exemple}
(Grand Model linguistique) peuvent être programmés pour respecter certaines contraintes morales~\cite{wang2023not}.
C'est notamment ce type de contraintes qui est utilisé pour imposer des restrictions morales aux IA actuelles.
@@ -75,17 +75,17 @@ Heureusement ce genre de risque est très faible, car la robotique n'est pas ass
Nous pouvons nous demander, pourquoi créer une telle IA ?
Dans l'optique de répondre à cette question, il existe un argument similaire à celui du Pari Pascalien qui cherche à savoir si nous devons collaborer à l'élaboration d'une IA non-alignée, potentiellement mauvaise.
Le Pari Pascalien est un argument probabiliste avancé par Blaise Pascal disant qu'il est plus avantageux de croire en Dieu que de ne pas croire.
-Nous présentons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
+Nous présenterons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
Il existe une version modifiée du Pari, appelée Basilic de Roko, qui explore le problème de Newcombe suivant : doit-on coopérer à la création d'une IA sans alignement~\cite{Singler_2018,roko}?
Il s'agit d'un problème de théorie de la décision à deux agents :
-L'un est l'IA, l'autre le décideur.
+l'un est l'IA, l'autre le décideur.
Le décideur est antérieur à l'IA et choisit de coopérer ou non.
L'IA est au courant des pensées du décideur, comme dans le cadre d'agents coopérants dans le dilemme du prisonnier~\cite{Poundstone1993-jr}.
L'IA fait du chantage au décideur : si le décideur ne coopère pas il sera torturé.
Cela crée pour le décideur le tableau de gain présenté à la Table~\ref{tbl:contexte-roko}.
Ainsi, toute personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer.
-Cette démonstration a été très médiatisée et a généré beaucoup d'anxiété dû à sa nature de danger informationnel~\cite{rokowiki,slate}.
-Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA existe, il n'a pas d'intérêt à torturer l'agent qui savait et na pas contribué rétrospectivement~\cite{rokomisc}.
+Cette démonstration a été très médiatisée et a généré beaucoup d'anxiété due à sa nature de danger informationnel~\cite{rokowiki,slate}.
+Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA existe, il n'a pas d'intérêt à torturer l'agent qui savait et n'a pas contribué rétrospectivement~\cite{rokomisc}.
\begin{table}
\centering
@@ -122,7 +122,7 @@ Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA
\end{table}
\FloatBarrier
-\subsubsection{IA aligné}
+\subsubsection{IA alignée}
Le non-alignement n'est pas le seul risque envisageable.
Par exemple dans \textit{2001: A Space odyssey}~\cite{2001odyssey}
HAL est une IA alignée qui, pour préserver sa mission, choisit de tuer les humains qui veulent le débrancher.
@@ -130,23 +130,23 @@ On remarque donc bien la nécessité, de manière générale, d'avoir des gardes
Ainsi, un risque est celui d'une IA cherchant si bien à atteindre son objectif qu'elle en oublierait toute considération morale.
Pour pallier cela, tout comme dans le cas des IA non-alignées, des contraintes peuvent être imposées lors de l'entraînement des modèles.
-Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui, potentiellemen,t aurait des failles de sécurité.
-C'est ce scénario qu'explore \title{War game}~\cite{wargames}.
-Dans ce film, qui se passe pendant la Guerre Froide, la gestion et la décision de l'utilisation d'armes nucléaires est délégué à une IA.
+Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui, potentiellement, aurait des failles de sécurité.
+C'est ce scénario qu'explore \textit{War game}~\cite{wargames}.
+Dans ce film, qui se passe pendant la Guerre Froide, la gestion et la décision de l'utilisation d'armes nucléaires sont déléguées à une IA.
Le raisonnement est que le programme peut optimiser le succès d'une riposte atomique infiniment plus rapidement qu'un humain.
Cependant, il y avait une faille dans l'IA : une porte dérobée\footnote{\textit{Backdoor}} avait été introduite par un développeur.
A cause de cela, un jeune hacker a failli réussir, par inadvertance, à déclencher une guerre nucléaire avec l'URSS\footnote{Union des Républiques Socialistes Soviétiques}.
Comme nous l'avons vu en Section~\ref{sec:contexte-ckoi}, l'IA est de plus en plus utilisée, et même pour des systèmes critiques.
Il est de plus possible de mettre des portes dérobées dans les IA comme nous le verrons en Section~\ref{sec:contexte-secu}.
-Pour finir cette section nous parlerons du risque de confidentialité.
+Pour finir cette section, nous parlerons du risque de perte de confidentialité.
C'est-à-dire du risque que des informations que l'on souhaite garder confidentielles soient utilisées par autrui.
Nous verrons des définitions de la confidentialité plus poussées dans la Section~\ref{sec:contexte-legal}.
-Dans le film \textit{Her}~\cite{her}, l'assistant personnel IA Samantha accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
-Elle ne l'informe qu'après avoir lu l'intégralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu à récemment rompu}\footnote{
+Dans le film \textit{Her}~\cite{her}, l'assistant personnel IA, Samantha, accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
+Elle ne l'informe qu'après avoir lu l'intégralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu as récemment rompu}\footnote{
\textit{I saw through your emails that you went through a break up recently}}.
En faisant cela elle apprend des informations sensibles sur Théodore : le fait qu'il ait rompu.
-Dans ce film nous n'avons que très peu d'informations sur le fonctionnement des IA (qu'il appellent OS), ce qui ne nous permet pas de dire que cette information précise quitte l'appareil local de Théodore pour être envoyé vers un tiers.
+Dans ce film nous n'avons que très peu d'informations sur le fonctionnement des IA (qu'il appellent OS), ce qui ne nous permet pas de dire que cette information précise quitte l'appareil local de Théodore pour être envoyée vers un tiers.
Cependant, dans la suite du film, Samantha avoue avoir parlé de Théodore avec d'autres personnes alors que celui-ci n'était pas au courant.
Samantha est donc en réseau, avec la possibilité de communiquer n'importe quelle information qu'elle juge nécessaire.
Cela implique une grande chance qu'elle ait communiqué des informations que Théodore aurait souhaité garder confidentielles.