summaryrefslogtreecommitdiff
path: root/contexte/philo/peur.tex
diff options
context:
space:
mode:
authorcookie <cookie@grospc>2024-09-22 15:41:07 +0200
committercookie <cookie@grospc>2024-09-22 15:41:07 +0200
commitea7e551198519248c609f246cfe8245671ae19df (patch)
tree889737232ceeefe1ed324f219f7d6bb5352b1cb3 /contexte/philo/peur.tex
parent3bfda734db9fdc82b96228de4df41a4a8b6d1815 (diff)
Orthographe finale Emeline
Diffstat (limited to 'contexte/philo/peur.tex')
-rw-r--r--contexte/philo/peur.tex108
1 files changed, 54 insertions, 54 deletions
diff --git a/contexte/philo/peur.tex b/contexte/philo/peur.tex
index cad3a8e..aa18375 100644
--- a/contexte/philo/peur.tex
+++ b/contexte/philo/peur.tex
@@ -7,12 +7,12 @@ Dans l'\textit{Home bicentenaire}, Isaac Asimov écrit le dialogue suivant :
'How can they fear robots?'
'It is a disease of mankind, one of which it is not yet cured.'
}
-Et en effet, nous observons une certaine méfiance de la part du grand publique envers l'IA et ses développements possibles~\cite{johnson2017ai}.
+Et en effet, nous observons une certaine méfiance de la part du grand public envers l'IA et ses développements possibles~\cite{johnson2017ai}.
Dans la culture populaire et notamment dans le cinéma, cette peur est très présente, nous voyons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art.
Explorons certaines de ces inquiétudes.
-Nous parlerons ici uniquement des risque liée à l'IA forte, et plus précisément à une potentielle AGI future.
-Nous présentons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court termes pour des technologie bien présentes et utilisé aujourd'hui en production.
-Nous séparons les risques en deux : ceux liée à un IA aligné, c'est à dire une IA qui fait ce pour quoi elle à été crée, et le risques lié à un IA non-alignée.
+Nous parlerons ici uniquement des risque liés à l'IA forte, et plus précisément à une potentielle AGI future.
+Nous présentons à la Section~\ref{sec:contexte-enjeu} une introduction sur les risques à court terme pour des technologies bien présentes et utilisées aujourd'hui en production.
+Nous séparons les risques en deux : ceux liés à une IA alignée, c'est-à-dire une IA qui fait ce pour quoi elle a été créée, et le risques lié à une IA non-alignée.
\begin{figure}
\centering
\includegraphics[width=\linewidth]{contexte/figure/bad_ai.png}
@@ -22,36 +22,36 @@ Nous séparons les risques en deux : ceux liée à un IA aligné, c'est à dire
\FloatBarrier
\subsubsection{AI non-alignée}
-La scène d'ouverture de \textit{The Terminator}~\cite{terminator} montre parfaitement ce qu'est une machine aligné.
+La scène d'ouverture de \textit{The Terminator}~\cite{terminator} montre parfaitement ce qu'est une machine alignée.
Nous y voyons des machines autonomes se battre avec une force écrasante contre des humains.
-Cette scène contraste avec celle qui l'on voit jute après l'écran titre où la machine, toute aussi gigantesque que les robots tueurs, est un camion poubelle donc totalement au service et l'homme qui la contrôle.
-Une IA non-aligné est donc un programme qui cherche à atteindre un objectif qui n'est pas celui pour lequel il a été conçu, dans ce cas, un guerre totale contre l'humanité.
+Cette scène contraste avec celle que l'on voit jute après l'écran titre où la machine, tout aussi gigantesque que les robots tueurs, est un camion poubelle, donc totalement au service de l'homme qui la contrôle.
+Une IA non-alignée est donc un programme qui cherche à atteindre un objectif qui n'est pas celui pour lequel il a été conçu ; dans ce cas, une guerre totale contre l'humanité.
C'est la même inquiétude qui est présente dans \textit{The Matrix}~\cite{matrix}.
-Ce film présente ce qui pourrait se passer après un guerre contre les machines perdue par l'humanité.
+Ce film présente ce qui pourrait se passer après une guerre contre les machines, perdue par l'humanité.
Les machines, ayant besoin d'énergie, créent un monde virtuel : une simulation, dans laquelle est enfermé l'esprit de tous les hommes.
-Ainsi elle peuvent récupérer la bio-électricité générée par le corps humain.
-La simulation est ainsi un environnement ou l'IA peut évoluer avec un contrôle humain assez limité ce qui facilite le non-alignement~\cite{johnson2017ai}.
-En effet, quand des aspects capitaux de la vie des personnes n'est plus géré physiquement, l'IA n'a plus besoins de robot (capteurs, activateur, ...) pour interagir avec la réalité.
+Ainsi, elles peuvent récupérer la bio-électricité générée par le corps humain.
+La simulation est ainsi un environnement où l'IA peut évoluer avec un contrôle humain assez limité ce qui facilite le non-alignement~\cite{johnson2017ai}.
+En effet, quand des aspects capitaux de la vie des personnes ne sont plus gérés physiquement, l'IA n'a plus besoin de robots (capteurs, activateur, ...) pour interagir avec la réalité.
Nous parlons ici de la réalité au sens platonicien de l'allégorie de la caverne : la simulation est la réalité~\cite{caverne}.
-Cette simulation est un future possible quand à la manière dont nous vivons, par exemple depuis le COVID-19 le télétravail c'est grandement démocratisé~\cite{bergeaud2023teletravail}.
-Il existe de multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortement appuyé par les GAFAM.
-Apple et Meta proposent des casques de réalitée virtuelle dans cette optique~\cite{metaverse,applevision}.
+Cette simulation est un futur possible quant à la manière dont nous vivons, par exemple, depuis le COVID-19, le télétravail s'est grandement démocratisé~\cite{bergeaud2023teletravail}.
+Il existe de multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortement appuyée par les GAFAM.
+Apple et Meta proposent des casques de réalité virtuelle dans cette optique~\cite{metaverse,applevision}.
-Dans \textit{The Terminator}, une seul IA est responsable du non-alignement. La tâche pour laquelle cette IA à été construite était la défense du territoire américain.
-C'est un problème imprévu par les développeurs lié à une trop grande confiance dans les capacité de la machine qui amène à la guerre entre homme et machine.
+Dans \textit{The Terminator}, une seule IA est responsable du non-alignement. La tâche pour laquelle cette IA a été construite était la défense du territoire américain.
+C'est un problème imprévu par les développeurs, lié à une trop grande confiance dans les capacités de la machine qui amène à la guerre entre homme et machine.
En effet le protagoniste Kyle Reese explique l'IA \textquote{Skynet} comme étant
\textquote{[un] réseau informatique de défense, habilité à tout connaître. Il le disait intelligent.}
\footnote{\textit{Defense network computer, trusted to know it all. They said it was smart.}}
-L'IA est donc passé de aligné à non-aligné, cela est particulièrement inquiétant pour les systèmes autonomes armés comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernement Macron~\cite{villani2018donner}.
+L'IA est donc passée de alignée à non-alignée ; cela est particulièrement inquiétant pour les systèmes autonomes armés comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernement Macron~\cite{villani2018donner}.
Pour palier cela, les IA, comme les LLM
\footnote{LLM signifie \textit{Large Language Model} comme ChatGPT par exemple}
-(Grand Model linguistique) peuvent être programmé pour respecter certaines contraintes morales~\cite{wang2023not}.
-C'est notamment ce types de contraintes qui est utilisé pour imposer des restriction morale aux IA actuelle.
+(Grand Model linguistique) peuvent être programmés pour respecter certaines contraintes morales~\cite{wang2023not}.
+C'est notamment ce type de contraintes qui est utilisé pour imposer des restrictions morales aux IA actuelles.
Nous aborderons en détail ce sujet à la Section~\ref{sec:background-eq}.
C'est aussi ce type de contrôle que préconise
Asimov dans sa série de nouvelles sur les robots \textit{I, Robot}.
-Il y introduit les fameuses trois lois de la robotique qui sont programmés dans toutes les IA de son oeuvre~\cite{assimovIrobot}:
+Il y introduit les fameuses trois lois de la robotique qui sont programmées dans toutes les IA de son œuvre~\cite{assimovIrobot}:
\textquote{
\begin{enumerate}
\item La Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
@@ -60,31 +60,31 @@ Il y introduit les fameuses trois lois de la robotique qui sont programmés dans
\end{enumerate}
}
\footnote{\textit{The First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm. The Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. The Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.}}
-Ces trois lois mettent en avant la nécessité d'avoir un contrôle sur l'IA et peuvent être vue comme les prémisses de l'IA éthique.
-C'est en parti dans cet objectif que l'Union Européenne
-a établie le règlement (UE) 2024/1689 du parlement européen et du conseil
+Ces trois lois mettent en avant la nécessité d'avoir un contrôle sur l'IA et peuvent être vues comme les prémices de l'IA éthique.
+C'est en partie dans cet objectif que l'Union Européenne
+a établi le Règlement (UE) 2024/1689 du Parlement Européen et du Conseil
du 13 juin 2024
établissant des règles harmonisées concernant l’intelligence artificielle~\cite{aiact}.
-Ce règlement établi de plusieurs niveaux de risque qui impose chacun des restrictions sur le déploiement et la création d'IA. Nous entrerons plus en détails dans ce règlement à la Section~\ref{sec:contexte-aiact}.
+Ce règlement établit plusieurs niveaux de risque qui imposent chacun des restrictions sur le déploiement et la création d'IA. Nous entrerons plus en détails dans ce Règlement à la Section~\ref{sec:contexte-aiact}.
-Outre le cas d'une IA qui bascule de aligné à non-aligné, et bien que ce cas ne ce soit pas (encore) présenté, \textit{Avengers: age of Ultron}~\cite{avenger} présente une IA qui dès sa création est non-aligné.
+Outre le cas d'une IA qui bascule de alignée à non-alignée, et bien que ce cas ne se soit pas (encore) présenté, \textit{Avengers: age of Ultron}~\cite{avenger} présente une IA qui, dès sa création, est non-alignée.
Lors d'une expérience, Tony Stark, le créateur de l'IA Ultron, n'avait pas de but précis pour sa création.
-Ultron, après avoir s'être renseigné sur ce que sont les humains en ayant accès à internet, à pris la décision de les exterminer.
-Heureusement ce genre de risque est très faible, car la robotique n'est pas assez avancé et comme le montre Johnson et al~\cite{johnson2017ai}, les IA actuels ne sont pas capable de prendre des décisions arbitraires.
+Ultron, après s'être renseigné sur ce que sont les humains en ayant accès à internet, a pris la décision de les exterminer.
+Heureusement ce genre de risque est très faible, car la robotique n'est pas assez avancée et comme le montre Johnson et al~\cite{johnson2017ai}, les IA actuelles ne sont pas capables de prendre des décisions arbitraires.
-Nous pouvons nous demander, pourquoi créer un telle IA ?
-Dans l'optique de répondre à cette question, il existe un argument similaire à celui du Paris Pascalien qui cherche à savoir si nous devons collaborer à l'élaboration d'une IA non-aligné, potentiellement mauvaise.
-Le Paris Pascalien est un argument probabiliste avancé par Blaise Pascale disant qu'il est plus avantageux de croire en dieu que de ne pas croire.
+Nous pouvons nous demander, pourquoi créer une telle IA ?
+Dans l'optique de répondre à cette question, il existe un argument similaire à celui du Pari Pascalien qui cherche à savoir si nous devons collaborer à l'élaboration d'une IA non-alignée, potentiellement mauvaise.
+Le Pari Pascalien est un argument probabiliste avancé par Blaise Pascal disant qu'il est plus avantageux de croire en Dieu que de ne pas croire.
Nous présentons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain.
-Il existe une version modifié du paris, appelé Basilic de Roko, qui explore le problème de Newcombe suivant : doit-on coopérer à la création d'une IA sans alignement~\cite{Singler_2018,roko}?
+Il existe une version modifiée du Pari, appelée Basilic de Roko, qui explore le problème de Newcombe suivant : doit-on coopérer à la création d'une IA sans alignement~\cite{Singler_2018,roko}?
Il s'agit d'un problème de théorie de la décision à deux agents :
L'un est l'IA, l'autre le décideur.
Le décideur est antérieur à l'IA et choisit de coopérer ou non.
-L'IA est au courant des pensée du décideur comme dans le cadre d'agent coopérants dans le dilemme du prisonnier~\cite{Poundstone1993-jr}.
+L'IA est au courant des pensées du décideur, comme dans le cadre d'agents coopérants dans le dilemme du prisonnier~\cite{Poundstone1993-jr}.
L'IA fait du chantage au décideur : si le décideur ne coopère pas il sera torturé.
Cela crée pour le décideur le tableau de gain présenté à la Table~\ref{tbl:contexte-roko}.
-Ainsi, toutes personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer.
-Cette démonstration a été très médiatisée et à généré beaucoup d'anxiété du à sa nature de danger informationnel~\cite{rokowiki,slate}.
+Ainsi, toute personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer.
+Cette démonstration a été très médiatisée et a généré beaucoup d'anxiété dû à sa nature de danger informationnel~\cite{rokowiki,slate}.
Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA existe, il n'a pas d'intérêt à torturer l'agent qui savait et na pas contribué rétrospectivement~\cite{rokomisc}.
\begin{table}
@@ -125,34 +125,34 @@ Cependant cet argument est critiquable, notamment sur le fait que si l'agent IA
\subsubsection{IA aligné}
Le non-alignement n'est pas le seul risque envisageable.
Par exemple dans \textit{2001: A Space odyssey}~\cite{2001odyssey}
-HAL est une IA aligné qui pour préserver sa mission choisit de tuer les humains qui veulent le débrancher.
-On remarque donc bien la nécessité, de manière générale, d'avoir de gardes fous qui assurent non seulement l'utilité du programme (sa mission) mais aussi un certain niveau morale.
-Ainsi, un risque est celui d'une IA cherchant si bien à atteindre son objectif qu'elle en oublierai toute considération morale.
-Pour palier cela, tout comme dans le cas des IA non-alignés, des contraintes peuvent être imposé lors de l'entraînement des modèles.
+HAL est une IA alignée qui, pour préserver sa mission, choisit de tuer les humains qui veulent le débrancher.
+On remarque donc bien la nécessité, de manière générale, d'avoir des gardes-fous qui assurent non seulement l'utilité du programme (sa mission) mais aussi un certain niveau moral.
+Ainsi, un risque est celui d'une IA cherchant si bien à atteindre son objectif qu'elle en oublierait toute considération morale.
+Pour pallier cela, tout comme dans le cas des IA non-alignées, des contraintes peuvent être imposées lors de l'entraînement des modèles.
-Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui potentiellement aurait des failles de sécurité.
+Un autre type de risque est celui qui consiste à attribuer une tâche capitale à une IA qui, potentiellemen,t aurait des failles de sécurité.
C'est ce scénario qu'explore \title{War game}~\cite{wargames}.
-Dans ce film qui se passe pendant la guerre froide, la gestion et la décision de l'utilisation d'arme nucléaires et délégué à une IA.
+Dans ce film, qui se passe pendant la Guerre Froide, la gestion et la décision de l'utilisation d'armes nucléaires est délégué à une IA.
Le raisonnement est que le programme peut optimiser le succès d'une riposte atomique infiniment plus rapidement qu'un humain.
Cependant, il y avait une faille dans l'IA : une porte dérobée\footnote{\textit{Backdoor}} avait été introduite par un développeur.
-A cause de cela, un jeune hacker à faille réussir par inadvertance, à déclencher une guerre nucléaire avec l'URSS\footnote{Union des Républiques Socialistes Soviétiques}.
-Comme nous l'avons vu en Section~\ref{sec:contexte-ckoi}, l'IA est de plus en plus utilisée et même pour des système critiques.
-Il est de plus possible de mettre des porte dérobée dans les IA comme nous le verrons en Section~\ref{sec:contexte-secu}.
+A cause de cela, un jeune hacker a failli réussir, par inadvertance, à déclencher une guerre nucléaire avec l'URSS\footnote{Union des Républiques Socialistes Soviétiques}.
+Comme nous l'avons vu en Section~\ref{sec:contexte-ckoi}, l'IA est de plus en plus utilisée, et même pour des systèmes critiques.
+Il est de plus possible de mettre des portes dérobées dans les IA comme nous le verrons en Section~\ref{sec:contexte-secu}.
Pour finir cette section nous parlerons du risque de confidentialité.
-C'est à dire du risque que des informations que l'on souhaite garder confidentielle soient utilisés pas autrui.
-Nous verrons des définitions de la confidentialité plus poussée dans la Section~\ref{sec:contexte-legal}.
+C'est-à-dire du risque que des informations que l'on souhaite garder confidentielles soient utilisées par autrui.
+Nous verrons des définitions de la confidentialité plus poussées dans la Section~\ref{sec:contexte-legal}.
Dans le film \textit{Her}~\cite{her}, l'assistant personnel IA Samantha accède sans l'autorisation de l'utilisateur, Théodore, à ses \textit{emails}.
Elle ne l'informe qu'après avoir lu l'intégralité de ses conversations : \textquote{J'ai vu dans tes \textit{emails} que tu à récemment rompu}\footnote{
\textit{I saw through your emails that you went through a break up recently}}.
-En faisant cela elle apprend des informations sensibles sur Théodore : le fait qu'il ai rompu.
-Dans ce film nous n'avons que très peu d'information sur le fonctionnement des IA (qu'il appellent OS) ce qui ne nous permet pas de dire que cette information précise quitte l'appareil locale de Théodore pour être envoyé vers un tiers.
-Cependant, dans la suite du film Samantha avoue avoir parlé de Théodore avec d'autre personnes alors que celui-ci n'était pas au courant.
-Samantha est donc en réseau avec la possibilité de communiquer n'importe quelle information qu'elle juge nécessaire.
-Cela implique une grande chance qu'elle ai communiqué des information que Théodore aurai souhaité garder confidentielles.
-Les assistants personnels sont de plus en plus présents, notamment sur téléphone avec par exemple Siri sur iPhone~\cite{siri} ou Google assistant sur les Pixel~\cite{googleai}.
-Ces assistants pour être utiles doivent avoir accès aux donnés personnelles des utilisateurs et les limitations actuels de la puissance de calcul sur smartphone fait que ces données doivent être envoyer à des tiers pour être traité.
-Par exemple, Siri envoi ses requêtes les plus complexes à ChaGPT par exemple~\cite{aaigpt} mais l'utilisateur doit donner son accord pour chaque requête.
+En faisant cela elle apprend des informations sensibles sur Théodore : le fait qu'il ait rompu.
+Dans ce film nous n'avons que très peu d'informations sur le fonctionnement des IA (qu'il appellent OS), ce qui ne nous permet pas de dire que cette information précise quitte l'appareil local de Théodore pour être envoyé vers un tiers.
+Cependant, dans la suite du film, Samantha avoue avoir parlé de Théodore avec d'autres personnes alors que celui-ci n'était pas au courant.
+Samantha est donc en réseau, avec la possibilité de communiquer n'importe quelle information qu'elle juge nécessaire.
+Cela implique une grande chance qu'elle ait communiqué des informations que Théodore aurait souhaité garder confidentielles.
+Les assistants personnels sont de plus en plus présents, notamment sur téléphone, avec par exemple Siri sur iPhone~\cite{siri} ou Google assistant sur les Pixel~\cite{googleai}.
+Ces assistants, pour être utiles, doivent avoir accès aux données personnelles des utilisateurs et les limitations actuelles de la puissance de calcul sur smartphone font que ces données doivent être envoyées à des tiers pour être traitées.
+Par exemple, Siri envoie ses requêtes les plus complexes à ChaGPT par exemple~\cite{aaigpt} mais l'utilisateur doit donner son accord pour chaque requête.
Ou encore, sur la messagerie Discord~\cite{discord}, il est possible d'activer le résumé des conversations.
-Alors le serveur Discord envoi toutes les conversations aux serveur de OpenAI pour que ChatGPT les analyses~\cite{discordgpt}.
+Alors le serveur Discord envoie toutes les conversations aux serveurs de OpenAI pour que ChatGPT les analyse~\cite{discordgpt}.