diff options
author | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-08-22 22:42:34 +0200 |
---|---|---|
committer | Jan Aalmoes <jan.aalmoes@inria.fr> | 2024-08-22 22:42:34 +0200 |
commit | f964de1889ca8dabfc7195d0d730d80fbcd6b2f7 (patch) | |
tree | 046f40272eb14e2ee63a0f62ed37699c8ddea1aa | |
parent | de796789bfc217c14e91a27dbbc70d96c5261b8f (diff) |
Annexe, redaction de la partie peur/ai non-aligné
-rw-r--r-- | annexe/ai_words.tex | 59 | ||||
-rw-r--r-- | biblio.bib | 84 | ||||
-rw-r--r-- | contexte/philo.tex | 69 | ||||
-rw-r--r-- | contexte/philo/anthro.tex | 34 | ||||
-rw-r--r-- | contexte/philo/mu.tex | 0 | ||||
-rw-r--r-- | contexte/philo/peur.tex | 104 | ||||
-rw-r--r-- | main.pdf | bin | 4945492 -> 4960603 bytes | |||
-rw-r--r-- | main.tex | 8 |
8 files changed, 294 insertions, 64 deletions
diff --git a/annexe/ai_words.tex b/annexe/ai_words.tex new file mode 100644 index 0000000..4382e78 --- /dev/null +++ b/annexe/ai_words.tex @@ -0,0 +1,59 @@ +\begin{verbatim} +Intelligence artificielle +Artificial Intelligence +Apprentissage profond +Réseaux neuronaux +Traitement du langage naturel +Vision par ordinateur +Machine learning +Deep learning +IA éthique +Génération automatique de contenu +Artificial Intelligence +Machine Learning +Deep Learning +Neural Networks +Natural Language Processing +Computer Vision +Ethical AI +IA éthique +Éthique de l'IA +Apprentissage supervisé +Apprentissage non supervisé +Apprentissage par renforcement +Neural Networks +Neuronal Networks +Natural Language Processing +AI Content Creation +Supervised Learning +Création de contenu textuel +Réseaux génératifs adverses +Modèles de transformation +DALL-E +Autoencodeurs variationnels +Stable Diffusion +Modèles de diffusion +Unsupervised Learning +Reinforcement Learning +IA générative +Intelligence artificielle générative +Modèles génératifs +Génération d'images +Computer Vision +Artificial Vision +Modèles de langage +DALL-E +Variational Autoencoders +Stable Diffusion +Diffusion models +Machine translation +AI-driven artistic creation +Generative art +AI-assisted design +AI-generated multimedia +Video generation +AI animation +Modèles pré-entraînés +StyleGAN +BERT +\end{verbatim} @@ -238,6 +238,17 @@ series = {AIES '18} note={Dernier accès: 2024-07-24} } +@book{villani2018donner, + TITLE = {{Donner un sens {\`a} l'intelligence artificielle}}, + AUTHOR = {Villani, C{\'e}dric and Schoenauer, Marc and Bonnet, Yann and Berthet, Charly and Cornut, Anne-Charlotte and Levin, Fran{\c c}ois and Rondepierre, Bertrand}, + URL = {https://inria.hal.science/hal-01967551}, + PUBLISHER = {{Mission Villani sur l'intelligence artificielle}}, + YEAR = {2018}, + MONTH = Mar, + PDF = {https://inria.hal.science/hal-01967551/file/9782111457089_Rapport_Villani_accessible.pdf}, + HAL_ID = {hal-01967551}, + HAL_VERSION = {v1}, +} %%%%%%%%%%%CLIMATE CHANGE BACKGROUND @article{barnes2019viewing, @@ -390,6 +401,11 @@ series = {AIES '18} author={Platon}, year={300 av. JC} } +@book{caverne, + title={La République}, + author={Platon}, + year={300 av. JC} +} @misc{dartmouth, title={Dartmouth summer research project on artificiale intelligence}, howpublished={\url{https://raysolomonoff.com/dartmouth/boxa/dart564props.pdf}}, @@ -444,6 +460,49 @@ series = {AIES '18} ######################################### #Philosophie +@article{wang2023not, + title={Do-not-answer: A dataset for evaluating safeguards in llms}, + author={Wang, Yuxia and Li, Haonan and Han, Xudong and Nakov, Preslav and Baldwin, Timothy}, + journal={arXiv preprint arXiv:2308.13387}, + year={2023} +} + +@article{bergeaud2023teletravail, + title={T{\'e}l{\'e}travail et productivit{\'e} avant, pendant et apr{\`e}s la pand{\'e}mie de Covid-19/Telework and Productivity Before, During and After the COVID-19 Crisis}, + author={Bergeaud, Antonin and Cette, Gilbert and Drapala, Simon}, + journal={Economie et Statistique}, + volume={539}, + number={1}, + pages={77--93}, + year={2023}, + publisher={Pers{\'e}e-Portail des revues scientifiques en SHS} +} + +@misc{metaverse, + title={What is the metaverse?}, + author={Meta}, + howpublished={\url{https://about.meta.com/what-is-the-metaverse/}}, + note={Dernier accès: 2024-08-22} +} + +@misc{applevision, + title={Apple vision pro}, + howpublished={\url{https://www.apple.com/apple-vision-pro/}}, + author={Apple}, + note={Dernier accès: 2024-08-22} + + + +@article{johnson2017ai, + title={AI anxiety}, + author={Johnson, Deborah G and Verdicchio, Mario}, + journal={Journal of the Association for Information Science and Technology}, + volume={68}, + number={9}, + pages={2267--2270}, + year={2017}, + publisher={Wiley Online Library} +} @misc{afi100, title={100 YEARS...100 MOVIES}, @@ -494,6 +553,31 @@ eprint = { https://doi.org/10.1177/000271624725400112 } } +@misc{roko, + title={Solutions to the Altruist's burden: the Quantum Billionaire Trick}, + year={2010}, + author={Roko}, + howpublished={\url{https://rationalwiki.org/wiki/Roko%27s_basilisk/Original_post#Solutions_to_the_Altruist.27s_burden:_the_Quantum_Billionaire_Trick}}, + note={Dernier accès: 2024-08-22} +} +@misc{rokowiki, + title={Roko's basilisk}, + howpublished={\url{https://old-wiki.lesswrong.com/wiki/Roko%27s_basilisk#Roko's_post}}, + note={Dernier accès: 2024-08-22} +} +@misc{slate, + title={The Most Terrifying Thought Experiment of All Time}, + author={Auerbach, David}, + howpublished={\url{https://slate.com/technology/2014/07/rokos-basilisk-the-most-terrifying-thought-experiment-of-all-time.html}}, + note={Dernier accès: 2024-08-22} +} +@misc{rokomisc, + title={A few misconceptions surrounding Roko's basilisk}, + author={Bensinger, Rob} + howpublished={\url{https://www.lesswrong.com/posts/WBJZoeJypcNRmsdHx/a-few-misconceptions-surrounding-roko-s-basilisk}}, + note={Dernier accès: 2024-08-22} +} + @article{Singler_2018, title={Roko’s Basilisk or Pascal’s? Thinking of Singularity Thought Experiments as Implicit Religion}, volume={20}, url={https://journal.equinoxpub.com/IR/article/view/3226}, DOI={10.1558/imre.35900}, abstractNote={In 2010 a thought experiment speculating on the motivations and aims of a potential superintelligent Artificial Intelligence, sometimes known as the &amp;lsquo;Singularity&amp;rsquo;, caused uproar and anxiety on the forum board where it was initially posted. This paper considers that thought experiment&amp;rsquo;s debt to older forms of religious argument, the reactions from among the community, and how expectations about the Singularity as a being with agency can be considered to be an example of implicit religion. This is significant as the thought experiment appeared in a field of research, AI, considered by many to be secular due to its technological focus. The communities under discussion also explicitly express their aim of &amp;lsquo;perfecting&amp;rsquo; human rationality, and place that ability in opposition to &amp;lsquo;religion&amp;rsquo; as a derided object and the aims of &amp;lsquo;Goddists&amp;rsquo; in general. This tension between overt atheism and secular communities&amp;rsquo; return to religious tropes and narratives is relevant for the wider study of religion in the contemporary era.}, number={3}, journal={Implicit Religion}, author={Singler, Beth}, year={2018}, month={May}, pages={279–297} } @misc{matrix, diff --git a/contexte/philo.tex b/contexte/philo.tex index 7ebdfb8..6c53b5b 100644 --- a/contexte/philo.tex +++ b/contexte/philo.tex @@ -1,75 +1,18 @@ -\subsection{La peur et le contrôle} -\subsection{La mauvaise utilisation} -\subsection{Anthropomorphisation} - Enfin, nous allons terminer cette section visant à mieux cernerles différents aspects de l'IA, par une présentation succinte de ses apparition marquante dans la culture populaire ainsi que de ces implications philosophie. Cele permet de mettre en avant l'imaginaire collectif, fantasmé, voir effrayant, que les mots Intelligence Artificiele engendrent. Alors que scientifiquemet l'IA en était à ses balbutiement avec la conférence de Dartmouth, l'immaginaire humain quand à lui avait une longueur d'avance. Des auteur de litérature d'anticipation comme Isaac Asimov propsaient, dès les années 1950, des situtationsa ainsi qu'une reflexion sur les implication de l'introduction de machines intelligentes dans notre vie de tous les jours. -Asimov dans ca serie de nouvelles sur les robots \textit{I, Robot}, introduit les fameuses trois lois de la robotique~\cite{assimovIrobot}: -\textquote{ -\begin{enumerate} - \item La Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ; - \item La Seconde loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ; - \item La Troisème loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi. -\end{enumerate} -} -\footnote{\textit{The First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm. The Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. The Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.}} - -Ces trois lois mettent en avant la necessité d'avoir un contrôle sur l'IA et peuvent être vue comme les premisses de l'IA éthique. -Asimov les explore plus dans \textit{The Bicentennial Man}, une nouvelle publiée en 1976, dans la quelle un robot, par le hasard inhérent à son fonctionnement, montre des caractéristique humaine comme l'empathie ou la créativitée. -Ce hasard dans la création est aussi décrit au septième point de de la proposition de l'école d'été de Dartmouth~\cite{dartmouth}. -Cela renforce le lien entre intuition scientifique et imaginaire créatif, artistique. -De manière assez époustouflante ce hasard joue un rôle prédominant dans les programme génératif moderne comme les GAN ou les auto encodeurs ; nous y reviendrons plus en détails dans à la Section~\ref{sec:background-generation}. -De plus, ces caractéristique humaines peuvent se retrouver en interagissant avec des logiciels récent comme les LLM ou les générateurs d'images. -Cela peut amener les utilisateurs humain à anthropomorphiser ces logiciels~\cite{}. - -Cependant, l'attribution d'un rôle sociale humain à un ordinateur était déjà présent avant l'introduction des logiciels IA~\cite{MARAKAS2000719} : le programme ecrit, copie, attrape un virus, etc. -Une interaction avec \textquote{quelquechose} qui montre un semblant de comportement social nous renvoi a notre propre aliénation sociale au sens décrit par Jean Jaques Rousseau dans son \textit{Du contrat social}~\cite{}. -Marakas et al. explque aussi que cette confusion de l'humain et de la machine entraîne une sur évaluation de la capacité des ordinateurs et peut mener à utiliser à outrance la décision automatisé. -C'est le cas avec les décision juridique ou scolaire où la vie d'être humain est décidé par des ordinateur~\cite{}. -Cela donne lieu à de nombreux problème moraux qui forment les fondements de l'IA éthique nottamant autout de l'équitée, de la confidentialité et de l'explicabilité sur lesquels nos reviendrons à la Section~\ref{sec:contexte-enjeu}. - - -%Differences humain machine -%Turing test - -%Juridique -En droit francais, \textquote{etre humain} est un synonime de \textquote{personne physique}~\cite{cornu}. -C'est à dire ayant la personnalité : l'\textquote{Aptitude à être titulaire des droits et assujetti à des obligations qui appartient à toutes les personnes physiques, [...]}~\cite{cornu}. -Cette définition est d'ailleur la pierre angulaire quand à la reconaissance de le qualité d'humain d'Andrew, le robot protagoniste de \textit{The bicentennial man}~\cite{bicentenaire}. -C'est en reconaissant qu'une personne ayant de multiples prothése d'organes synthetiques, n'en perdant pas moins sa personalité, alors ne reste plus que la conscience qui définisse l'humain. - -Penchons nous donc du coté de la conscience. -Qu'est-ce que l'homme = une de quatres grandes questions de la philosohpie d'après Kant. -Inconscient de Freud = différence avec l'IA. L'IA à-t'elle un inconscient ? -\begin{figure} - \includegraphics[width=\linewidth]{contexte/figure/chatgpt/penses.png} - \caption{Réponsse de ChatGPT à la question \textquote{penses-tu ?}.} - \label{fig:contexte-penses} -\end{figure} -%IA = bullshit -Experience de la Chambre Chinoise~\cite{searle1980minds}. - -%Peur de l'IA -Basilique de Roko, Paris Pascalien~\cite{Singler_2018} - -\textit{The Bicentennial Man}~\cite{bicentenaire} (livre). -\textquote{ -'Comment peuvent-ils avoir peur des robots ?' -'C'est un mal de l'humanitée, l'un de ceux dont elle n'est pas encore guerrie.' -} -\footnote{ -'How can they fear robots?' -'It is a disease of mankind, one of which it is not yet cured.' -} -Alignement de l'IA +\subsection{La peur et le contrôle} +\input{contexte/philo/peur} +\subsection{La mauvaise utilisation} +\input{contexte/philo/mu} +\subsection{Anthropomorphisation} +\input{contexte/philo/anthro} -Convergence de l'IA \textit{The Matrix}~\cite{matrix}. diff --git a/contexte/philo/anthro.tex b/contexte/philo/anthro.tex new file mode 100644 index 0000000..40598c6 --- /dev/null +++ b/contexte/philo/anthro.tex @@ -0,0 +1,34 @@ + +Asimov les explore plus dans \textit{The Bicentennial Man}, une nouvelle publiée en 1976, dans la quelle un robot, par le hasard inhérent à son fonctionnement, montre des caractéristique humaine comme l'empathie ou la créativitée. +Ce hasard dans la création est aussi décrit au septième point de de la proposition de l'école d'été de Dartmouth~\cite{dartmouth}. +Cela renforce le lien entre intuition scientifique et imaginaire créatif, artistique. +De manière assez époustouflante ce hasard joue un rôle prédominant dans les programme génératif moderne comme les GAN ou les auto encodeurs ; nous y reviendrons plus en détails dans à la Section~\ref{sec:background-generation}. +De plus, ces caractéristique humaines peuvent se retrouver en interagissant avec des logiciels récent comme les LLM ou les générateurs d'images. +Cela peut amener les utilisateurs humain à anthropomorphiser ces logiciels~\cite{}. + +Cependant, l'attribution d'un rôle sociale humain à un ordinateur était déjà présent avant l'introduction des logiciels IA~\cite{MARAKAS2000719} : le programme ecrit, copie, attrape un virus, etc. +Une interaction avec \textquote{quelquechose} qui montre un semblant de comportement social nous renvoi a notre propre aliénation sociale au sens décrit par Jean Jaques Rousseau dans son \textit{Du contrat social}~\cite{}. +Marakas et al. explque aussi que cette confusion de l'humain et de la machine entraîne une sur évaluation de la capacité des ordinateurs et peut mener à utiliser à outrance la décision automatisé. +C'est le cas avec les décision juridique ou scolaire où la vie d'être humain est décidé par des ordinateur~\cite{}. +Cela donne lieu à de nombreux problème moraux qui forment les fondements de l'IA éthique nottamant autout de l'équitée, de la confidentialité et de l'explicabilité sur lesquels nos reviendrons à la Section~\ref{sec:contexte-enjeu}. + +%Differences humain machine +%Turing test + +%Juridique +En droit francais, \textquote{etre humain} est un synonime de \textquote{personne physique}~\cite{cornu}. +C'est à dire ayant la personnalité : l'\textquote{Aptitude à être titulaire des droits et assujetti à des obligations qui appartient à toutes les personnes physiques, [...]}~\cite{cornu}. +Cette définition est d'ailleur la pierre angulaire quand à la reconaissance de le qualité d'humain d'Andrew, le robot protagoniste de \textit{The bicentennial man}~\cite{bicentenaire}. +C'est en reconaissant qu'une personne ayant de multiples prothése d'organes synthetiques, n'en perdant pas moins sa personalité, alors ne reste plus que la conscience qui définisse l'humain. + +Penchons nous donc du coté de la conscience. +Qu'est-ce que l'homme = une de quatres grandes questions de la philosohpie d'après Kant. +Inconscient de Freud = différence avec l'IA. L'IA à-t'elle un inconscient ? +\begin{figure} + \includegraphics[width=\linewidth]{contexte/figure/chatgpt/penses.png} + \caption{Réponsse de ChatGPT à la question \textquote{penses-tu ?}.} + \label{fig:contexte-penses} +\end{figure} + +%IA = bullshit +Experience de la Chambre Chinoise~\cite{searle1980minds}. diff --git a/contexte/philo/mu.tex b/contexte/philo/mu.tex new file mode 100644 index 0000000..e69de29 --- /dev/null +++ b/contexte/philo/mu.tex diff --git a/contexte/philo/peur.tex b/contexte/philo/peur.tex new file mode 100644 index 0000000..4b8deaa --- /dev/null +++ b/contexte/philo/peur.tex @@ -0,0 +1,104 @@ +Dans l'\textit{Home bicentenaire}, Isaax Asimov ecrit le dialogue suivant : +\textquote{ +'Comment peuvent-ils avoir peur des robots ?' +'C'est un mal de l'humanitée, l'un de ceux dont elle n'est pas encore guerrie.' +} +\footnote{ +'How can they fear robots?' +'It is a disease of mankind, one of which it is not yet cured.' +} +Et en effet, nous observons une certaine méfiance de la part du grand publique envers l'IA et ses dévelopement possibles~\cite{johnson2017ai}. +Dans la culture populaire et notament dans le cinema, cette peur est très représent, nous présentons à la Figure~\ref{fig:contexte-badai} un collage qui montre que l'IA est un antagoniste iconique du septième art. +Explorons certaines de ces inquétudes. +Nous séparons les risques en deux : ceux liée à un IA aligné, c'est à dire une IA qui fait ce pour quoi elle à été crée, et le risques lié à un IA non-alignée. + +Commencons par ces dernièrs. +La scène d'ouverture de \textit{The Terminator}~\cite{terminator} montre parfaitement ce qu'est une machine aligné. +Nous y voyons des machines autonomes se battre avec une force ecrasant contre des humains. +Cette scène contraste avec celle qui l'on voit jute après l'écran titre où la machine, toute aussi gigantesque que les robots tueurs, est un camion poubelle donc totalement au service et l'homme qui la contrôle. +Une IA non-alginé est donc un programme qui cherche à atteindre un objectif qui n'est pas celui pour le quel elle à été concut, dans ce cas, un guerre totale contre l'humanitée. +C'est la même inquiétude qui est présente dans \textit{The Matrix}~\cite{matrix}. +Ce film présenté ce qui pourrait se passer après un guerre contre le machine pérdu par l'humanité. +La machines, ayant besoin d'énergie, créent un monde virtuel : une simulation, dans laquelle est enfermé l'esprit de tous les hommes. +Ainsi elle peuvent recuperer la bioéléctricité générée par le corps humain. +La simulation est ainsi un environement ou l'IA peut évoluer avec un controle humain assez limité ce qui facilite le non-alignement~\cite{johnson2017ai}. +En effet, quand des aspects capitaux de la vie des personnes n'est plus géré physiquement, l'IA n'a plus besoins de robot (captuers, activateur, ...) pour intéragir avec la réalité. +Nous parlons ici de la réalité au sens plationitien de l'alégorie de la caverne : la simulation est la réalité~\cite{caverne}. +Cette simulation est un future possible quand à la manière dont nous vivons, par exemple depuis le COVID-19 le télétravail c'est grandement démocratisé~\cite{bergeaud2023teletravail}. +Il existe du multiples moyens numériques pour simuler la vie physique dans ce contexte et la réalité virtuelle est une voie fortemnt appuyé par les GAFAM. +Apple et Meta proposent des casques de réalitée virtuelle dans cette optique~\cite{metaverse,applevision}. + +Dans \textit{The Terminator}, une seul IA est responssable du non-alignement. La tâche pour laquelle cette IA à été construite était la défense du territoire américain. +C'est un problème imprévu par les dévelopeurs lié à une trop grande confiance dans les capacité de la machine qui amène à la guerre entre homme et machine. +En effet le protagoniste Kyle Reese explique l'IA \textquote{Skynet} comme étant +\textquote{[un] réseau informatique de défence, habilité à tout connaître. Il le disait intelligent.} +\footnote{\textit{Defense network computer, trusted to know it all. They said it was smart.}} +L'IA est donc passé de aligné à non-aligné, cela est particulièrement inquiétant pour les système autonomes armé comme le décrit Cedric Villani à la cinquième partie de son rapport sur l'IA commandé par le gouvernment Macron~\cite{villani2018donner}. + +Pour palier cela, les IA, comme les LLM peuvent être programmé pour respecter certain contraintes morales~\cite{wang2023not}. +C'est aussi ce type de contrôle que préconise +Asimov dans ca serie de nouvelles sur les robots \textit{I, Robot}. +Il y introduit les fameuses trois lois de la robotique qui sont programmés dans toutes les IA~\cite{assimovIrobot}: +\textquote{ +\begin{enumerate} + \item La Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ; + \item La Seconde loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ; + \item La Troisème loi : Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi. +\end{enumerate} +} +\footnote{\textit{The First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm. The Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. The Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.}} +Ces trois lois mettent en avant la necessité d'avoir un contrôle sur l'IA et peuvent être vue comme les premisses de l'IA éthique. + +Outre le cas d'une IA qui bascule d'aligné à non-aligné, et bien que ce cas ne ce soit pas (encore) présenté, \textit{Avengers: age of Ultron}~\cite{avenger} présente une IA qui dès sa création est non-aligné. +Lors d'une expérience, Tony Stark, le createur de l'IA Ultron, n'avait pas de but précis pour sa création. +Ultron, après avoir s'être renseigné sur ce que sont les humains en ayant accès à internet, à pris la décision de les exterminer. +Heureusement ce genre de risque est très faible, car la robotique n'est pas assez avancé et comme nous l'avons vu, les IA acutels ne sont pas capable de prendre des décisions arbitraires. + +Plus sérieusement, il existe un argument similaire à celui du Paris Pascalien, qui cherche à savoir si nous devons colaborer à l'ellaboration d'une IA non-aligné, potentielement mauvaise. +Le Paris Pascalien est un argument probabiliste avancé par Blaise Pascale disant qu'il est plus avantageux de croire en dieu que de ne pas croire. +Nous présentons dans la Table~\ref{tbl:contexte-paris} comment se fait le calcul moyen du gain. +Il existe une version modifié paris qui explore le problème de Newcombe suivant : doit-on coopéréer à la création d'une intelligence artificielle~\cite{Singler_2018,roko}? +Il s'agit d'un problème des théorie de la décision à deux agents : +L'un est l'IA, l'autre le decideur. +Le décideur est antiérieur à l'IA et choisit de coopérer ou non. +L'IA est au courant des pensée du décideur comme dans le cadre d'agent coopérants dans le dilemn du prisonier. +L'IA fait du chantage au décideur : si le décideur ne coopère pas il sera torturé. +Cela crée pour le décideur le tableau de gain presanté à la Table~\ref{tbl:contexte-roko}. +Ainsi, toutes personne étant au courant du Basilic (ligne Sait) aurait avantage à coopérer. +Cette démonstration a été très médiatisée et à généré beaucoup d'anxiété du à sa nature de danger informationel~\cite{rokowiki,slate}. +Cependant cet argument est criticable, notament sur le fait que si l'agent IA existe, il n'a pas d'intéret à torturer l'agant qui savait et na pas contribué retrospéctivement~\cite{rokomisc}. + +\begin{table} + \centering + \begin{tabular}{c|cc} + &Existe&N'éxiste pas\\ + \hline + Croire&$+\infty$&$-c$\\ + Ne pas croire&$-\infty$&$+c$\\ + \end{tabular} + + \begin{tabular}{c} + \\ + $E(\text{Croire}) = +\infty P(\text{Existe}) - c P(\text{N'éxiste pas}) = +\infty$\\ + $E(\text{Ne pas croire}) = -\infty P(\text{Existe}) + c P(\text{N'éxiste pas}) = -\infty$ + \end{tabular} + \caption{Tableau des gains de croire ou ne pas croire en Dieu. $E$ représente le gain moyen (voir la Section~\ref{sec:background-proba} pour une définition formelle de l'espérence).} + \label{tbl:contexte-paris} +\end{table} + +\begin{table} + \centering + \begin{tabular}{cc|cc} + &&IA construit&IA pas construit\\ + \hline + \multirow{2}{*}{Sait}& + Donner&$-c$&$-c$\\ + &Ne pas donner&$-\infty$&$0$\\ + \hline + \multirow{2}{*}{Ne sait pas}& + Donner&/&/\\ + &Ne pas donner&$0$&$0$\\ + \end{tabular} + \caption{Basilic de Roko} + \label{tbl:contexte-roko} +\end{table} Binary files differ@@ -15,6 +15,7 @@ \usepackage{cite} \usepackage{hyperref} \usepackage{listings} +\usepackage{multirow} \lstset{ basicstyle=\small\ttfamily, @@ -36,7 +37,7 @@ breaklines=true \begin{titlepage} \begin{center} \Huge - \textbf{L'intelligence artificielle, un sujet de thèse merdique} + \textbf{Intelligence artificielle pour des services moraux} \vspace{3cm} @@ -95,4 +96,9 @@ breaklines=true \bibliographystyle{plain} \bibliography{biblio} +\appendix +\chapter{Mot clé pour la recherche projets IA} +\input{annexe/ai_words} + + \end{document} |