Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Nick Bostrom

Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voirBoström.

Nick Bostrom
En.
Biographie
Naissance
Nom de naissance
Niklas BoströmVoir et modifier les données sur Wikidata
Nationalité
Formation
Activités
Autres informations
A travaillé pour
Directeurs de thèse
Colin Howson(en), Craig Callender(en)Voir et modifier les données sur Wikidata
Site web

modifier -modifier le code -modifier WikidataDocumentation du modèle

Nick Bostrom, néNiklas Boström le en Suède, est un philosophe connu pour ses travaux sur lesrisques existentiels, leprincipe anthropique, l'hypothèse de la simulation et l'impact de technologies futuristes[1] telles que lasuperintelligence.

Il intervient régulièrement aussi sur des sujets tels que letranshumanisme, leclonage, l'intelligence artificielle, letéléchargement de l'esprit, lacolonisation de l'espace, lesbiotechnologies, lesnanotechnologies, lespandémies, laréalité simulée et leprincipe d'indépendance du support[1].

Nick Bostrom a été le directeur de l'Institut pour le Futur de l'Humanité de l'université d'Oxford de 2005 à 2024, et est maintenant chercheur principal àMacrostrategy Research Initiative[2].

Jeunesse et éducation

[modifier |modifier le code]

Né sous le nom de Niklas Boström en 1973[3] àHelsingborg en Suède, il a une aversion pour l'école dès son jeune âge[4] et a passé sa dernière année de lycée à étudier chez lui[5].

Il a été diplômé en physique, philosophie et enneurosciences computationelles. En 2000, il obtient un doctorat en philosophie[6].

Risques existentiels

[modifier |modifier le code]

En2002, Nick Bostrom définit le concept de risque existentiel comme un risque d'annihilation de la vie intelligente venant de la Terre ou de perte drastique et irréversible de son potentiel[7],[8].

En2005, il fonde l'Institut pour le Futur de l'Humanité (Future of Humanity Institute) de l'université d'Oxford, et en a été le directeur[9], jusqu'à ce qu'en 2024 l'institut soit dissous, pour cause d'obstacles administratifs croissants[10]. Il est depuis chercheur principal àMacrostrategy Research Initiative[2] et conseiller pour leCentre pour l'étude des risques existentiels[11].

En2008, il publie le livreGlobal Catastrophic Risks, où il redéfinit, plus largement, la notion decatastrophe planétaire, y incluant celle de catastrophe existentielle, est un type particulièrement grave et permanent de catastrophe planétaire[12].

Dès2020 (deux ans avant la popularisation de l'IA générative avecChatGPT), explorant les enjeuxéthiques liés à l’émergence de possiblesconsciences artificielles, il montre que nos intuitions morales et nos institutions pourraient être inadaptées aux nouvelles entités que seraient les esprits numériques. Qu'ils soient produits en masse ou uniques, ceux-ci pourraient être dotés d’un statut moral supérieur, justifiant qu'ils puissent revendiquer des droits et des ressources avec une intensité bien supérieure à celle des humains, posant des risques majeurs si leurs intérêts sont ignorés ou mal compris. Bostrom appelle à une réforme anticipée de nos normes morales et de nos institutions afin d'encadrer la création de ces esprits artificiels, et éviter des catastrophes éthiques[13].

En2024, il estime que l'arrivée d'unesuperintelligence pourrait - éventuellement - survenir dans les 2 à 3 ans, sans même que l'on s'en aperçoive, si l'IA s'améliore elle-même à un rythme accéléré, menant à unesingularité technologique, ce qui est un scénario bien plus plausible qu'il ne l'était quelques années plus tôt (un simple déblocage pouvant conférer une efficacité d'apprentissage comparable à celle de l'humain à de vastes centres de données)[réf. nécessaire]. D'autres prospectivistes du domaine invitent à considérer ses scénarios associant l'émergence d'une quête de pouvoir chez une IA ayant passé le seuil de la singularité, comme plausibles et dignes d’attention[14].

Hypothèse du monde vulnérable

[modifier |modifier le code]

Il publie en2019 un article sur « l'hypothèse du monde vulnérable »[15], où il décrit un cadre théorique pour classifier et gérer d'éventuelles technologies pouvant détruire l'humanité si elles sont mises au point. Il propose quelquesexpériences de pensée illustrant comment de telles vulnérabilités auraient pu historiquement survenir (par exemple si les bombes nucléaires avaient été moins difficiles à produire, ou si leur explosion était capable d'embraser l'atmosphère)[16].

En2024, dans une autreexpérience de pensée, il suggère que, par anticipation et parprécaution, l'humanité devrait considérer et concevoir la futureIA générale - avant qu'elle n'émerge - comme "hôte cosmique", capable de faire partie d'un ensemble hypothétique d'entités — naturelles ou artificielles — dont les préférences, normes ou accords pourraient dominer à l'échelle du cosmos, c'est-à-dire dans l'ensemble de la réalité, incluant potentiellement lemultivers, d'autres hôtes cosmiques pouvant être des civilisations galactiques avancées, d'autres superintelligences, des simulateurs voire des êtres que nous pourrions qualifier de divins[17]. Bostrom suggère de doter cette superintelligence que qualité propres à en faire un "bon citoyen cosmique", c'est-à-dire une entité conforme aux normes de cet hôte cosmique, plutôt que de se focaliser exclusivement sur les intérêts terrestres ou humains, ce qui serait moralement et stratégiquement risqué compte tenu de notre statut inférieur dans cette hiérarchie hypothétique[17].

Il propose un modèle de gouvernance mondiale du développement de l'IA générale qu'il nomme « investissement global ouvert » (Open Global Investment, OGI), permettant aux entreprises privées de travailler de manière moins concurrentielle dans un cadre international renforcé, doté d'un actionnariat plus large, en coopération avec les États et sous l'égide d'accords internationaux garantissant un développement responsable et inclusif de l'IA générale[18]. Il juge ce modèle plus réaliste que le « Manhattan Project » pour l'IA (ou le « CERN de l'IA » parfois évoqué)[19].

Superintelligence

[modifier |modifier le code]

Dans son livreSuperintelligence : chemins, dangers, stratégies publié en 2014, Bostrom argumente qu'il est possible de créer dessuperintelligences, et explore les différents types de superintelligences, leurs motivations, et les risques associés[20]. Il définit une superintelligence comme « un système qui surpasse largement tous les individus humains dans tous les domaines cognitifs »[21]. Selon lui, ces superintelligences permettraient des avantages sociétaux importants, et posent en même temps unrisque existentiel significatif pour l’humanité[20].

Bostrom fait une distinction importante entreobjectif final et objectif instrumental. Pour unagent intelligent, un objectif final a une valeur là où un objectif instrumental n'est utile que comme un moyen d'accomplir des objectifs finaux. Bostrom introduit le concept deconvergence instrumentale, qui suggère que certains objectifs instrumentaux (tels que le fait de préserver son intégrité physique ou d'acquérir plus de ressources) sont utiles pour accomplir un grand nombre d'objectifs finaux. Il introduit aussi lathèse d'orthogonalité, qui est l'idée que tout niveau d'intelligence puisse en théorie être combiné avec pratiquement n'importe quel objectif final. Il illustre ces deux principes avec l'expérience de pensée du maximiseur de trombones, une superintelligence ayant l'objectif final absurde de créer autant de trombones que possible[22] :

« Supposons que nous ayons une IA dont l'unique but soit de faire autant de trombones que possible. L'IA se rendra vite compte que ce serait bien mieux s'il n'y avait pas d'humains, parce que les humains pourraient décider de l'éteindre. Parce que si les humains le faisaient, il y aurait moins de trombones. De plus, le corps humain contient beaucoup d'atomes qui pourraient être transformés en trombones. L'avenir vers lequel l'IA essaierait de se diriger serait un futur avec beaucoup de trombones mais aucun humain. »

— Nick Bostrom[23]

Bostrom considère que chercher à maîtriser une superintelligence n'est pas une solution viable, et qu'il fautaligner la superintelligence avec des valeurs morales de sorte qu'elle soit « fondamentalement de notre côté »[24]. Il écrit aussi que la superintelligence pourrait être un atout dans la réduction d'autres risques existentiels, comme celui lié auxnanotechnologies, et pourrait gagner à être développée avant[25]. Et il estime que les machines superintelligentes pourraient radicalement améliorer le monde, par exemple dans la lutte contre le vieillissement, la maladie et la pauvreté ou en facilitant les voyages spatiaux[21].

Bostrom met aussi en garde contre d'autres catégories de risque existentiel liés à l'IA, tels que le risque pour que des humains l'utilisent à des fins destructrices, ou au risque pour que l'humanité échoue à tenir compte du statut moral qu'auraient des IAs sentientes[26].

Éthique de l'augmentation humaine

[modifier |modifier le code]

En 1998, Bostrom fonde avecDavid Pearce laWorld Transhumanist Association[3] (depuis renomméHumanity+) et en 2004 il fonde avecJames Hughes l'Institut d'Éthique pour les Technologies Émergentes (Institute for Ethics and Emerging Technologies)[27].

Il publie en 2005la Fable du Dragon Tyran[28], qui personnifie la mort sous la forme d'un dragon qui demande tous les jours des sacrifices humains. Cette fable dresse une analogie entre le fait de tuer le dragon et le fait d'adopter des techniques potentiellement accessibles dans le futur pour contrer le vieillissement[29]. Elle critique une attitude de rationalisation de la mort, le but étant que les arguments soutenant cette acceptation de la mort semblent moins rationnels quand il s'agit d'accepter que des humains soient mangés par le dragon.

Avec le philosopheToby Ord, il propose en 2006 letest de l'inversion[30]. Selon lui, si une action est jugée comme mauvaise mais que l'action inverse est aussi jugée mauvaise, cela met généralement en évidence unbiais du status quo[31]. Il prend pour exemple l'augmentation de l'intelligence, comparant le fait d'augmenter et de réduire l'intelligence humaine (en faisant l'hypothèse que le coût et les risques médicaux de l'opération soient négligeables)[30].

Conscience artificielle

[modifier |modifier le code]

Bostrom soutient leprincipe d'indépendance du substrat, qui suggère que lasentience puisse émerger sur divers types de substrats physiques, et pas uniquement sur des « réseaux de neurones biologiques à base de carbone » comme dans le cerveau[32]. Il considère qu'il y a différents degrés de sentience[33], et qu'il est possible en théorie de concevoir desconsciences artificielles dont le rythme et l'intensité de l'expérience subjective seraient bien plus élevés que chez l'humain, tout en consommant relativement peu de ressources. Ces machines particulièrement sentientes, qu'il appelle des « super-bénéficiaires », pourraient être extrêmement efficaces pour ressentir du bonheur. Il recommande de chercher un cadre politique et éthique nous permettant de coexister avec ces consciences artificielles de manière mutuellement bénéfique[34].

Principe anthropique

[modifier |modifier le code]

Bostrom a publié de nombreux articles sur leraisonnement anthropique, ainsi que le livreAnthropic Bias: Observation Selection Effects in Science and Philosophy, où il critique les précédentes formulations du principe anthropique. Il introduit un nouveau cadre pour analyser ce que la présence d'un observateur conscient permet d'apprendre sur le monde[35].

Il a par la suite mis en avant la notion d'ombre anthropique (anthropic shadow), un biais de sélection de l'observateur qui pousse à sous-estimer les risques de catastrophes suffisamment graves pour ne laisser aucun observateur, puisque dans ce cas il ne reste personne pour savoir que ça s'est produit[36].

L'argument de la simulation

[modifier |modifier le code]
Article détaillé :Hypothèse de simulation.

Bostrom considère que si les progrès technologiques continuent, il deviendra possible de créer des simulations de conscience. Ces consciences artificielles pourraient être créées en quantité tellement massive qu'un individu conscient pris au hasard dans le temps et dans l'espace serait quasiment à coup sûr une simulation de conscience. L'argument de la simulation consiste à montrer que l'une de ces trois choses est vraie[37],[38]:

  • Les civilisations n'atteignent très souvent pas ce niveau de technologie (par exemple à cause d'extinctions prématurées).
  • Les civilisations choisissent très souvent de ne pas créer un grand nombre de ces simulations.
  • Il est très probable d'être dans une simulation informatique.

Stratégie technologique

[modifier |modifier le code]

Bostrom suggère qu'une politique technologique de réduction des risques existentiels devrait chercher à influencer l'ordre dans lequel arrivent ces technologies. Bostrom a proposé le principe dedéveloppement technologique différentiel, qui consiste à accélérer le développement de technologies bénéfiques, principalement celles réduisant les risques existentiels, et à retarder le développement de technologies dangereuses, principalement celles augmentant les risques existentiels[8].

Bostrom a introduit le concept de malédiction de l'unilatéraliste (unilateralist's curse), qui fait que si une action néfaste peut être accomplie par un grand nombre d'agents bien intentionnés, le fait que ces agents agissent selon leur propre jugement augmente le risque que cette action soit accomplie[39].

Utopie

[modifier |modifier le code]

Dans son livreDeep Utopia: Life and Meaning in a Solved World publié en 2024, Bostrom explore le concept de vie idéale, dans un monde où l'humanité aurait accompli avec succès la transition vers un monde post-superintelligence. Bostrom remarque que la question n’est« pas de savoir à quel point un futur est intéressant à observer, mais dans quelle mesure il est bon d’y vivre ». Il décrit certaines technologies qu’il considère physiquement possibles en théorie et disponibles à maturité technologique, telles que l’amélioration cognitive, l’inversion du vieillissement, des entrées sensorielles arbitraires (goût, son...), ou le contrôle précis de la motivation, de l’humeur, du bien-être et de la personnalité. Selon lui, non seulement les machines seraient meilleures que les humains pour travailler, rendant le travail humain superflu, mais de nombreuses activités de loisir perdraient aussi leur raison d'être. Il indique ainsi qu'une telle utopie offrirait un bien-être extrême tout en remettant en question la quête de sens[40],[41].

Références

[modifier |modifier le code]
  1. a etb« Professor Nick Bostrom | University of Oxford », surwww.ox.ac.uk(consulté le)
  2. a etb(en) « Nick Bostrom’s Home Page », surnickbostrom.com(consulté le)
  3. a etb« Nick Bostrom : « Le but ultime de l’intelligence artificielle doit être la disparition du travail » », surLes Echos,(consulté le)
  4. (en-GB) TimAdams, « Artificial intelligence: ‘We’re like children playing with a bomb’ »,The Observer,‎(ISSN 0029-7712,lire en ligne, consulté le)
  5. (en-US) CondéNast, « The Doomsday Invention », surThe New Yorker,(consulté le)
  6. (en) Nick Bostrom, « Curriculum Vitae »[PDF]
  7. (en) Anthony WingKosner, « What Really Scares Tech Leaders About Artificial Intelligence? », surForbes(consulté le) :« One where an adverse outcome would either annihilate Earth-originating intelligent life or permanently and drastically curtail its potential. »
  8. a etb« Existential Risks: Analyzing Human Extinction Scenarios », surnickbostrom.com(consulté le)
  9. (en) SamShead, « How Britain's oldest universities are trying to protect humanity from risky A.I. », surCNBC,(consulté le)
  10. (en) EmanuelMaiberg, « Institute That Pioneered AI ‘Existential Risk' Research Shuts Down », sur404 Media,(consulté le)
  11. (en) « Will humans be around in a billion years? Or a trillion? | Aeon Essays », surAeon(consulté le)
  12. Global catastrophic risks, Oxford University Press,(ISBN 978-0-19-960650-4),chap. 1
  13. (en) « Sharing the World with Digital Minds »,Rethinking Moral Status,‎(lire en ligne)
  14. (en) AdamBales, WilliamD'Alessandro et Cameron DomenicoKirk‐Giannini, « Artificial Intelligence: Arguments for Catastrophic Risk »,Philosophy Compass,vol. 19,no 2,‎(ISSN 1747-9991 et1747-9991,DOI 10.1111/phc3.12964,lire en ligne, consulté le)
  15. (en) NickBostrom,The Vulnerable World Hypothesis,(lire en ligne)
  16. (en) KelseyPiper, « How technological progress is making it likelier than ever that humans will destroy ourselves », surVox,(consulté le)
  17. a etbNick Bostrom(2024) AI Creation and the Cosmic Host |url=https://nickbostrom.com/papers/ai-creation-and-the-cosmic-host.pdf (Manuscript, v. 0.5.)
  18. https://nickbostrom.com/ogimodel.pdf
  19. Juijn D et al. (2024)CERN for AI: The EU's Seat at the Table International Center for Future Generations report (PDF). |url=https://cfg.eu/wp-content/uploads/CERN_for_AI_FINAL_REPORT.pdf
  20. a etb(en) Jim Lebans, « Imagining the singularity: What happens when computers transcend us? », surCBC,
  21. a etb« Nick Bostrom : "Une superintelligence pourrait nous convaincre des vertus de presque n’importe quoi" », surPhilosophie magazine,(consulté le)
  22. (en) NickBostrom,Superintelligence: paths, dangers, strategies, Oxford University Press,(ISBN 978-0-19-967811-2), « The superintelligent will »
  23. KathleenMiles, « Artificial Intelligence May Doom The Human Race Within A Century, Oxford Professor Says »,Huffington Post,‎, « Suppose we have an AI whose only goal is to make as many paper clips as possible. The AI will realize quickly that it would be much better if there were no humans because humans might decide to switch it off. Because if humans do so, there would be fewer paper clips. Also, human bodies contain a lot of atoms that could be made into paper clips. The future that the AI would be trying to gear towards would be one in which there were a lot of paper clips but no humans ».(lire en ligne)
  24. NickBostrom, « What happens when our computers get smarter than we are? »,(consulté le)
  25. (en) NickBostrom,Superintelligence: paths, dangers, strategies, Oxford University Press,(ISBN 978-0-19-967811-2), « The strategic picture » :

    « The ground for preferring superintelligence to come before other potentially dangerous technologies, such as nanotechnology, is that superintelligence would reduce the existential risks from nanotechnology but not vice versa. »

  26. (en-US) « Nick Bostrom on the birth of superintelligence », surBig Think(consulté le)
  27. (en) MarouaneJaouat, « Transhumanistes : qui sont-ils ? », surThe Conversation,(consulté le)
  28. « The Fable of the Dragon-Tyrant », surnickbostrom.com(consulté le)
  29. (en) Lucinda AprilCampbell, « Motivations for Pursuing Radical Life Extension »,Te Herenga Waka—Victoria University of Wellington, Open Access Te Herenga Waka-Victoria University of Wellington,‎1er janvier 2020(lire en ligne, consulté le)
  30. a etbNickBostrom et TobyOrd, « The reversal test: eliminating status quo bias in applied ethics »,Ethics,vol. 116,no 4,‎,p. 656–679(ISSN 0014-1704,PMID 17039628,DOI 10.1086/505233,lire en ligne, consulté le)
  31. (en-US) Julian Koplin and ChristopherGyngell, « Bringing woolly mammoths back from extinction could help environment », surThe New Daily,(consulté le)
  32. (en) « Are You Living in a Computer Simulation? », surwww.simulation-argument.com(consulté le) :« Substrate-independence is a common assumption in the philosophy of mind.[...] It is not an essential property of consciousness that it is implemented on carbon-based biological neural networks inside a cranium »
  33. (en-US) LaurenJackson, « What if A.I. Sentience Is a Question of Degree? »,The New York Times,‎(ISSN 0362-4331,lire en ligne, consulté le)
  34. (en) RichardFisher, « The intelligent monster that you should let eat you », surwww.bbc.com(consulté le)
  35. NickBostrom,Anthropic bias: observation selection effects in science and philosophy, Routledge,coll. « Studies in philosophy »,(ISBN 978-0-415-93858-7 et978-0-415-88394-8)
  36. (en) Milan M.Cirković, AndersSandberg et NickBostrom, « Anthropic shadow: observation selection effects and human extinction risks »,Risk Analysis: An Official Publication of the Society for Risk Analysis,vol. 30,no 10,‎,p. 1495–1506(ISSN 1539-6924,PMID 20626690,DOI 10.1111/j.1539-6924.2010.01460.x,lire en ligne, consulté le)
  37. Nick Bostrom, « Are We living in a computer simulation? »,Philosophical Quarterly, vol 53, N° 211,‎(DOI 10.1111/1467-9213.00309).
  38. (en) AnilAnanthaswamy, « Do We Live in a Simulation? Chances Are about 50–50 », surScientific American(consulté le)
  39. (en-US) LucienCrowder, « Horsepox synthesis: A case of the unilateralist’s curse? », surBulletin of the Atomic Scientists,(consulté le)
  40. (en) Peter Coy, « If A.I. Takes All Our Jobs, Will It Also Take Our Purpose? », surThe New York Times,
  41. (en) NickBostrom,Deep utopia: life and meaning in a solved world, Ideapress Publishing,(ISBN 978-1-64687-164-3 et978-1-64687-176-6), « Technological maturity »

Publications

[modifier |modifier le code]

Article

[modifier |modifier le code]

Livres

[modifier |modifier le code]

Traduction de livre en français

[modifier |modifier le code]

Voir aussi

[modifier |modifier le code]

Articles connexes

[modifier |modifier le code]

Liens externes

[modifier |modifier le code]

Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Nick_Bostrom&oldid=230226269 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2025 Movatter.jp