Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Future of Humanity Institute

Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voirFHI.

Future of Humanity Institute
Logo du Future of Humanity Institute
Logo du Future of Humanity Institute
Situation
Création2005
Dissolution16 avril 2024
SiègeOxford,Angleterre
Organisation
DirecteurNick Bostrom
Organisations affiliéesFaculté de Philosophie (en),université d'Oxford

Site webfhi.ox.ac.uk
modifier 

LeFuture of Humanity Institute (FHI,Institut pour l'avenir de l'Humanité) était un centre de rechercheinterdisciplinaire de l'université d'Oxford, se consacrant aux questions concernant l'humanité et son avenir. Il fut fondé en 2005 comme une unité de la faculté de philosophie et de l'Oxford Martin School (en)[1]. Dirigé par le philosopheNick Bostrom, son équipe de recherche inclut lefuturologueAnders Sandberg, l'ingénieurKim Eric Drexler, l'économisteRobin Hanson, etToby Ord, le fondateur deGiving What We Can[2]. Il a été fermé le 16 avril 2024 du fait d'obstacles administratifs[3].

Partageant des locaux et travaillant en collaboration avec leCentre for Effective Altruism[4], l’objectif de l’Institut était d’orienter les recherches vers le plus grand bien pour l’humanité à long terme[5],[6]. Il était engagé dans des activités académiques, mais aussi dans la promotion de discussions et d’analyses informées au sein d’organisations gouvernementales, commerciales, et autres.

Historique

[modifier |modifier le code]

Nick Bostrom a créé l’Institut en novembre 2005, comme une unité de l'Oxford Martin School (en) (à l'époque, la James Martin 21st Century School)[1]. Entre 2008 et 2010, le FHI hébergea la conférence sur lesrisques de catastrophe planétaire, écrivit 22 articles pour des journaux académiques, et publia 34 chapitres dans des ouvrages collectifs ; les chercheurs du FHI ont été mentionnés plus de 5 000 fois dans les médias[7], et il a fourni des analyses et des conseils auforum économique mondial, à des organisations privées ou à but non lucratif, comme lafondation MacArthur, et l'Organisation mondiale de la santé), ainsi qu'à des organisations gouvernementales enSuède, à Singapour, en Belgique, au Royaume-uni, et auxÉtats-unis. Nick Bostrom et le bioéthisteJulian Savulescu (en) ont également publiéHuman Enhancement en mars 2009[8]. Plus récemment, le FHI s'est concentré sur les dangers de l'intelligence artificielle (forte). En 2014, ses chercheurs ont publié plusieurs livres sur les risques créés par l'IA, parmi lesquelsSmarter Than Us, de Stuart Armstrong, etSuperintelligence : Paths, Dangers, Strategies, de Nick Bostrom[9],[10].

Risques existentiels

[modifier |modifier le code]
Article détaillé :Risque de catastrophe planétaire.

Les sujets les plus vastes étudiés par le FHI sont lesrisques de catastrophe planétaire, et en particulier les « risques existentiels ». Dans un article de 2002, Nick Bostrom définit un risque existentiel comme« un évènement qui annihilerait la vie intelligente sur Terre ou réduirait son potentiel de façon drastique et permanente »[11]. Cela englobe des scénarios dans lesquels l'humanité, sans être détruite, échoue àcoloniser l'espace et à utiliser les ressources de l'univers observable, comme Bostrom l'expose en 2003 dans son article sur lecoût des opportunités manquées[12].

Dans leur livre de 2008,Global Catastrophic Risks, Bostrom etMilan Ćirković réunissent des essais sur de nombreux risques de catastrophes, naturelles ou créées par l'homme. Les risques naturels, comme lesuper-volcanisme, lesimpacts cosmiques, ou encore des évènements astronomiques très énergétiques comme lessursauts gamma ou lessupernovas, présentent un risque faible et assez bien compris[13],[6], c'est pourquoi le FHI s'intéresse surtout aux risques technologiques tels que leréchauffement climatique, laguerre nucléaire, ou les risques présentées par lesnanotechnologies et l'intelligence artificielle, ainsi qu'auxpandémies que pourraient provoquer desarmes biologiques. Les chercheurs du FHI ont également étudié l’impact du progrès technologique sur les sociétés et les institutions, allant dutotalitarisme à lamontée du chômage, et aux risques liés à l’information[14].

Raisonnements anthropiques

[modifier |modifier le code]
Article détaillé :Principe anthropique.

Le FHI accorde beaucoup d’attention à des menaces exotiques qui ont été peu explorées par d’autres organisations, et aux considérations méthodologiques permettant la prévision et la réduction des risques existentiels. L’Institut a particulièrement insisté sur l’importance dans ce contexte de« raisonnements anthropiques », un domaine encore mal exploré ayant des implications épistémologiques très générales.

Parmi les arguments anthropiques étudiés par le FHI, l'argument de l'apocalypse affirme que l'humanité devrait s'éteindre bientôt, parce que le plus probable est que les humains vivant actuellement sont près du milieu de la distribution des humains qui auront existé[13]. Nick Bostrom a également proposé l’« argument de la simulation », qui suggère que si nos chances d'éviter les risques existentiels sont élevées, il est probable que nous vivions dans uneréalité simulée[15].

Un autre thème récurrent chez les chercheurs du FHI est leparadoxe de Fermi, c’est-à-dire l’absence surprenante de civilisations extraterrestres observables.Robin Hanson en a déduit l’existence d’un« grand filtre » empêchant la colonisation de l’espace, filtre qui pourrait avoir agi dans le passé (si l’intelligence est beaucoup plus rare que nous le pensons) ou dans notre avenir (si les risques existentiels sont suffisamment importants).

Transhumanisme et rationalité

[modifier |modifier le code]

En liaison étroite avec le travail du FHI sur l’évaluation des risques dus à de nouvelles technologies figurent des travaux sur les promesses et les dangers d’améliorations des êtres humains. Ces modifications peuvent être biologiques, sociologiques, ou utiliser des ressources informatiques ; les études portent surtout sur les hypothèses les plus radicales, plutôt que sur des progrès prévisibles à court terme. Ainsi,les recherches du FHI enbioéthique étudient les conséquences potentielles de lathérapie génique, mais aussi desimplants cérébraux et desinterfaces neuronales, ainsi que dutéléchargement de l'esprit[16].

FHI a également mis l’accent sur les méthodes permettant d’évaluer et d’améliorer l’intelligence et la rationalité, afin de diriger et d’accélérer les progrès sociaux et technologiques. Le travail du FHI sur les sources d’irrationalité, comme lesheuristiques de jugement et lesbiais cognitifs, inclut en particulier une collaboration permanente avecAmlin (en) pour l'étude desrisques systémiques découlant de biais dans les modèles utilisés[17],[18].

Choix de publications

[modifier |modifier le code]

Notes et références

[modifier |modifier le code]


  1. a etb(en) « Humanity's Future: Future of Humanity Institute », surOxford Martin School(consulté le)
  2. (en) « Staff », surFuture of Humanity Institute(consulté le).
  3. (en) EmanuelMaiberg ·, « Institute That Pioneered AI ‘Existential Risk’ Research Shuts Down », sur404 Media,(consulté le)
  4. (en)Site du Centre for Effective Altruism
  5. (en) « About FHI », surFuture of Humanity Institute(consulté le).
  6. a etb(en) Ross Andersen, « Omens », surAeon Magazine,(consulté le)
  7. (en) « Recherche sur Google News »,Google News,‎(lire en ligne, consulté le).
  8. (en) Nick Bostrom, « Achievements Report: 2008-2010 »,Future of Humanity Institute,‎(lire en ligne, consulté le).
  9. (en) Mark Piesing, « AI uprising: humans will be outsourced, not obliterated »,Wired,‎(lire en ligne, consulté le).
  10. (en) SeanCoughlan, « How are humans going to become extinct? »,BBC News,‎(lire en ligne, consulté le).
  11. (en) Nick Bostrom, « Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards » [« Risques existentiels : analyse de scénarios d'extinction de l'humanité et de risques associés »],Journal of Evolution and Technology,vol. 15,no 3,‎,p. 308-314(lire en ligne, consulté le).
  12. (en) Nick Bostrom, « Astronomical Waste: The Opportunity Cost of Delayed Technological Development »,Utilitas,vol. 15,no 3,‎,p. 308–314(DOI 10.1017/s0953820800004076,lire en ligne, consulté le).
  13. a etb(en) Ross Andersen, « We're Underestimating the Risk of Human Extinction »,The Atlantic,‎(lire en ligne, consulté le).
  14. (en) Nick Bostrom, « Information Hazards: A Typology of Potential Harms from Knowledge », surFuture of Humanity Institute(consulté le).
  15. (en) John Tierney, « Even if Life Is a Computer Simulation... »,The New York Times,‎(lire en ligne, consulté le)
  16. (en) Anders Sandberg and Nick Bostrom, « Whole Brain Emulation: A Roadmap », surFuture of Humanity Institute(consulté le)
  17. (en) « Amlin and Oxford University launch major research project into the Systemic Risk of Modelling », Amlin,(consulté le)
  18. (en) « Amlin and Oxford University to collaborate on modelling risk study »,Continuity, Insurance & Risk Magazine,‎(lire en ligne, consulté le)

Voir aussi

[modifier |modifier le code]

Liens externes

[modifier |modifier le code]
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Future_of_Humanity_Institute&oldid=218583368 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2026 Movatter.jp