Eliezer Shlomo Yudkowsky (né le11 septembre 1979 ) est unblogueur et écrivain américain, créateur et promoteur du concept d'intelligence artificielle « amicale » [ 1] .
Il doit en partie sa notoriété au succès de safanfiction Harry Potter et les Méthodes de la rationalité , inspirée de l'univers deHarry Potter , qui illustre des concepts venus dessciences cognitives et des théories de larationalité .
Eliezer Yudkowsky est né en 1979 dans une famillejuive orthodoxe . Il ne va pas au lycée et se forme enautodidacte [ 2] . Il a obtenu un score parfait de 1600 auSAT [ 3] , l'examen standardisé utilisé pour l'admission aux universités desÉtats-Unis , étant ainsi l'un des 300 étudiants avec un score parfait sur les 1,7 million qui passent l'examen chaque année. Il choisit ensuite de créer leSingularity Institute for Artificial Intelligence (aujourd'huiMachine Intelligence Research Institute ) et de commencer directement ses recherches en intelligence artificielle sans étudier à l'université.
Il habite près deBerkeley , dans larégion de la baie de San Francisco (San Francisco Bay Area ).
Yudkowsky se concentre sur larationalité et l'intelligence artificielle [ 1] , abordant des sujets tels que l'amélioration récursive (en) , lathéorie de la décision appliquée à des structures de motivation stables, et l'intelligence artificielle amicale [ 4] :420 . Ses travaux les plus récents portent sur les applications auparadoxe de Newcomb et à des problèmes analogues.
Yudkowsky a été, avecRobin Hanson , l'un des principaux contributeurs du blogOvercoming Bias [ 5] , lequel a reçu le parrainage duFuture of Humanity Institute de l'université d'Oxford . Enfévrier 2009 , il a aidé à fonderLessWrong [ 6] , un « blog collectif dédié à l'amélioration des outils de larationalité »[ 2] :37 .LessWrong a reçu une critique détaillée dansBusiness Insider [ 7] , et les concepts centraux en ont été analysés dans des articles duGuardian [ 8] , [ 9] . D'autre part,LessWrong a été mentionné dans des articles traitant de lasingularité technologique et des travaux duMachine Intelligence Research Institute [ 10] , ainsi que dans des articles sur des mouvements monarchistes et néo-réactionnaires en ligne[ 11] .
Yudkowsky contribue à deux chapitres[ 12] deGlobal Catastrophic Risks , un ouvrage publié parNick Bostrom (philosophe à l'université d'Oxford ) etMilan Ćirković [ 13] .
Yudkowsky a aussi écrit plusieurs ouvrages de science-fiction ainsi que des textes moins classables[ 14] . Sa vastefanfiction ,Harry Potter et les Méthodes de la rationalité , illustre des concepts venus dessciences cognitives et des théories de larationalité [ 2] :37 , [ 15] , [ 16] , [ 17] , [ 18] , [ 19] , [ 20] , [ 21] ;The New Yorker l'a décrite comme « une réécriture de l'histoire originale montrant Harry cherchant à expliquer la sorcellerie à l'aide de la méthode scientifique »[ 22] .
En mars 2023, Eliezer Yudkowsky signe une tribune dans leTime dans laquelle il appelle à la fermeture définitive des fermes d’élevage où les intelligences artificielles sont cultivées et entraînées[ 23] , [ 24] .
Le 17 février 2024, interrogé par leGardian qui le présente comme un « néo-luddite », Yudkowsky témoigne de son inquiétude que les développements de l'intelligence artificielle provoquent à très court terme la disparition de l'humanité, « Cela pourrait mettre deux ans, cela pourrait en mettre dix » affirme-t-il[ 23] , [ 25] .
↑a etb Dominique de Gramont,Le Christianisme est un transhumanisme , Paris, Les éditions du cerf,2017 , 365 p.(ISBN 978-2-204-11217-8 ) , chap. 1 (« A la recherche du transhumain ») ↑a b etc (en) Singularity Rising , par James Miller↑ DeclanMcCullagh , « Making HAL Your Pal »,Wired ,19 avril 2001 (ISSN 1059-1028 ,lire en ligne , consulté le16 mai 2019 ) ↑ (en) Ray Kurzweil ,The Singularity Is Near : When Humans Transcend Biology , New York, US,Viking Penguin ,2005 , 652 p.(ISBN 0-670-03384-7 ) ↑ (en) « Overcoming Bias: About »,Robin Hanson (consulté le1er février 2012 ) ↑ (en) « Where did Less Wrong come from? (LessWrong FAQ) »(consulté le11 septembre 2014 ) ↑ (en) JamesMiller , « You Can Learn How To Become More Rational »,Business Insider ,28 juillet 2011 (consulté le25 mars 2014 ) ↑ (en) Oliver Burkeman (en) , « This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten »,The Guardian ,8 juillet 2011 (consulté le25 mars 2014 ) ↑ (en) OliverBurkeman , « This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity? »,The Guardian ,9 mars 2012 (consulté le25 mars 2014 ) ↑ (en) NatashaTiku , « Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. »,BetaBeat ,25 juillet 2012 (consulté le25 mars 2014 ) ↑ (en) KlintFinley , « Geeks for Monarchy: The Rise of the Neoreactionaries »,TechCrunch ,22 novembre 2013 (consulté le25 mars 2014 ) ↑ (en) Cognitive Biases Potentially Affecting Judgment of Global Risks etArtificial Intelligence as a Positive and Negative Factor in Global Risk ↑ (en) NickBostrom et Milan M.Ćirković ,Global Catastrophic Risks , Oxford, UK,Oxford University Press ,2008 , 554 p.(ISBN 978-0-19-857050-9 ) ↑ (en) Liste de ses ouvrages non techniques ↑ (en) David Brin , « CONTRARY BRIN: A secret of college life... plus controversies and science! », Davidbrin.blogspot.com,21 juin 2010 (consulté le31 août 2012 ) ↑ (en) "'Harry Potter' and the Key to Immortality" , Daniel Snyder,The Atlantic ↑ (en) « Rachel Aaron interview (April 2012) », Fantasybookreview.co.uk,2 avril 2012 (consulté le31 août 2012 ) ↑ (en) « Civilian Reader: An Interview with Rachel Aaron », Civilian-reader.blogspot.com,4 mai 2011 (consulté le31 août 2012 ) ↑ (en) Robin Hanson , « Hyper-Rational Harry », Overcoming Bias,31 octobre 2010 (consulté le31 août 2012 ) ↑ (en) AaronSwartz , « The 2011 Review of Books (Aaron Swartz's Raw Thought) », archive.org(consulté le10 avril 2013 ) ↑ (en) « Harry Potter and the Methods of Rationality », Esr.ibiblio.org,6 juillet 2010 (consulté le31 août 2012 ) ↑ (en) "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire" ; article centré sur les activités dePeter Thiel , ami de Yudkowsky.↑a etb CharlineVergne , « L'IA pourrait terrasser l'humanité en deux ans seulement, alerte un expert », surGeo.fr ,21 février 2024 (consulté le22 février 2024 ) ↑ (en) « The Open Letter on AI Doesn't Go Far Enough », surTIME ,29 mars 2023 (consulté le22 février 2024 ) ↑ (en-GB) TomLamont , « ‘Humanity’s remaining timeline? It looks more like five years than 50’: meet the neo-luddites warning of an AI apocalypse »,The Guardian ,17 février 2024 (ISSN 0261-3077 ,lire en ligne , consulté le22 février 2024 ) Les textes suivants de Eliezer Yudkowsky ont été publiés (en anglais) par leMachine Intelligence Research Institute :
(en) Douglas Mulhall,Our Molecular Future : How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World ,2002 , p. 321 (en) Damien Broderick,The Spike : How Our Lives Are Being Transformed By Rapidly Advancing Technologies ,2001 , pp. 236, 265–272, 289, 321, 324, 326, 337–339, 345, 353, 370