Future of Life Institute (FLI) |
|---|
| Rechtsform | Gemeinnützige Organisation (501(c)(3) nonprofit) |
|---|
| Gründung | März 2014 |
|---|
| Gründer | Jaan Tallinn, Meia Chita-Tegmark,Max Tegmark, Anthony Aguirre |
|---|
| Sitz | Campbell, Vereinigte Staaten; Brüssel, Belgien |
|---|
|
| Zweck | Verringerung von existenziellen Risiken insbesondere der Risiken, die von fortgeschrittener künstlicher Intelligenz (KI) ausgehen |
|---|
|
| Vorsitz | Max Tegmark |
|---|
| Geschäftsführung | Anthony Aguirre |
|---|
|
| Umsatz | 549.531.672 US-Dollar(2021) |
|---|
|
| Website | Futureoflife.org |
|---|
DasFuture of Life Institute (FLI, Institut für die Zukunft des Lebens) ist eine unabhängige gemeinnützige Organisation mit Büros in Brüssel, Belgien und in Campbell, USA. Die Ziele vom FLI sind die Verringerung vonexistenziellen Risiken für die Menschheit, insbesondere von Risiken auskünstlicher Intelligenz (KI) sowie die Entwicklung positiver Zukunftsvisionen, welche durch transformative Technologie ermöglicht werden.[1][2] Die Arbeit des Instituts umfasst unter anderem die Vergabe von Fördermitteln, Bildungsarbeit und Interessenvertretung bei denVereinten Nationen, der Regierung derVereinigten Staaten und den Institutionen derEuropäischen Union.
Das Institut wurde im März 2014 vonMax Tegmark, Kosmologe amMIT,Jaan Tallinn, Mitbegründer von Skype, Viktoriya Krakovna, Forscherin bei DeepMind, Meia Chita-Tegmark, Postdoctoral Research Fellow an der Tufts University, undAnthony Aguirre, Physiker an der UCSC, gegründet.
Zu den Beratern des Instituts gehören unter anderem der InformatikerStuart Russell, der BiologeGeorge Church, der KosmologeSaul Perlmutter, der PhysikerFrank Wilczek, der UnternehmerElon Musk sowieAlan Alda undMorgan Freeman.[3][4][5]
Das Institut trägt aktiv zu globalen und regionalen Debatten über KI Politik bei.
In Europa hat sich das Institut beispielsweise erfolgreich dafür eingesetzt, dass Allzweck KI-Systeme wie GPT-4 in dieEU-Verordnung über künstliche Intelligenz aufgenommen werden.[6]
Auch in den USA setzt sich das Institut für Gesetze zur Regulierung von künstlicher Intelligenz ein.[7] Im Oktober 2023 lud der Mehrheitsführer im US-Senat,Chuck Schumer, das FLI dazu ein, seine Ansichten zur KI-Regulierung mit ausgewählten Senatoren zu teilen.[8]
Das Institut setzt sich zusammen mit anderen Organisationen aktiv für die Verbote von nicht einvernehmlichenDeepfakes[9][10] undtödlichen autonomen Waffen[11] ein. Obwohl Elon Musks KI-Bot "Grok" Deepfakes erstellt hat[12], ist er weiterhin Advisor[13]. In 2017 veröffentlichte das FLI zusammen mitStuart RussellSlaughterbots, ein Video, welches vor den Gefahren bewaffneter Drohnenschwärme warnt.[14][15][16][17]
2015 startete das Institut das erste peer-reviewte Zuschussprogramm, das sicherstellen sollte, dass künstliche Intelligenz (KI) sicher, ethisch vertretbar und nutzbringend bleibt. In der ersten Runde vergab FLI 6,5 Millionen US-Dollar an 37 Forscher.[18]
Das zweite Förderprogramm des Instituts zur Sicherheit von KI fand 2018 statt.[19] In den Jahren 2021, 2022 und 2023 richtete das FLI ein neues Stipendienprogramm für Doktoranden[20] und Postdoktoranden[21] ein, das von dem russisch-kanadischen ProgrammiererVitalik Buterin[22] finanziert wurde.
Das Förderprogramm von 2022 fokussierte sich auf Forschungsprojekte, welche das wissenschaftliche Verständnis der Folgen eines Atomkriegs zu vertiefen.[23]
Im Jahr 2024 veröffentlichte das Institut einen Aufruf zur Einreichung von Forschungsvorschlägen, welche analysieren, wie sich künstliche Intelligenz in naher Zukunft auf dieZiele für nachhaltige Entwicklung (SDGs) in Bezug auf Armut, Gesundheitsversorgung, Energie und Klimawandel auswirken wird.[24]
Im selben Jahr veröffentlichte das Institut einen weiteren Aufruf zur Einreichung von Forschungsvorschlägen mit dem Ziel, vertrauenswürdige Mechanismen oder Institutionen für eine globale Governance zu entwerfen, die dazu beitragen können, eine Zukunft mit keinem, einem oder mehreren Projektenallgemeiner künstlicher Intelligenz zu stabilisieren.[25]
Weiterhin stellte das Institut 2024 bis zu 4 Mio. USD zur Verfügung, um Projekte zur Verringerung der Gefahren der KI-gesteuerter Machtkonzentration zu unterstützen.[26]
Am 24. Mai 2014 veranstaltete das Institut am MIT eine Diskussion über die Zukunft der Technologie (The Future of Technology: Benefits and Risks), die vonAlan Alda[27][28] moderiert wurde. Die Teilnehmer warenGeorge Church (Biologe),Ting Wu (Genetiker),Andrew McAfee (Wirtschaftswissenschaftler),Frank Wilczek (Physiker) undJaan Tallinn.[29] Die Diskussion umfasste eine Vielzahl von Themen, von der Zukunft derBiotechnologie bis hin zurEthik der künstlichen Intelligenz und derSingularität.[30]
Vom 2. bis 5. Januar 2015 organisierte und veranstaltete das Institut die Konferenz „The Future of AI: Opportunities and Challenges“ (Die Zukunft der KI: Chancen und Herausforderungen), deren Ziel es war, die vielversprechendsten Forschungsrichtungen zu identifizieren, um die Vorteile der KI zu nutzen.[31][32] Während der Konferenz ließ das Institut einen offenen Brief über künstliche Intelligenz zirkulieren, der später vonStephen Hawking,Elon Musk und vielen anderen Experten unterzeichnet wurde, darunter 100 führende Persönlichkeiten aus der Welt der KI.[33]
2017 organisierte das Institut die Asilomar Conference on Beneficial AI in Kalifornien,[34] eine private Zusammenkunft, die von der New York Times als „die großen Namen der KI“ bezeichnet wurde (darunterYann LeCun,Elon Musk undNick Bostrom). Das Institut veröffentlichte eine Reihe von Grundsätzen für die verantwortungsvolle Entwicklung von KI, die aus den Diskussionen auf der Konferenz hervorgegangen waren und vonYoshua Bengio, Yann LeCun und vielen anderen KI-Forschern unterzeichnet wurden.[35]
2019 hat das Institut die Beneficial AGI Conference in Puerto Rico[36] abgehalten, mit dem Ziel, langfristige Fragen zu beantworten, um sicherzustellen, dass fortgeschrittene künstliche Intelligenz der Menschheit helfen wird.[37]
Der jährliche „Future of Life“-Preis ehrt Menschen, die zum Zeitpunkt ihrer Leistungen keine große Anerkennung genossen haben, aber signifikant dazu beigetragen haben, die Welt zu verbessern.[38]
Preise wurden verliehen an:
- 2017: Familie des verstorbenenVasili Arkhipov, weil er 1962 auf dem Höhepunkt der Kuba-Raketenkrise wahrscheinlich im Alleingang die Welt vor einem Atomkrieg bewahrt hat;[39]
- 2018: Familie des verstorbenenStanislas Petrov, dessen mutiges Urteil am 26. September 1983 wahrscheinlich einen Atomschlag während des Kalten Krieges verhindert hat, der einen offenen Atomkonflikt hätte auslösen können;[40]
- 2019:Matthew Meselson für seine Arbeit zurBiowaffenkonvention von 1972, ein internationales Verbot der Entwicklung, Herstellung und Lagerung bakteriologischer (biologischer) Waffen und Toxinwaffen, sowie zur die Vernichtung solcher Waffen;[41]
- 2020: Familie des verstorbenenWiktor Schdanow und anWilliam Foege für ihren Beitrag zur Ausrottung desPockenvirus;[42]
- 2021:Stephen Andersen,Susan Solomon und den inzwischen verstorbenenJoseph Farman für ihre wesentlichen Beiträge zumMontrealer Protokoll von 1987 zum Schutz derOzonschicht;[43]
- 2022:Jeannie Peterson,Paul Crutzen,John Birks,Richard Turco,Owen Toon,Carl Sagan,Georgiy Stenchikov undAlan Robock für die Verringerung des Risikos eines Atomkriegs durch die Entwicklung und Popularisierung der Wissenschaft desnuklearen Winters;[44]
- 2023:Nicholas Meyer,Edward Hume,Brandon Stoddard,Walter F. Parkes undLawrence Lasker für die Verringerung des Risikos einesAtomkriegs durch öffentlichkeitswirksame Filme.[45]
- 2024:Batya Friedman,James H. Moor undSteve Omohundro für ihre Forschung zu Computerethik und KI-Sicherheit und Anwendung dieser.[46]
2018 veröffentlichte das Institut einen Brief, in dem die Verabschiedung von „Gesetzen gegen tödliche autonome Waffen“ gefordert wurde. Zu den Unterzeichnern gehörtenElon Musk,Demis Hassabis,Shane Legg undMustafa Suleyman.[47]
Im März 2023 erschien ein offener Brief, in dem eine Pause bei der Entwicklung von KI-Systemen gefordert wurde, die leistungsfähiger als GPT-4 sind. Der Brief warnt vor ernsthaften Risiken für die Menschheit und wurde von über 33.000 Menschen unterzeichnet. Zu den Unterzeichnern zählen bekannte Namen aus Industrie und Forschung wieYoshua Bengio,Stuart Russell,Elon Musk,Steve Wozniak undYuval Noah Harari.[48][49][50]
2024 veröffentlichte Max Tegmark, Präsident des FLI, zusammen mitMary Robinson, Präsidentin der NGOGlobal Elders, einen Brief in Le Monde, in dem er die führenden Politiker der Welt dazu aufforderte, angesichts der existenziellen Bedrohungen dringend Maßnahmen zu ergreifen.[51][52][53]
- ↑Stephen Hawking, Max Tegmark, Stuart Russell: Transcending Complacency on Superintelligent Machines. Huffington Post, 19. April 2014, abgerufen am 26. Juni 2014 (englisch).
- ↑A new existential risk reduction organisation has launched in Cambridge, Massachusetts. In: cser.ac.uk. Abgerufen am 26. August 2024 (englisch).
- ↑But What Would the End of Humanity Mean for Me? The Atlantic, 9. Mai 2014, abgerufen am 11. Juni 2014 (englisch).
- ↑Who we are. Future of Life Institute, abgerufen am 11. Juni 2014 (englisch).
- ↑Our science-fiction apocalypse: Meet the scientists trying to predict the end of the world. In: salon.com. Abgerufen am 8. Oktober 2014 (englisch).
- ↑Tambiama Madiega: General-purpose artificial intelligence - At a Glance. In: europarl.europa.eu. European Parliamentary Research Service, 30. März 2023, abgerufen am 13. September 2024 (englisch).
- ↑How do you know when AI is powerful enough to be dangerous? Regulators try to do the math. 4. September 2024, abgerufen am 18. September 2024 (englisch).
- ↑Chuck Schumer, Mike Rounds, Martin Heinrich, Todd Young: Driving U.S. Innovation in Artificial Intelligence - A roadmap for artificial intelligence policy in the United States Senate. (PDF) Senate Majority Leader Chuck Schumer, Mai 2024, abgerufen am 13. September 2024 (englisch).
- ↑Bans on deepfakes take us only so far—here’s what we really need. In: technologyreview.com. Abgerufen am 13. September 2024 (englisch).
- ↑More Than 300 International Experts Release Open Letter Demanding Government Leaders Take Immediate Action to Combat Deepfake Threats. In: prnewswire.com. Abgerufen am 13. September 2024 (englisch).
- ↑David Hambling: ‘If Human, Kill’: Video Warns Of Need For Legal Controls On Killer Robots. In: forbes.com. Abgerufen am 18. September 2024 (englisch).
- ↑Nils Dampz: Chatbot Grok soll keine KI-Nacktbilder mehr erzeugen. Abgerufen am 16. Januar 2026.
- ↑Elon Musk. In: Future of Life Institute. Abgerufen am 16. Januar 2026 (amerikanisches Englisch).
- ↑Military robots are getting smaller and more capable. In:The Economist.ISSN 0013-0613 (economist.com [abgerufen am 18. September 2024]).
- ↑Will Knight:Autonomous Weapons Are Here, but the World Isn’t Ready for Them. In:Wired.ISSN 1059-1028 (wired.com [abgerufen am 18. September 2024]).
- ↑Ian Sample, Ian Sample Science editor:Ban on killer robots urgently needed, say scientists. In:The Guardian. 13. November 2017,ISSN 0261-3077 (theguardian.com [abgerufen am 18. September 2024]).
- ↑Watch ‘Slaughterbots,’ A Warning About the Future of Killer Bots. In: vice.com. 13. November 2017, abgerufen am 18. September 2024 (amerikanisches Englisch).
- ↑2015 AI Safety Grant Program. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑2018 AGI Safety Grant Program. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑PhD Fellowships. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Postdoctoral Fellowships. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Brendan Bordelon: The little-known AI group that got $660 million. Politico, 26. März 2024, abgerufen am 13. September 2024 (englisch).
- ↑Nuclear War Research. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Call for proposals evaluating the impact of AI on Poverty, Health, Energy and Climate SDGs. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Call for proposed designs for global institutions governing AI. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑How to mitigate AI-driven power concentration. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Angela Chen: Is Artificial Intelligence a Threat? The Chronicle of Higher Education, abgerufen am 11. September 2014.
- ↑Events work. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Future of Humanity Institute. In: fhi.ox.ac.uk. 20. Mai 2014, abgerufen am 26. August 2024 (britisches Englisch).
- ↑Top 23 One-Liners from a Panel Discussion that Gave Me a Crazy Idea. In: dianacrowscience.com. 29. Mai 2014, abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑AI safety conference in Puerto Rico. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Future of Humanity Institute. In: fhi.ox.ac.uk. 20. Januar 2015, abgerufen am 13. September 2024 (britisches Englisch).
- ↑Stuart Russell, Tom Dietterich, Eric Horvitz, Bart Selman, Francesca Rossi, Demis Hassabis, Shane Legg, Mustafa Suleyman, Dileep George, Scott Phoenix:Letter to the Editor: Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter. In:AI Magazine.Band 36,Nr. 4, 31. Dezember 2015,ISSN 2371-9621,S. 3–4,doi:10.1609/aimag.v36i4.2621 (aaai.org [abgerufen am 13. September 2024]).
- ↑Beneficial AI 2017. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Asilomar AI Principles. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Beneficial AGI 2019. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑CSER at the Beneficial AGI 2019 Conference. In: cser.ac.uk. Abgerufen am 26. August 2024 (englisch).
- ↑Future of Life Award. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Arkhipov Family awarded Future of Life Award. In: cser.ac.uk. Abgerufen am 13. September 2024 (englisch).
- ↑Future Of Life Award 2018. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Future Of Life Award 2019. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Future Of Life Award 2020. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Future Of Life Award 2021. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Professor Stenchikov honored with 2022 Future of Life Award for pioneering nuclear war research. In: kaust.edu.sa. Abgerufen am 13. September 2024 (englisch).
- ↑Future Of Life Award 2023. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑Future Of Life Award 2024. In: Future of Life Institute. Abgerufen am 3. Januar 2025 (amerikanisches Englisch).
- ↑Cameron Jenkins: AI Innovators Take Pledge Against Autonomous Killer Weapons. In: npr.org. 18. Juli 2018, abgerufen am 26. August 2024.
- ↑James Vincent: Elon Musk and top AI researchers call for pause on ‘giant AI experiments’. In: theverge.com. 29. März 2023, abgerufen am 13. September 2024 (englisch).
- ↑Cade Metz, Gregory Schmidt: Elon Musk and Others Call for Pause on A.I., Citing ‘Profound Risks to Society’. The New York Times, 29. März 2023, abgerufen am 18. September 2024 (englisch).
- ↑Alex Hern, Alex Hern UK technology editor:Elon Musk joins call for pause in creation of giant AI ‘digital minds’. In:The Guardian. 29. März 2023,ISSN 0261-3077 (theguardian.com [abgerufen am 18. September 2024]).
- ↑Rebecca Speare-Cole: Former world leaders join call for ‘long-view leadership’ of existential threats. The Independent, 15. Februar 2024, abgerufen am 13. September 2024 (englisch).
- ↑Beatrice Nolan: Richard Branson and Oppenheimer's grandson among those warning about future AI risks. In: businessinsider.com. Abgerufen am 13. September 2024 (amerikanisches Englisch).
- ↑'The climate crisis, pandemics, nuclear weapons and AI-related risks reveal a lack of vision in too many contemporary leaders'. 19. März 2024 (lemonde.fr [abgerufen am 18. September 2024]).