Versuch der Einordnung der Forschung an Methoden der KI und ihren Grundlagen[1]
Künstliche Intelligenz (KI),englischartificial intelligence, daher auchartifizielle Intelligenz (AI), bezeichnet im weitesten Sinne computerbasierte Systeme, die ihre (virtuelle oder reale) Umgebung analysieren können, um daraus relevanteInformationen zu abstrahieren, welche sie nutzen, um Entscheidungen zu treffen, die ihre Chance erhöhen, definierte Ziele zu erreichen. Damit unterscheiden sich KI-gestützte Systeme vonregelbasierten Systemen ohne Fähigkeit zur eigenständigen Anpassung ihres Verhaltens, die ausschließlich fest vorgegebene Anweisungen ausführen.
KI ist außerdem die Bezeichnung für das Teilgebiet derInformatik, das sich mit der Entwicklung und Erforschung von Software und Methoden befasst, die besagte Systeme hervorbringen. Die KI als Forschungsfeld befasst sich in diesem Zusammenhang beispielsweise mit derAutomatisierung intelligenten Verhaltens und demmaschinellen Lernen sowie der Formalisierung vonBewusstsein undKreativität. Der Begriff ist schwierig zu definieren, da es verschiedeneDefinitionen vonIntelligenz gibt.
Mit der Zeit haben sich viele Bereiche zu den Methoden der KI entwickelt. Weiterhin wird unterschieden, welche Probleme mit den Methoden der KI beschrieben werden. Dabei entstanden zwei Bereiche:schwache KI undstarke KI.
Hier lassen sich viele Kategorien bilden und der wissenschaftliche Diskurs ist noch nicht sehr weit in der Zuordnung von Themen zu den Arten der Probleme.
Versuchsweise wird Intelligenz definiert als die Eigenschaft, die ein Wesen befähigt, angemessen und vorausschauend in seiner Umgebung zu agieren. Dazu gehören die Fähigkeiten
Umgebungsdaten wahrzunehmen, d. h. auf Stimuli zu reagieren
Informationen
aufzunehmen,
zu verarbeiten und
als Wissen zu speichern,
Sprache
zu verstehen und
zu erzeugen,
Probleme zu lösen und zu handeln
Ziele zu definieren, zu erreichen und zu modifizieren
Autonom Entscheidungen zu treffen.
Praktische Erfolge der KI werden schnell in die Anwendungsbereiche integriert und werden dann von vielen nicht mehr als KI angesehen, auch wenn sie deren Definition erfüllen.[2] Dieses Phänomen wird auch als „AI effect“ bezeichnet.[2]
Der Begriffartificial intelligence (künstliche Intelligenz) wurde 1955 geprägt von dem US-amerikanischen InformatikerJohn McCarthy im Rahmen eines Förderantrags an dieRockefeller-Stiftung für dasDartmouth Summer Research Project on Artificial Intelligence, einem Forschungsprojekt, bei dem sich im Sommer 1956 eine Gruppe von zehn Wissenschaftlern über ca. acht Wochen mit der Thematik befasste.[3][4]
Es existieren zahlreiche Definitionen für den Begriff der KI. Je nach Sichtweise wird die künstliche Intelligenz in Industrie, Forschung und Politik entweder über die zu erzielenden Anwendungen oder den Blick auf die wissenschaftlichen Grundlagen definiert:
„Künstliche Intelligenz ist die Eigenschaft eines IT-Systems, ‚menschenähnliche‘, intelligente Verhaltensweisen zu zeigen.“
–Bitkom e. V. und Deutsches Forschungszentrum für Künstliche Intelligenz[5]
„Die künstliche Intelligenz [...] ist ein Teilgebiet der Informatik, welches sich mit der Erforschung von Mechanismen des intelligenten menschlichen Verhaltens befasst [...].“
–Spektrum der Wissenschaft, Lexikon der Neurowissenschaften[4]
„Unter künstlicher Intelligenz (KI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“
DieKI-Verordnung derEU definiert in Artikel 3 (Begriffsbestimmungen) ein „KI-System“ wie folgt:
„Für die Zwecke dieser Verordnung bezeichnet der Ausdruck […] ‚KI-System‘ ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“[9]
Diese Definition wird im Erwägungsgrund 12 etwas allgemeinverständlicher eingeordnet.[9]
Um ein System im Alltag konkret als „KI“ oder „nicht KI“ einordnen zu können, ist in vielen Unternehmen eine Annäherung über möglichst konkrete und verständliche Kriterien notwendig. Diese werden z. B. von IT- undCompliance-Stakeholdern erarbeitet, stehen im Kontext vorhandener Informationssicherheits-, Compliance- und/oder Risikomanagement-Systeme und orientieren sich - Stand Dezember 2024 - beispielsweise an folgenden Definitionen:
Ein System wird als „KI-System“ eingestuft, wenn es mindestens eineKomponente enthält, deren Ausgaben auf Verarbeitungs- bzw. Entscheidungsmustern beruhen, die es zuvor in einer Lernphase auf Basis großer Datenmengen selbst generiert hat.
Ebenfalls als eindeutiges Merkmal gilt, dass die Ausgabe eines KI-Systems zu einer spezifischen Eingabe nicht alleine überProgrammierung,Konfiguration undParametrisierung vorhergesagt werden kann, sondern bestenfalls auf Basis der Daten, mit denen das System angelernt wurde. Hier liegt einrisikobasierter Ansatz zugrunde, da die KI-Komponente alsBlack Box eingestuft wird, deren innere Funktionsweise nicht transparent ist. (Vgl.Black-Box-Test)
Diese Annäherungen können sowohl auf generative als auch auf prädiktive KI angewendet werden.
Ein Non-KI-System, in dessen Algorithmen ein zuvor woanders erlerntes KI-Verarbeitungsmuster integriert ist, wird aufgrund der Risiken, die sich aus der o. g. Intransparenz ergeben, derzeit meist ebenfalls als KI-System eingeordnet. Dies betrifft beispielsweise die Mehrfachverwendung eines allgemeinenLLM-Modells in unterschiedlichen fachlichen Kontexten. (Stand Dezember 2024)
Der Vorteil der vorgenannten Annäherungen liegt darin, dass sie die Unschärfen des „Intelligenz“-Begriffs sowie Interpretationsspielräume der o. g. EU-Verordnung vermeiden, indem ausschließlich bekannte technische Aspekte der in Frage kommenden Systeme zugrunde gelegt werden: Für jedenQuellcode (White Box) kann eine eindeutige Aussage abgeleitet werden, ob eine Lernfähigkeit (z. B. nach Art der unten aufgeführten Methoden) eingebaut ist oder nicht. Ist der Quellcode nicht einsehbar, kann der Hersteller/Programmierer konsultiert werden.
Unterscheidungsbeispiel:
EinNavigationssystem ist ein KI-System, wenn es anhand von Daten zu einerTeilmenge aller möglichen Fahrten „angelernt“ wurde, fürjede mögliche Fahrt die schnellste Route zu finden.
Ein Navigationssystem ist kein KI-System, wenn es die schnellste Route aufgrund unveränderlicher*, mindestens dem Hersteller/Programmierer bekannter Algorithmen und einer zuvor nach ebenso bekannten Regeln optimierten, unveränderlichen* Datenbank ermittelt. (*unveränderlich mit Ausnahme herkömmlicherUpdates, z. B. für Sicherheit, Effizienzverbesserungen, neue Funktionen und Kartenaktualisierungen)
Im vorgenannten Beispiel liegt der Fokus auf der Routenfindung. Eine ggf. vorgeschaltete Sprachsteuerung wäre separat zu betrachten.
Der Diskurs über KI ist stark von einer metaphorischen Sprache geprägt[10][11][12]. Begriffe wiekünstliche Intelligenz undmaschinelles Lernen sind selbstanthropomorpheMetaphern, die auf die menschliche Kognition anspielen.
Eine weitere gängige Metapher ist dieBlack Box, die die Intransparenz vieler KI-Systeme beschreibt[13]. Im wissenschaftlichen Diskurs werden große Sprachmodelle auch alsstochastische Papageien bezeichnet, um darauf hinzuweisen, dass sie Texte erzeugen, ohne den Inhalt wirklich zu verstehen[14]. Der Autor Ted Chiang vergleichtgroße Sprachmodelle mit einem unscharfenJPEG aus dem Netz, um Kompressionsmechanismen zu veranschaulichen[15].
Anthropomorphe Metaphern sind umstritten, da sie ein übertriebenes oder verzerrtes Bild von KI-Systemen vermitteln können.[16][17] Alternativ diskutieren Forscher und Journalisten Metaphern wie KI als Werkzeuge,[18] Spiegel,[19] Tiere, Organismen oder Naturphänomene.[20]Die Wahl einer Metapher beeinflusst nicht nur das öffentliche Verständnis von KI[21], sondern spielt auch eine Rolle in der Gesetzgebung[22], Regulierung[23] und wissenschaftlichen Forschung[24].
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mitBelegen (beispielsweiseEinzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst undgute Belege einfügst.
Starke KI wärenkognitive Systeme, die auf Augenhöhe mit Menschen dieArbeit zur Erledigung schwieriger Aufgaben übernehmen können. Demgegenüber geht es beischwacher KI darum, konkrete Anwendungsprobleme zu meistern. Das menschliche Denken und technische Anwendungen sollen hier in Einzelbereichen unterstützt werden.[25]
Die Fähigkeit zu lernen ist eine Hauptanforderung an KI-Systeme und muss ein integraler Bestandteil sein, dernicht erst nachträglich hinzugefügt werden darf. Ein zweites Hauptkriterium ist die Fähigkeit eines KI-Systems, mit Unsicherheiten undWahrscheinlichkeiten (sowie mitprobabilistischen Informationen) umzugehen.[26]
Insbesondere sind solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig zu sein scheint.[27]
Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung vonBewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die Frage nach der prinzipiellen Machbarkeit starker KI bis heute offen ist, sind bei derschwachen KI in den letzten Jahren bedeutende Fortschritte erzielt worden.
Unterscheidung der wissenschaftlichen Fragestellungen in die Bereiche „starke KI“ und „schwache KI“
Unterschieden wird nach den Fragestellungen, die untersucht werden, nicht nach den verwendeten Methoden. Schwache KI ist stark in der Anwendung, erlaubt eineMonetarisierung und prägt das gesellschaftliche Verständnis. Beispiele sind die Fehlererkennung in Geweben, dieWettervorhersage, das automatisierteNetzwerkmanagement odergroße Sprachmodelle.Starke KI befasst sich mit Grundsatzfragen wie der Beschreibung vonBewusstsein, der Repräsentation und Aktualisierung vonWissen (z. B. dem Umgang mit Widersprüchen) oder der Frage, was erforderlich ist, umIntelligenz nachzuweisen. Die beiden Bereiche lassen sich nicht scharf trennen. Methoden zur Problemanalyse können je nach Interpretation beiden Klassen zugeordnet werden. Mitunter wird die Frage, ob und wie eineKünstliche allgemeine Intelligenz oder eineSuperintelligenz erzeugt werden kann, der starken KI zugeordnet.
Die philosophische Interpretation dieser Unterteilung umfasst zwei Auffassungen: Schwache KI kann handeln (etwa autonomes Fahren), jedoch ohne Bewusstsein; Vertreter der starken KI hingegen halten ein künstliches Bewusstsein für möglich. Welche Auffassung zutrifft, ist weiterhin ungeklärt.
Ein starkes KI-System muss nicht viel mit dem Menschen gemeinsam haben. Es wird wahrscheinlich eine andersartige kognitive Architektur aufweisen und auch in seinen Entwicklungsstadien nicht mit den evolutionären kognitiven Stadien des menschlichen Denkens vergleichbar sein (Evolution des Denkens). Vor allem ist nicht anzunehmen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt.[28]
Beikünstlichen neuronalen Netzen handelt es sich um Techniken, die ab Mitte des 20. Jahrhunderts entwickelt wurden und auf derNeurophysiologie aufbauen.KI stellt somit kein geschlossenes Forschungsgebiet dar. Vielmehr werden Techniken aus verschiedenen Disziplinen verwendet, ohne dass diese eine Verbindung miteinander haben müssen.
Zur Forschungsrichtungkünstliches Leben bestehen enge Beziehungen. Das Fernziel der KI ist die alsstarke KI oder künstliche allgemeine Intelligenz bezeichnete Fähigkeit eines intelligenten Agenten, jede intellektuelle Aufgabe zu verstehen oder zu erlernen, die der Mensch oder ein anderes Lebewesen bewältigen kann.
Wissensbasierte Systeme modellieren eine Form rationaler Intelligenz für sogenannteExpertensysteme. Diese sind in der Lage, auf eine Frage des Anwenders auf Grundlage formalisierten Fachwissens und daraus gezogenerlogischer Schlüsse Antworten zu liefern. Beispielhafte Anwendungen finden sich in der Diagnose von Krankheiten oder der Suche und Beseitigung von Fehlern in technischen Systemen.
Beispiele für wissensbasierte Systeme sindCyc undWatson.
Visuelle Intelligenz ermöglicht es, Bilder bzw. Formen zuerkennen und zuanalysieren. Als Anwendungsbeispiele seien hierHandschrifterkennung, Identifikation von Personen durchGesichtserkennung, Abgleich derFingerabdrücke oder derIris, industrielle Qualitätskontrolle und Fertigungsautomation (letzteres in Kombination mit Erkenntnissen der Robotik) genannt.
Mittelssprachlicher Intelligenz ist es beispielsweise möglich, einen geschriebenen Text in gesprochene Sprache umzuwandeln (Sprachsynthese) und umgekehrt einen gesprochenen Text zu verschriftlichen (Spracherkennung). Diese automatische Sprachverarbeitung kann erweitert werden, so dass etwa durchlatente semantische Analyse (kurzLSI) Wörtern und Texten Bedeutung beigemessen werden kann.
Beispiele für Systeme zur Mustererkennung sindGoogle Brain undMicrosoft Adam.[29]
Solche Systeme haben den Vorteil, dass sie z. B. nicht nur ein bestimmtes Objekt in einem Einzelbild erkennen (Mustererkennung), sondern aus einer Serie von Bildern vorhersagen können, wo sich das Objekt als Nächstes befinden wird.
Die Robotik beschäftigt sich mit manipulativer Intelligenz. Mit Hilfe vonRobotern können unter anderem gefährliche Tätigkeiten wie etwa dieMinensuche oder auch immer gleiche Manipulationen, wie sie beim Schweißen oder Lackieren auftreten können, automatisiert werden.
Der Grundgedanke ist es, Systeme zu schaffen, die intelligente Verhaltensweisen von Lebewesen nachvollziehen können. Beispiele für derartige Roboter sindASIMO undAtlas.
KI überlappt sich mit der Disziplin künstliches Leben (Artificial life, AL),[31] und wird als übergeordnete oder auch als eine Subdisziplin gesehen.[32] AL muss deren Erkenntnisse integrieren, daKognition eine Kerneigenschaft von natürlichem Leben ist, nicht nur des Menschen.
Das junge Forschungsfeld desAI-Alignment (zu deutsch KI-Ausrichtung) beschäftigt sich mit der Ausrichtung von KI nach menschlichen Werten und Normen. Unabhängig von der Frage, ob die jeweilige KI über eine Form von Bewusstsein verfügt, verhält sich jede KI entsprechend ihrem Training. Unter anderem durch Fehler oder Lücken im Training kann einer KI leicht Verhalten antrainiert werden, das nicht mit menschlichen Werten vereinbar ist.[26] Die Forschung versucht herauszufinden, wie und ob ethisches Verhalten in KI sichergestellt werden kann, um Probleme wie im Einsatz von KI in Krankenhäusern und Gerichtssälen zu verhindern, aber auch, um die Risiken durch weit fortgeschrittene KI wie im Falle vontechnologischer Singularität, zu minimieren.[28]
Die Methoden der KI lassen sich grob in zwei Dimensionen einordnen: symbolische vs. neuronale KI und Simulationsmethode vs. phänomenologische Methode. Die Zusammenhänge veranschaulicht die folgende Grafik:
Die Neuronale KI verfolgt einenBottom-up-Ansatz und möchte das menschliche Gehirn möglichst präzise nachbilden. Die symbolische KI verfolgt umgekehrt einenTop-down-Ansatz und nähert sich den Intelligenzleistungen von einer begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt es demphänomenologischen Ansatz nur auf das Ergebnis an.
Die KI beschäftigt sich häufig mit Problemen, bei denen nach bestimmten Lösungen gesucht wird. VerschiedeneSuchalgorithmen werden dabei eingesetzt. Ein Paradebeispiel für die Suche ist der Vorgang derWegfindung, der in vielen Computerspielen eine zentrale Rolle einnimmt und auf Suchalgorithmen wie demA*-Algorithmus basiert.
Neben dem Suchen von Lösungen stellt das Planen einen wichtigen Aspekt der KI dar. Der Vorgang des Planens unterteilt sich dabei in zwei Phasen:
DieZielformulierung: Ausgehend vom momentanen Umgebungs- bzw. Weltzustand wird ein Ziel definiert. Ein Ziel ist hierbei eineMenge von Weltzuständen, bei der ein bestimmtes Zielprädikat erfüllt ist.
DieProblemformulierung: Nachdem bekannt ist, welche Ziele angestrebt werden sollen, wird in der Problemformulierung festgelegt, welche Aktionen und Weltzustände betrachtet werden sollen. Es existieren hierbei verschiedeneProblemtypen.
Planungssysteme planen und erstellen aus solchen Problembeschreibungen Aktionsfolgen, dieAgentensysteme ausführen können, um ihre Ziele zu erreichen.
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mitBelegen (beispielsweiseEinzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst undgute Belege einfügst.
Eine Fragestellung der KI ist die Erstellung vonWissensrepräsentationen,die dann für automatischeslogisches Schließen benutzt werden können. MenschlichesWissen wird dabei – soweit möglich – formalisiert, um es in eine maschinenlesbare Form zu bringen. Diesem Ziel haben sich die Entwickler diverserOntologien verschrieben.
Schon früh beschäftigte sich die KI damit, automatischeBeweissysteme zu konstruieren, die Mathematikern und Informatikern beim Beweisen von Sätzen und beim Programmieren (Logikprogrammierung) behilflich wären. Zwei Schwierigkeiten zeichneten sich ab:
Formuliert man Sätze in den natürlicher Sprache nahen, relativ bequemen Beschreibungssprachen, werden die entstehenden Suchprobleme allzu aufwändig. In der Praxis mussten Kompromisse geschlossen werden, bei denen die Beschreibungssprache für den Benutzer etwas umständlicher, die zugehörigen Optimierungsprobleme für den Rechner dafür jedoch einfacher zu handhaben waren (Prolog,Expertensysteme).
Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht, unsicheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme kann dies eine ernste Einschränkung sein. Die aktuelle Forschung untersucht daher Systeme, die die Regeln derWahrscheinlichkeitsrechnung anwenden, um Unwissen und Unsicherheit explizit zu modellieren. Algorithmisch unterscheiden sich diese Methoden von den älteren Verfahren: nebenSymbolen werden auchWahrscheinlichkeitsverteilungen manipuliert.
Eine andere Form des logischen Schließens stellt die Induktion dar (Induktionsschluss,Induktionslogik), in der Beispiele zu Regeln verallgemeinert werden (maschinelles Lernen). Auch hier spielen Art und Mächtigkeit derWissensrepräsentation eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und subsymbolischen Systemen wie neuronalen Netzen, denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben.
In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine Regel abzuleiten (maschinelles Lernen). Mathematisch führt dies zu einemApproximationsproblem. Im Kontext der KI wurden hierzu unter anderem künstliche neuronale Netze vorgeschlagen, die als universale Funktionsapproximatoren eingesetzt werden können, jedoch insbesondere bei vielen verdeckten Schichten schwer zu analysieren sind. Manchmal verwendet man deshalb alternative Verfahren, die mathematisch einfacher zu analysieren sind.
Künstliche Intelligenz hat das Potenzial für eine Vielzahl von Verwendungen inForschung,Wirtschaft und imKonsumbereich. Sie stellt zudem die zentrale Technologie derIndustrie 5.0 dar. Noch im Jahr 2025 gab es Stimmen, die der Auffassung waren, dass Künstliche Intelligenz trotz ihres Nutzens in einzelnen Anwendungsbereichen der Gesellschaft insgesamt bislang keinen erkennbaren Beitrag zur Produktivitätssteigerung geleistet habe.[33][34] Absehbar und teils realisiert waren zu diesem Zeitpunkt Nutzungen in den Bereichen Mobilität und Logistik, der Landwirtschaft,[35] Gesundheit[36][37] und zur Optimierung derEnergieeffizienz.[34]
Um ein Kriterium zu haben, wann eine Maschine eine dem Menschen gleichwertigeIntelligenz simuliert, wurde vonAlan Turing der nach ihm benannte Turing-Test vorgeschlagen: Dazu stellt ein Mensch per Terminal (Bildschirm und Tastatur, oder auch Lautsprecher und Mikrofon) beliebige Fragen, ohne dabei zu wissen, ob diese von einem anderen Menschen oder einer Maschine beantwortet werden. Der Fragesteller muss danach entscheiden, ob es sich beim Interviewpartner um eine Maschine oder einen Menschen handelte. Ist die Maschine nicht von einem Menschen zu unterscheiden, so ist sie laut Turing intelligent.[38] Bisher konnte keine Maschine den Turing-Test zweifelsfrei bestehen. Seit 1991 existiert derLoebner-Preis für den Turing-Test.
Grob wird unter der technologischen Singularität der hypothetische Zeitpunkt verstanden, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft. Ab diesem Zeitpunkt wird die weitere technologische Entwicklung hauptsächlich von KI vorangetrieben und nicht mehr vom Menschen.
In denNeurowissenschaften ist es eine Grundannahme, dassBewusstseinsprozesse mit neuronalen Prozessen des Gehirns korrelieren (sieheNeuronales Korrelat des Bewusstseins). NachJürgen Schmidhuber ist Bewusstsein nur ein Nebenprodukt des Problemlösens des Gehirns. So sei auch bei künstlichen Problemlösern (z. B.autonomen mobilen Robotern) von Vorteil, wenn diese sich ihrer selbst und ihrer Umgebung „bewusst“ seien.Schmidhuber bezieht sich bei „Bewusstsein“ im Kontext autonomer Roboter auf ein digitales Weltmodell inklusive des Systems selbst, nicht jedoch aufsubjektive Erlebnisqualitäten von Zuständen. Ein Weltmodell könnte im Kontext vonReinforcement Learning dadurch erlernt werden, dass Aktionen belohnt werden, die das Weltmodell erweitern.[39]
Solche Überlegungen sind jedoch hoch spekulativ, da weder eine allgemein akzeptierte Definition, geschweige denn eine anerkannte Theorie von Bewusstsein existiert. Wenn Bewusstsein eineemergente Eigenschaft des Informationsverarbeitens ist, wäre es möglich, dass KI Bewusstsein erlangt. Da die meisten Definitionen jedoch ein „inneres Erleben“ derWahrnehmung mit Bewusstsein verbinden, das beim Menschen zu komplexenWeltanschauungen führt, gibt es bislang keine empirischen Belege dafür, dass KI-Systeme über etwas Ähnliches verfügen. Ihre „Intelligenz“ ist rein funktional und instrumental. Im Gegensatz zum menschlichen Gehirn basieren aktuelle KI-Systeme auf Algorithmen, neuronalen Netzen und statistischen Modellen. Sie verarbeiten Daten nach mathematischen Regeln ohne echteKreativität oderPhantasie. Andererseits lassen sich innere Zustände nicht beweisen, sodass es keine verlässliche Antwort geben kann.
Die Interpretation menschlicher Sprache durch Maschinen besitzt bei der KI-Forschung eine entscheidende Rolle. So ergeben sich etwaige Ergebnisse desTuring-Tests vor allem in Dialogsituationen, die bewältigt werden müssen.
Die Sprachwissenschaft liefert mit ihrenGrammatikmodellen und psycholinguistischen Semantikmodellen wie derMerkmals- oder derPrototypensemantik Grundlagen für das maschinelle „Verstehen“ komplexer natürlichsprachlicher Phrasen. Zentral ist die Frage, wie Sprachzeichen eine tatsächlicheBedeutung für eine künstliche Intelligenz haben können.[40]DasChinese-Room-Argument des PhilosophenJohn Searle sollte indes zeigen, dass es selbst dann möglich wäre, denTuring-Test zu bestehen, wenn den verwendeten Sprachzeichen dabei keinerlei Bedeutung beigemessen wird. Insbesondere Ergebnisse aus dem BereichEmbodiment betonen zudem die Relevanz von solchen Erfahrungen, die auf der Verkörperung eines Agenten beruhen sowie dessen Einbindung in eine sinnvolle Umgebung für jede Form von Kognition, also auch zur Konstruktion von Bedeutung durch eine Intelligenz.
Eine Schnittstelle zwischen der Linguistik und der Informatik bildet dieComputerlinguistik, die sich unter anderem mit maschineller Sprachverarbeitung und künstlicher Intelligenz beschäftigt.
In der Psychotherapieforschung existieren seit geraumer Zeit experimentelle Anwendungen der künstlichen Intelligenz, um Defizite und Engpässe in der psychotherapeutischen Versorgung zu überbrücken und Kosten zu sparen.[41]
Diephilosophischen Aspekte der KI-Problematik gehören zu den weitreichendsten der gesamten Informatik.
Die Antworten, die auf die zentralen Fragen dieses Bereiches gegeben werden, reichen weit inontologische underkenntnistheoretische Themen hinein, die das Denken des Menschen schon seit den Anfängen der Philosophie beschäftigen. Wer solche Antworten gibt, muss die Konsequenzen daraus auch für den Menschen und sich selbst ziehen. Nicht selten möchte man umgekehrt vorgehen und die Antworten, die man vor der Entwicklung künstlicher Intelligenz gefunden hat, auf diese übertragen. Doch wie sich zeigte, hat die künstliche Intelligenz zahlreiche Forscher dazu veranlasst, Probleme wie das Verhältnis zwischenMaterie undGeist, die Ursprünge des Bewusstseins, die Grenzen der Erkenntnis, das Problem derEmergenz, die Möglichkeit außermenschlicher Intelligenz usw. in einem neuen Licht zu betrachten und zum Teil neu zu bewerten.
Eine demmetaphysischen bzw. auch idealistischen Denken verpflichtete Sichtweise hält es (im Sinn einer schwachen KI) für unmöglich, dass Maschinen jemals mehr als nur simuliertes Bewusstsein mit wirklicher Erkenntnis und Freiheit besitzen könnten. Aus ontologischer Sicht kritisiert der amerikanische PhilosophHubert Dreyfus die Auffassung der starken KI. Aufbauend auf der vonMartin Heidegger in dessen WerkSein und Zeit entwickelten Ontologie der „Weltlichkeit der Welt“ versucht Dreyfus zu zeigen, dass hinter das Phänomen der Welt als sinnhafte Bedeutungsganzheit nicht zurückgegangen werden kann: Sinn, d. h. Beziehungen der Dinge in der Welt aufeinander, sei ein Emergenzphänomen, denn es gibt nicht „etwas Sinn“ und dann „mehr Sinn“. Damit erweist sich jedoch auch die Aufgabe, die sinnhaften Beziehungen zwischen den Dingen der Welt in einen Computer einzuprogrammieren, als eigentlich unmögliches bzw. unendliches Vorhaben. Dies deshalb, weil Sinn nicht durch Addition von zunächst sinnlosen Elementen hergestellt werden kann.[42]
Eine evolutionär-progressive Denkrichtung sieht es hingegen (im Sinn einer starken KI) als möglich an, dass Systeme der künstlichen Intelligenz einmal den Menschen in dem übertreffen könnten, was derzeit noch als spezifisch menschlich gilt. Dies birgt zum einen die Gefahr, dass solche KI-Maschinen sich gegen die Interessen der Menschen wenden könnten. Andererseits birgt diese Technologie die Chance, Probleme zu lösen, deren Lösung dem Menschen wegen seiner limitierten Kapazitäten schwerfällt (siehe auchtechnologische Singularität).
DieEthik der künstlichen Intelligenz erforscht ethische Normen für Entwurf, Herstellung, Testung, Zertifizierung und den Einsatz künstlich intelligenter Systeme und fragt nach Prinzipien für das ethische Verhalten von KI-Systemen. Intensiv untersuchte Themen sind dabei ethische Fragen desautonomen Fahrens undautonomer Waffensysteme sowie die Probleme und Realisierungsmöglichkeiten künstlicher moralischer Agenten.[43][44]
Rechtsphilosophie undRoboterethik gehen der Frage nach, ob eine KI für ihr gesetzwidriges Handeln oder Fehlverhalten verantwortlich gemacht werden kann (z. B. bei einem Autounfall durch ein autonomes Fahrzeug) und wer dafür haftet.[45]
Der russisch-amerikanische Biochemiker und SachbuchautorIsaac Asimov beschreibt in seinen dreiRobotergesetzen die Voraussetzungen für ein friedliches und unterstützendes Zusammenleben zwischen KI und Mensch. Diese Gesetze wurden später von anderen Autoren erweitert.
BeiKarl Marx finden sich im sogenanntenMaschinenfragment, einem Teil derGrundrisse (1857–58), Überlegungen zur Ersetzung menschlicher Arbeitskraft durch Maschinen, die sich auch auf Maschinen mit künstlicher Intelligenz anwenden lassen.[46]
Zu den zentralen Fragen beim KI-Einsatz gehören die Aufteilung rechtlicher Verpflichtungen zwischen Staaten und Unternehmen sowie die Implikationen der Menschenrechte im Hinblick auf den Einsatz von KI in bestimmten Anwendungsbereichen, z. B. bei der Gesichtserkennung oder Erleichterung der Entscheidungsfindung von Gerichten. Auch wird das Ausmaß der technologischen Zusammenarbeit im Bereich der KI mit Staaten, die sich nicht an menschenrechtliche Grundstandards halten, aus wirtschaftsethischer und völkerrechtlicher Perspektive diskutiert.[47][48]
KI kann dazu genutzt werden, mehrNachhaltigkeit zu erreichen. Eine vomFraunhofer-Institut für Produktionstechnik und Automatisierung und demFraunhofer-Institut für Arbeitswirtschaft und Organisation in Auftrag gegebene Studie sieht hierbei große Potenziale für produzierende Unternehmen. Der Einsatz von KI könne zu effizienteren Produktionsprozessen führen und Ressourcen schonen.[49] Das UnternehmenBosch gab 2023 an, durch den Einsatz von generativer KI in einem türkischen Werk den Wasserverbrauch, denAusschuss sowie den Energiebedarf verringert zu haben. Gleichzeitig sei die Anlageneffektivität um ca. zehn Prozent angestiegen.[50]
In der Forschung wird allerdings angemahnt, nicht nur auf Nachhaltigkeitdurch KI, sondern auchvon KI zu achten.[51] So lässt sich etwa ein massiv ansteigender Energieverbrauch durch KI und ein damit verbundener erhöhter Ausstoß desTreibhausgasesKohlenstoffdioxid beobachten.[52] DieSupercomputer, die die Nutzung von KI ermöglichen, haben einen überaus hohen Strombedarf. So verbraucht eine ChatGPT-Anfrage zehn- bis zwanzigmal so viel elektrische Energie wie eine herkömmliche Google-Suche.[53] DieInternationale Energieagentur (IEA) schätzte im Januar 2024, dass sich der weltweite Stromverbrauch durchRechenzentren, die diese Supercomputer beherbergen, bis 2026 im Vergleich zu 2022 verdoppeln könnte. Der zusätzliche Stromverbrauch würde dabei dem von ganzJapan entsprechen.[54] Der enorme Stromverbrauch von KI ist somit für einen Anstieg der Nutzungfossiler Brennstoffe mitverantwortlich und könnte weltweit die Schließung veralteter Kohlekraftwerke verzögern. Der prognostizierte Stromverbrauch ist so immens, dass die Sorge besteht, dass er die Maßnahmen gegen den menschengemachtenKlimawandel negativ beeinflussen könnte.[55]
Darüber hinaus benötigen Supercomputer große Mengen an Kühlwasser. Allein das Training vonGPT-3 soll schätzungsweise 5,4 Millionen Liter Trinkwasser verbraucht haben. Für 10–50 mittellange Antworten auf Anfragen von Nutzenden benötigt ChatGPT außerdem etwa das Äquivalent von einer Flasche Wasser.[56] Genaue Zahlen zum Energie- und Wasserverbrauch durch KI fehlen aber zumeist, da Unternehmen nicht verpflichtet sind, diese offenzulegen.
Eine Studie, die sich mit dem Nutzen von KI für dieZiele für nachhaltige Entwicklung beschäftigte, kommt zu dem Schluss, dass bei 79 % von diesen die Nutzung von KI einen positiven Effekt haben könnte. Gleichzeitig könnten auch bei 35 % der Ziele negative Auswirkungen aus dem Einsatz von KI resultieren.[57]Der Informatiker Rainer Rehak warnte in einem Interview mit dertaz allerdings davor, Klimaziele allein durch die Nutzung von KI erreichen zu wollen. Maßnahmen, die mit einer grundsätzlichen Neuorientierung z. B. bei der Stadtentwicklung einhergehen, könnten gegebenenfalls deutlich besser zur Verhinderung von Treibhausgasemissionen beitragen.[58]
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mitBelegen (beispielsweiseEinzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst undgute Belege einfügst.
Diekünstliche Intelligenz ist mit den anderen Disziplinen der Informatik eng verzahnt. Eine Abgrenzung kann anhand der erzielten Ergebnisse versucht werden. Hierzu scheint es sinnvoll, verschiedene Dimensionen von Intelligenz zu unterscheiden:
Die Fähigkeit zur Verarbeitung beliebigerSymbole (nicht nur Zahlen).
Der Aufbau eines inneren Modells der äußeren Welt, eines Selbstmodells, sowie der Beziehung von Selbst und Welt.
Die Fähigkeit zu einer zweckentsprechenden Anwendung des Wissens.
Die Fähigkeit, die im gespeicherten Wissen enthaltenen Zusammenhänge aufzudecken, d. h. logisch schlussfolgern zu können.
Die Fähigkeit zur Verallgemeinerung (Abstraktion) und zur Spezialisierung (d. h. zu Anwendung allgemeiner Zusammenhänge auf konkrete Sachverhalte).
Das Vermögen, erworbenes Wissen und vorhandene Erfahrung auf neue, bisher unbekannte Situationen zu übertragen.
Die Fähigkeit, sich planvoll zu verhalten und entsprechende Strategien zum Erreichen der Ziele bilden zu können.
Anpassungsfähigkeit an verschiedene, sich u. U. zeitlich ändernde Situationen und Problemumgebungen.
Lernfähigkeit, verbunden mit dem Vermögen, partiellen Fortschritt oder Rückschritt einschätzen zu können.
Die Fähigkeit, auch in unscharf bzw. unvollständig beschriebenen oder erkannten Situationen handeln zu können.
Die Fähigkeit zur Mustererkennung (Besitz von Sensoren) und zur aktiven Auseinandersetzung mit der Umwelt (Besitz von Effektoren).
Über ein Kommunikationsmittel von der Komplexität und Ausdrucksfähigkeit der menschlichen Sprache verfügen.
Seit 1966 wird mit demTuring Award ein Informatikpreis vergeben. Viele der Preisträger wurden wegen ihrer Errungenschaften im Bereich der Erforschung und Entwicklung künstlicher Intelligenz ausgezeichnet.
Stephen Hawking warnte 2014 vor der KI und sah darin eine Bedrohung für die Menschheit. Durch die KI könnte dasEnde der Menschheit eingeleitet werden. Ob die Maschinen irgendwann die Kontrolle übernehmen werden, werde die Zukunft zeigen. Aber es sei klar, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen.[59][60][61]
Im August 2017 forderten 116 Unternehmer und Experten aus der Technologiebranche (u. a.Mustafa Suleyman,Elon Musk,Yoshua Bengio,Stuart Russell,Jürgen Schmidhuber) in einem offenen Brief an die UN, dass autonome Waffen verboten werden sollten bzw. auf die seit 1983 bestehende CCW-Liste gesetzt werden sollen. Die Certain Conventional Weapons sind von derUN verboten und beinhalten unter anderem Chemiewaffen. Nach Schwarzpulver und der Atombombe drohe die dritte Revolution der Kriegsführung. Zitat aus dem Schreiben: „Wenn dieseBüchse der Pandora einmal geöffnet ist, wird es schwierig, sie wieder zu schließen“ und „Einmal erfunden, könnten sie bewaffnete Konflikte erlauben in einem nie dagewesenen Ausmaß, und schneller, als Menschen sie begreifen können“. Terroristen und Despoten könnten die autonomen Waffen nutzen und sogar hacken.[62][63]
Argumentativ entgegengetreten sind solchen Positionen u. a.Rodney Brooks undJean-Gabriel Ganascia.[64]Jörg Phil Friedrich vertritt den Standpunkt, es sei weniger eine künstliche Intelligenz, die uns in den KI-Systemen begegne, „sondern eine über weite Strecken degenerierte menschliche Intelligenz“.[65]
Im Februar 2018 wurde ein Bericht einer Projektgruppe führender Experten im Bereich KI veröffentlicht, der vor möglichen „Bösartige[n] Nutzungen künstlicher Intelligenz“ (englischer Originaltitel: „The Malicious Use of Artificial Intelligence“) warnt.[66]Beteiligt waren daran unter anderem Forscher der Universitäten von Oxford, Yale und Stanford, sowie Entwickler von Microsoft und Google. Der Bericht nimmt Bezug auf schon existierende Technologien und demonstriert anhand von diversen Szenarien, wie diese von Terroristen, Kriminellen und despotischen Regierungen missbraucht werden könnten.[66] Die Autoren des Berichts fordern daher eine engere Zusammenarbeit von Forschern, Entwicklern und Gesetzgeber im Bereich KI und schlagen konkrete Maßnahmen vor, wie die Gefahren des Missbrauchs verringert werden könnten.[66]
Der HistorikerYuval Noah Harari sagt, „künstliche Intelligenz undBiotechnologie können zerstören, was den Menschen ausmacht.“ Er warnt vor einem Wettrüsten im Bereich der künstlichen Intelligenz und empfiehlt globale Zusammenarbeit angesichts dieser „existenziellen Bedrohung.“[67] 2024 äußerte er sich im WochenmagazinStern besorgt, weil KI „die erste Technologie“ sei, „die eigene Entscheidungen treffen“ könne.Noch komme sie „recht primitiv daher“, doch schreite die Entwicklung zu schnell voran, ohne dass gegenwärtig die damit verbundenen Risiken eingeschätzt werden könnten. Es sei zu befürchten, die KI könnte eines Tages „Waffensysteme selbständig kontrollieren“ und „allein entscheiden, welche Person sie töten“. Die Risiken für die Demokratie bringt Harari mit der potentiellen Fähigkeit der KI in Verbindung, „das erste totale Überwachungssystem der Geschichte zu errichten“.[68]
Richard David Precht wendet sich gegen die Vorstellung, dass künftig böser Wille oder Machtstreben seitens einer entwickelten künstlichen Intelligenz drohe; das Gefahrenpotential liege vielmehr in ihrem falschen Einsatz.[69]
Die ehemalige Google-TeamleiterinTimnit Gebru warnt vor dembias und dem Energiebedarf großer Sprachmodelle, wasDiskriminierung undKlimakrise verschärfen könnte.[70] Um solchen ungewollten Effekten vorzubeugen, versucht der Forschungsbereich desAI-Alignments (zu deutsch KI-Ausrichtung) sicherzustellen, dass KI nach menschlichen Werten wie etwaEgalitarismus handelt. (Siehe auch:Green IT)
Caroline Criado Perez[71] zeigt in ihrer ausführlichen Recherchearbeit das bestehendeGender-Data-Gaps einen negativen Einfluss auf Trainingsdaten von KI nehmen und so bestehende Diskriminierungen reproduziert werden.
Der Präsident vonMicrosoft, Brad Smith, schlug vor, einenVerhaltenskodex aufzustellen, wie etwa eineDigitaleGenfer Konvention, um Risiken der künstlichen Intelligenz zu verringern.
Der EthikerPeter Dabrock empfiehlt im Kontext der Benutzung und Programmierung von künstlicher Intelligenz nicht nur die digitale Kompetenz der Beteiligten zu erhöhen, sondern auch auf klassische Bildungselemente zu setzen. Um mit den dazugehörigen Herausforderungen zurechtzukommen sowie die Fähigkeiten zur Unterscheidung und zur Erkennung von Mehrdeutigkeit zu erhöhen, seien Kenntnisse aus Religion, Literatur, Mathematik, Fremdsprachen, Musik und Sport eine gute Voraussetzung.[72]
DerDeutsche Bundestag hat am 28. Juni 2018 eineEnquete-KommissionKünstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale eingesetzt.[73] Am 28. Oktober 2020 hat die Kommission ihren Abschlussbericht vorgelegt. Künstliche Intelligenz ist demnach die nächste Stufe der Digitalisierung.Unter dem Leitbild einer „menschenzentrierten KI“ wird eine „demokratische Gestaltung“ der Entwicklung gefordert, so dass KI-Anwendungen vorrangig auf das Wohl und die Würde der Menschen ausgerichtet seien und einen gesellschaftlichen Nutzen bringen. Um einer Diskriminierung von Menschen entgegenzuwirken „braucht es, wenn KI über Menschen urteilt, einen Anspruch auf Transparenz, Nachvollziehbarkeit und Erklärbarkeit von KI-Entscheidungen, damit eine gerichtliche Überprüfung automatisierter Entscheidungen möglich ist“.[74]
2021 veröffentlichte dieEU-Kommission einen Vorschlag über eineKI-Verordnung, die am 12. Juni 2024 mit dem Titel „Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)“ veröffentlicht wurde.[75]
Der KI-InvestorFabian Westerheide verwies im Zusammenhang mit seinem 2024 erschienenen BuchDie KI-Nation auf hohe Investitionen einiger Staaten – insbesondere Chinas – in eine eigene KI-Strategie, warnte vor der Gefahr einer Überwachung durchBackdoors beim Einsatz ausländischer KI und betonte die Bedeutung deutscher und gesamteuropäischer Pläne zur KI.[77]
Die Zahl der Betriebe, die KI-Technologien einsetzen, ist in Deutschland noch relativ gering. Ende 2018 haben nur sechs Prozent der Unternehmen KI genutzt oder implementiert. 17 Prozent haben angegeben, KI-Einsätze zu testen oder zumindest solche zu planen.[78] Auch die ZEW-Studie[79] kommt zu einem ähnlichen Ergebnis. Im Jahr 2019 haben rund 17.500 Unternehmen im Berichtskreis der Innovationserhebung (produzierendes Gewerbe und überwiegend unternehmensorientierte Dienstleistungen) KI in Produkten, Dienstleistungen oder internen Prozessen eingesetzt. Das sind 5,8 Prozent der Unternehmen im Berichtskreis.
Mit dem Observatorium Künstliche Intelligenz in Arbeit und Gesellschaft (kurz: KI-Observatorium), einem Projekt der Denkfabrik Digitale Arbeitsgesellschaft, fokussiert dasBundesministerium für Arbeit und Soziales die Frage nach den Auswirkungen von KI auf Arbeit und Gesellschaft. Das KI-Observatorium agiert an der Schnittstelle zwischen Politik, Wissenschaft, Wirtschaft und Gesellschaft; es fungiert als Wissensträger und Impulsgeber. Das KI-Observatorium hat die Aufgabe, Effekte von KI in der Arbeitswelt frühzeitig zu antizipieren und Handlungsbedarfe aufzuzeigen.Auf diese Weise leistet die im März 2020 gestartete Arbeitseinheit einen Beitrag zur Realisierung der in der KI-Strategie der Bundesregierung formulierten Ziele – etwa zum sicheren und gemeinwohlorientierten Einsatz von KI. Darüber hinaus soll das KI-Observatorium mithilfe von Dialog- und Beteiligungsformaten unterschiedliche gesellschaftliche Akteure im Umgang mit künstlicher Intelligenz befähigen und bestärken.[80]
Die konkreten Aufgabenschwerpunkte des Observatoriums sind in den fünf Handlungsfeldern festgehalten:[81]
Technologie-Foresight und Technikfolgenabschätzung
KI in der Arbeits- und Sozialverwaltung
Ordnungsrahmen für KI/soziale Technikgestaltung
Aufbau internationaler und europäischer Strukturen
Zu den auch Ende des Jahres 2024 deutlich feststellbaren grundlegendenSchwachstellen der KI gehören u. a.:
Generative KI beinhaltet systemimmanente Probleme, die zum so genanntenHalluzinieren führen können, bei dem schlüssige Antworten verfasst werden, die angeblich wahr sind, obwohl es sich tatsächlich um frei erfundene Inhalte handelt.[82][83]
Wenige marktbeherrschende Unternehmen im Zusammenhang mit den weltweitenInternetgiganten kontrollieren durch Ausnutzung ihrer bestehendenDominanz und durch gezieltes Aufkaufen von KI-Startups die Entwicklung der künstlichen Intelligenz und verstärken dadurch umso mehr ihremonopolartigen Marktstellungen mit all den damit zusammenhängenden Nachteilen.[84]
Manipulierbarkeit der Anwendung schon allein durch Auswahl der verwendeten KI-„Trainingsdaten“.
Zum Teil gravierende Sicherheitsbedenken: Nutzer von insbesondere generativen KI-Modellen haben kaum Möglichkeiten, Sicherheitslücken zu erkennen. Beispielsweise ist mit Stand Februar 2025 bei derDeepSeek-AI von einer sehr weitreichenden Speicherung von auch vertraulichen Nutzerdaten auszugehen.[85]
KI neigt dazu, bereits bestehende gesellschaftlicheDiskriminierungsverhältnisse zu reproduzieren. Wenn die Daten, mit denen eine KI trainiert wird, z. B. bereits einensexistischen oderrassistischenBias haben, wirkt sich dieser auch auf die Funktionen der KI aus. Es gibt vor allem bei mittels KI automatisierten Entscheidungsprozessen eine Reihe von Beispielen, bei denenmarginalisierte Gruppen benachteiligt werden.[86][87] So wurde z. B. im November 2025 bekannt, dass KI, dieDialekte hört bzw. liest, oft unfair urteilt, indem sie Vorurteile gegenüber Menschen mit Dialekt zum Ausdruck bringt und Eigenschaften wie „ungebildet“ und „unfreundlich“ auswählt.[88]
DieVerordnung über künstliche Intelligenz (informell meistKI-Verordnung,englischAI Act) ist eineEU-Verordnung für dieRegulierung von künstlicher Intelligenz. Es ist die weltweit erste umfassende Regulierung dieser Art. Das Gesetz regelt den Einsatz von KI unter anderem für die kritische Infrastruktur, Sicherheitsbehörden und Personalverwaltung.[89] DieEuropäische Kommission hat das Gesetz am 21. April 2021 vorgeschlagen und einen ersten Entwurf veröffentlicht.[90]Am 28. September 2022 hat die Europäische Kommission in dem Zusammenhang auch den Entwurf einer Richtlinie über Produkthaftung[91] und einer Richtlinie über KI-Haftung veröffentlicht.[92] Haftungsfragen waren zuvor aus der Verordnung herausgenommen worden.[93]In dem Kontext steht auch die Überarbeitung derMaschinenrichtlinie zur EU-Maschinenverordnung, die am 14. Juni 2023 in Kraft getreten ist. Am 9. Dezember 2023 einigten sich die EU-Gesetzgebungsinstitutionen auf die Grundzüge des Gesetzes.[94][95]
Am 12. Juni 2024 hat die EU die KI-Verordnung mit dem Titel „Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)“ veröffentlicht.[75] Hier sind Vorschriften zum Inverkehrbringen, Inbetriebnahme und die Verwendung von KI-Systemen festgelegt. Verbotene Praktiken sind in Kapitel II benannt.[96] Ebenso sind die Kriterien zur Einstufung von KI-Systemen als Hochrisiko-KI-Systeme in Kapitel III beschrieben.[97] Für Hochrisiko-KI-Systeme wird die EU eine Datenbank errichten.[98]Sanktionen gegen die Missachtung der Richtlinie sind mit Geldbußen von 35 Millionen Euro oder sieben Prozent des gesamten weltweiten Umsatzes des verstoßenden Unternehmens belegt.[99] Wie jede EU-Richtlinie muss sie in nationale Gesetze übernommen werden. Für KI-Systeme ist eineEU-Konformitätserklärung vorgeschrieben.[100]
Da die KI-Systeme viele Bereiche tangieren, wie am Titel der Verordnung ersichtlich, wurden folgende Richtlinien geändert: Richtlinie 2014/90/EU über Schiffsausrüstung,Richtlinie (EU) 2016/797 über die Interoperabilität des Eisenbahnsystems in der Europäischen Union. Folgende Verordnungen wurden mit der KI-RL auch geändert: Verordnung (EG) Nr. 300/2008 über gemeinsame Vorschriften für die Sicherheit in der Zivilluftfahrt, Verordnung (EU) Nr. 167/2013 über die Genehmigung und Marktüberwachung von land- und forstwirtschaftlichen Fahrzeugen, Verordnung (EU) Nr. 168/2013 über die Genehmigung und Marktüberwachung von zwei- oder dreirädrigen und vierrädrigen Fahrzeugen, Verordnung (EU) 2018/858 über die Genehmigung und die Marktüberwachung von Kraftfahrzeugen und Kraftfahrzeuganhängern sowie von Systemen, Bauteilen und selbstständigen technischen Einheiten für diese Fahrzeuge, Verordnung (EU) 2018/1139 zur Festlegung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Agentur der Europäischen Union für Flugsicherheit, Verordnung (EU) 2019/2144 über die Typgenehmigung von Kraftfahrzeugen und Kraftfahrzeuganhängern.[101]
Basierend auf den Verordnungen der EU haben einige nationale Stellen bereits eigenen Regularien zum Einsatz im öffentlich-rechtlichen Umfeld ausgearbeitet.[102]
In denVereinigten Staaten gibt es bislang keine Bundesgesetzgebung, die die Verwendung von künstlicher Intelligenz explizit und umfassend reguliert.
Dass der Einsatz von KI möglichst global reguliert wird, halten viele US-amerikanische Juristen jedoch für notwendig, so zum Beispiel Anwalt Shabbi S. Khan: „Generative KI hat das Potenzial, katastrophal zu sein“.[103] Auch dieUS-Regierung hat erkannt, dass die Machtfülle der großen Tech-Unternehmen zu einer Bedrohung derDemokratie werden kann. Im Juli 2023 wollte US-Präsident Joe Biden eine freiwillige Selbstverpflichtung führender KI-Unternehmen einholen, um zu einer sicheren und transparenten KI-Entwicklung beizutragen.[104]
Darstellung in Film, Videospielen, Literatur und Musik
Künstliche Wesen, die denken können, tauchen seit der Antike als Figuren in Erzählungen auf und sind ein ständiges Thema in der Science-Fiction.[105]
Seit derKlassischen Moderne wird KI in Kunst, Film und Literatur behandelt.[106] Dabei geht es bei der künstlerischen Verarbeitung – im Gegensatz zur KI-Forschung, bei der die technische Realisierung im Vordergrund steht – vor allem um die moralischen, ethischen und religiösen Aspekte und Folgen einer nicht-menschlichen, „maschinellen Intelligenz“.
In derRenaissance wurde der Begriff desHomunculus geprägt, eines künstlichen Miniaturmenschen ohne Seele.[107] Im 18. und 19. Jahrhundert erschienen in der Literatur menschenähnliche Automaten, beispielsweise inE. T. A. HoffmannsDer Sandmann undJean PaulsDer Maschinenmann.
Im 20. und 21. Jahrhundert greift dieScience-Fiction inFilm undProsa das Thema mannigfach auf.[108] 1920 prägte der SchriftstellerKarel Čapek den Begriff „Roboter“ in seinem BühnenstückR.U.R.; 1926 thematisierteFritz Lang inMetropolis Roboter, welche die Arbeit der Menschen übernehmen.[108]
Ein häufiges Motiv im Film und der Literatur begann mitMary Shelleys RomanFrankenstein (1818), in dem eine menschliche Schöpfung zu einer Bedrohung für ihre Meister wird. Dazu gehören Werke wieArthur C. Clarkes und Stanley Kubricks2001:Odyssee im Weltraum (beide 1968), mitHAL 9000, dem mörderischen Computer, der das RaumschiffDiscovery One steuert, sowie die Terminator-Filmreihe (ab 1984) undThe Matrix (1999). Im Gegensatz dazu sind die seltenen loyalen Roboter wie Gort ausDer Tag an dem die Erde stillstand (1951) undBishop ausAliens (1986) in der Populärkultur weniger präsent.[109]
Mehrere Werke nutzen die künstliche Intelligenz, um uns mit der grundlegenden Frage zu konfrontieren, was uns zu Menschen macht, indem sie uns künstliche Wesen zeigen, die die Fähigkeit haben, zu fühlen und somit zu leiden. Dies geschieht in Karel Čapeks R.U.R., dem FilmA.I. Artificial Intelligence vonSteven Spielberg (2001) und anhand der AndroidinAva im KinofilmEx Machina (2015) vonAlex Garland sowie in dem RomanTräumen Androiden von elektrischen Schafen? (1968) vonPhilip K. Dick. Dick befasst sich mit der Idee, dass unser Verständnis der menschlichen Subjektivität durch die mit künstlicher Intelligenz geschaffene Technologie verändert wird.[110]
Die beiden großenScience-Fiction-Franchises des frühen 21. Jahrhunderts,Star Wars undStar Trek, gehen sehr unterschiedlich mit dem Thema KI um. Während beiStar Wars KI vor allem in Form vonRobotern undAndroiden (gleichermaßen alsStatisten undHauptfiguren) von Beginn an selbstverständlich und allgegenwärtig erscheint, nahmStar Trek im Laufe der Zeit immer wieder sehr dedizierte, wechselnde Perspektiven ein, obwohl KI auch dort meist selbstverständlich ist (z. B. Simulierte Lebewesen aufHolodecks). Beispielsweise wurde die FolgeWem gehört Data? (1989) zum Arbeitsthema mehrerer Wissenschaftler.
Roboter und Androide
Isaac Asimov führte die Drei Gesetze der Robotik in vielen Büchern und Geschichten ein, vor allem in der „Multivac“-Serie über einen superintelligenten Computer gleichen Namens. Asimovs Gesetze werden oft in Laiendiskussionen über Maschinenethik erwähnt;[115] während fast alle Forscher im Bereich der künstlichen Intelligenz mit Asimovs Gesetzen durch die Populärkultur vertraut sind, halten sie die Gesetze im Allgemeinen aus vielen Gründen für nutzlos, einer davon ist ihre Zweideutigkeit.[116]
Dem Filmpublikum wurden in den unterschiedlichen Werken die Roboter als intelligente und differenzierte Maschinen mit ganz unterschiedlichen Persönlichkeiten präsentiert: Sie werden entwickelt, um sie für gute Zwecke einzusetzen, wandeln sich aber häufig zu gefährlichen Maschinen, die feindselige Pläne gegen Menschen entwickeln.[117] Im Lauf der Filmgeschichte werden sie zunehmend zu selbstbewussten Wesen, die sich die Menschheit unterwerfen wollen.[117]
Simulierte Realität
Die simulierte Realität ist zu einem häufigen Thema in der Science-Fiction geworden, wie beispielsweise in dem Film The Matrix aus dem Jahr 1999 zu sehen ist, in dem eine Welt dargestellt wird, in der künstlich intelligente Roboter die Menschheit in einer Simulation versklaven, die in der heutigen Welt angesiedelt ist.[118] Zuvor thematisierte bereits dieStar Trek TNG - EpisodeDas Schiff in der Flasche (1993) die Steuerung einer simulierten Realität durch eine böswillige KI, welche zuvor in der EpisodeSherlock Data Holmes (1988) versehentlich erschaffen worden war.
DieMaschinen sowie sämtliche Programme (Orakel,Architekt,Agent etc.) im FilmThe Matrix (1999) von den Geschwistern Lana und LillyWachowski und den darauf basierenden Produktionen (3 weitere Filme, Serie, Spiele).
2025 veröffentlichten 1000 britische Künstler und Gruppen das AlbumIs This What We Want? als Protest gegen Versuche der britischen Regierung denUrheberrechtsschutz zu Gunsten der KI-Industrie aufzuweichen.[120]
Im Zuge derindustriellen Revolution wurde durch die Erfindung der Dampfmaschine die Muskelkraft von der Maschine ersetzt (PS durchWatt). Durch diedigitale Revolution könnte die menschliche Denkleistung durch maschinelle KI ersetzt[121] beziehungsweise ergänzt[122] werden.
Von diversen Kennern der Materie wird angenommen, dass es zukünftig immer weniger nicht automatisierte Erwerbsarbeit gibt, weshalb auch im Hinblick auf Effizienz und Gewinnmaximierungimmer weniger Arbeitskräfte benötigt würden. Der PhysikerStephen Hawking meinte, es sei klar, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen.[59][60] Microsoft-GründerBill Gates sieht die Entwicklung ähnlich. Er fordert eine Robotersteuer, um die sozialen Aufgaben der Zukunft bewältigen zu können.[123]
Die InformatikerinConstanze Kurz erklärte in einem Interview, der technische Wandel habe sich in der Vergangenheit meist über Generationen vollzogen, so dass genug Zeit blieb, sich für neue Aufgaben auszubilden. Heute verlaufe er innerhalb von wenigen Jahren, so dass die Menschen nicht genug Zeit hätten, sich für neue Aufgaben weiterzubilden.[124] Der Sprecher desChaos Computer Clubs,Frank Rieger, warnte angesichts der fortschreitenden Automatisierung unter anderem vor der Gefahr einer Schwächung von Gewerkschaften, die an Mitgliedern verlieren könnten. Er plädierte für eine „Vergesellschaftung der Automatiserungsdividende“ zugunsten eines Grundeinkommens zwecks gerechterer Wohlstandsverteilung.[125]
Jürgen Schmidhuber antwortete auf die Frage, ob KIs uns bald den Rang ablaufen werden bzw. ob wir uns Sorgen um unsere Jobs machen müssten: „Künstliche Intelligenzen werden fast alles erlernen, was Menschen können – und noch viel mehr. Ihre neuronalen Netzwerke werden aus Erfahrung klüger und wegen der sich rasch verbilligenden Hardware alle zehn Jahre hundertmal mächtiger. Unsere formelle Theorie des Spaßes erlaubt sogar, Neugierde und Kreativität zu implementieren, um künstliche Wissenschaftler und Künstler zu bauen.“[126]
Mark Zuckerberg äußerte bei einer Rede vor Harvard-Absolventen, dass die Einführung eines bedingungslosen Grundeinkommens notwendig sei. Es könne etwas nicht mehr in Ordnung sein, wenn er als Harvard-Abbrecher innerhalb weniger Jahre Milliarden machen könne, während Millionen von Uni-Absolventen ihre Schulden nicht abbezahlen könnten. Es brauche eine Basis, auf der jeder innovativ und kreativ sein könne.[127][128]
Im November 2017 stellte der Deutsche-Bank-ChefJohn Cryan einen starken Stellenabbau in Aussicht. Cryan sagte: „Wir machen zu viel Handarbeit, was uns fehleranfällig und ineffizient macht“. Vor allem durch das maschinelle Lernen bzw. künstliche Intelligenzen könne das Unternehmen noch viel effizienter werden.[129]
Der Zukunftsforscher Lars Thomson prognostizierte im November 2017 für die nächsten zehn Jahre gewaltige Umbrüche in Technologie, Arbeit, Werten und Gesellschaft. Im Jahr 2025 könne ein Haushalts-Roboter den Frühstückstisch decken, Fenster putzen, Pflegedienste übernehmen usw. Der Markt der künstlichen Intelligenz werde in wenigen Jahren größer sein als der Automobilmarkt. In Hotels würden in zehn Jahren Roboter die Arbeiten der heutigen Zimmermädchen übernehmen. Thomson sieht die Gefahr einer Spaltung der Gesellschaft, wenn das Tempo der Veränderung die Wandlungsfähigkeit der Menschen übersteige. Die Gesellschaft müsse Leitplanken für die KIs definieren.[130]
In einem Interview im Januar 2018 meinte der CEO von GoogleSundar Pichai, die aktuelle Entwicklung der künstlichen Intelligenz sei für den Werdegang der Menschheit bedeutender als es die Entdeckung des Feuers und die Entwicklung der Elektrizität waren. Durch die aktuelle Entwicklung der KI werde kein Stein auf dem anderen bleiben. Deshalb sei es wichtig, dass die Gesellschaft sich mit dem Thema auseinandersetze. Nur so könne man die Risiken eingrenzen und die Potentiale ausschöpfen.[131]
DasInstitut für Arbeitsmarkt- und Berufsforschung (IAB), das zur Bundesagentur für Arbeit gehört, hat in einer Studie von 4/2018[132] dargelegt, welche menschliche Arbeit in Deutschland von Maschinen ersetzt werden kann. Am stärksten betroffen mit etwa 83 Prozent seien Fertigungsberufe, aber auch unternehmensbezogene Dienstleistungsberufe mit 60 Prozent, Berufe in der Unternehmensführung und -organisation mit 57 Prozent, Berufe in Land- und Forstwirtschaft und Gartenbau mit 44 Prozent usw. Insgesamt geht die Studie davon aus, dass in naher Zukunft 70 Prozent der menschlichen bezahlten Tätigkeiten von Maschinen übernommen werden könnten.Maschinen könnten z. B. übernehmen: Wareneingangskontrolle, Montageprüfung, Kommissionierung, Versicherungsanträge, Steuererklärungen usw. Die Techniken, die diese Veränderungen vorantreiben, seien: künstliche Intelligenzen, Big Data, 3D-Druck und virtuelle Realität. Auch wenn es nicht zu Entlassungen komme, müssten Mitarbeiter zumindest mit starken Veränderungen in ihrem Berufsbild und damit starkem Umlernen rechnen. Es entstünden auch neue Berufsfelder.[133]
In einem Gastbeitrag im Februar 2018 meinte der SAP-ChefBill McDermott, um etwaige negative Auswirkungen der neuen Techniken auf die Gesellschaft zu vermeiden, brauche es eine durchdachte Planung. Behörden, Privatwirtschaft und Bildungswesen müssten zusammenarbeiten, um jungen Menschen die Fähigkeiten zu vermitteln, die diese in der digitalen Wirtschaft benötigten. Umschulungen und lebenslanges Lernen seien heute die neue Normalität. Die wirtschaftliche Entwicklung werde durch die KI befeuert.Man rechne für 2030 mit einer Wertschöpfung im Bereich von 16 Billionen US-Dollar und einem Wachstum des Bruttoinlandsprodukts um 26 Prozent. Durch die Automatisierung könnten Unternehmen zukünftig jährlich drei bis vier Billionen US-Dollar einsparen.[134]
Im August 2025 wird eineStepstone-Analyse bekanntgemacht,[135] die einen seit 2023 stark sinkenden Anteil an Stellenanzeigen für Berufseinsteiger abbildet. Der rasche Einsatz von Künstlicher Intelligenz verändere die Nachfrage – vor allem bei Positionen auf Juniorlevel. KI-Tools übernehmen demnach immer häufiger Berufseinsteiger-Aufgaben: Fehler in Programmcodes finden, Präsentationen vorbereiten oder Markt- und Rechtsrecherche. Das betreffe textbasierte, klar strukturierte und repetitive Jobs, beispielsweise in der Informationstechnologie, im Rechtswesen oder in der Unternehmensberatung. Damit sei langfristig nicht nur ein Umbau von Geschäftsmodellen und Unternehmensstrukturen zu erwarten, sondern es drohe auch eine Lücke in der Nachwuchsförderung, ein Problem besonders in Bereichen mit Arbeitskräftemangel wie zum Beispiel in der IT-Branche.[136]
KI verändert dieInternetsuche, indem Suchende gegenüber der klassischen Internet-Recherche komplexere Fragen stellen können und entsprechend ausformulierte Antworten erhalten. Dabei werden von denChatbot-Antworten häufig keine Quellen angegeben (sofern nicht ausdrücklich angefragt) bzw. wenn, sind sie oft nicht verlinkt. Das veränderte Suchverhalten führt unter anderem dazu, dassWikipedia auf direktem Weg seltener aufgerufen wird. Gleichzeitig sind jedoch die Zugriffszahlen von Chatbots auf Wikipedia zum KI-Training massiv angestiegen. Dies hat zur Folge, dass die Ressourcen der Wikipedia stärker belastet werden. Es wird angenommen, dass die Zahl der Autoren und neuer Beiträge zur Wikipedia sinken wird.[137][138][139]
Marie-Sophie Adeoso, Eva Berendsen, Leo Fischer,Deborah Schnabel:Code & Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus. Verbrecher Verlag, Berlin 2024,ISBN 978-3-95732-589-1.
Ingo Boersch, Jochen Heinsohn, Rolf Socher:Wissensverarbeitung – Eine Einführung in die Künstliche Intelligenz. Elsevier, 2006,ISBN 3-8274-1844-5.
Stefan Buijsman:Ada und die Algorithmen. Wahre Geschichten aus der Welt der künstlichen Intelligenz. C.H.Beck, München 2021,ISBN 978-3-406-77563-5 (niederländisch:AI – Alsmaar intelligenter. Een kijkjeachter de beeldschermen. Amsterdam 2020. Übersetzt von Bärbel Jänicke).
Ulrich Eberl:Smarte Maschinen: Wie Künstliche Intelligenz unser Leben verändert. Carl Hanser Verlag, München 2016,ISBN 978-3-446-44870-4.
Wolfgang Ertel:Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. 3. Auflage. Springer Vieweg, Wiesbaden 2013,ISBN 978-3-8348-1677-1.
Julian Nida-Rümelin, Natalie Weidenfeld:Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, Pieper, München32023 (12020),ISBN 978-3-492-31616-3.
Nils John Nilsson:Die Suche nach Künstlicher Intelligenz – Eine Geschichte von Ideen und Erfolgen. 1. Auflage. AKA, Berlin 2014,ISBN 978-3-89838-665-4 (englisch:The quest for artificial intelligence. A history of ideas and achievements. Cambridge 2010.).
Matteo Pasquinelli:Das Auge des Meisters. Eine Sozialgeschichte künstlicher Intelligenz. Unrast, Münster 2024,ISBN 978-3-89771-390-1.
Roger Penrose:Schatten des Geistes. Wege zu einer neuen Physik des Bewußtseins. Heidelberg, 1995 (englisch:Shadows of the Mind.).
Rolf Pfeifer, Christian Scheier, Alex Riegler:Understanding Intelligence. Bradford Books, 2001,ISBN 0-262-66125-X (englisch).
David L. Poole, Alan K. Mackworth:Artificial Intelligence: Foundations of Computational Agents. 2. Auflage. Cambridge University Press, 2017,ISBN 978-1-107-19539-4 (englisch).
Thomas Ramge:Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern. Reclam-Verlag, Stuttgart 2018,ISBN 978-3-15-019499-7.
Roberto Simanowski:Sprachmaschinen: eine Philosophie der künstlichen Intelligenz. München: C.H. Beck, 2025.
Anna Strasser,Wolfgang Sohst, Ralf Stapelfeldt, Katja Stepec:Künstliche Intelligenz – Die große Verheißung. Xenomoi, Berlin 2021,ISBN 978-3-942106-79-5.
Mustafa Suleyman, Michael Bhaskar:The Coming Wave. Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts. C.H.Beck, 2024,ISBN 978-3-406-81412-9.
Emmanouil Billis, Nandor Knust, Jon-Petter Rui:Künstliche Intelligenz und der Grundsatz der Verhältnismäßigkeit. M. Engelhart, H. Kudlich, B. Vogel (Hrsg.), Digitalisierung, Globalisierung und Risikoprävention – Festschrift für Ulrich Sieber zum 70. Geburtstag, Teilband II. Duncker & Humblot, Berlin 2021,ISBN 978-3-428-15971-0,S.693–725.
↑Johannes Fähndrich, Wilfried Honekamp, Roman Povalej, Heiko Rittelmeier, Silvio Berner, Dirk Labudde:Digital forensics and strong AI: A structured literature review. In:Forensic Science International: Digital Investigation.Band46, 1. September 2023,ISSN2666-2817,S.301617,doi:10.1016/j.fsidi.2023.301617 (sciencedirect.com [abgerufen am 1. Juli 2025]).
↑Künstliche Intelligenz. (PDF) In: dfki.de. Bitkom e. V. und Deutsches Forschungszentrum für Künstliche Intelligenz, 2017, S. 28, abgerufen am 18. Juli 2021.
↑abVerordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz […] (Verordnung über künstliche Intelligenz). 13. Juni 2024 (europa.eu [abgerufen am 11. Dezember 2024]).
↑Matthijs M Maas:AI is Like… A Literature Review of AI Metaphors and Why They Matter for Policy. In:AI Foundations Report 2. 2023,doi:10.2139/ssrn.4612468.
↑Melanie Mitchell:The metaphors of artificial intelligence. In:Science.Band386,Nr.6723, 14. November 2024,S.eadt6140,doi:10.1126/science.adt6140.
↑Warren J. von Eschenbach:Transparency and the Black Box Problem: Why We Do Not Trust AI. In:Philosophy & Technology.Band34,Nr.4, 1. Dezember 2021,ISSN2210-5441,S.1607–1622,doi:10.1007/s13347-021-00477-0.
↑Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell:On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In:Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (= FAccT '21). Association for Computing Machinery, New York, NY, USA 2021,ISBN 978-1-4503-8309-7,S.610–623,doi:10.1145/3442188.3445922.
↑Ted Chiang:ChatGPT Is a Blurry JPEG of the Web. In:The New Yorker. 9. Februar 2023,ISSN0028-792X (newyorker.com [abgerufen am 8. Januar 2025]).
↑Lucinda McKnight, Cara Shipp:“Just a tool”? Troubling language and power in generative AI writing. In:English Teaching: Practice & Critique.Band23,Nr.1, 1. Januar 2024,ISSN1175-8708,S.23–35,doi:10.1108/ETPC-08-2023-0092.
↑Anuj Gupta, Yasser Atef, Anna Mills, Maha Bali:Assistant, Parrot, or Colonizing Loudspeaker? ChatGPT Metaphors for Developing Critical AI Literacies. In:Open Praxis.Band16,Nr.1, 2. Februar 2024,ISSN1369-9997,doi:10.55982/openpraxis.16.1.631.
↑Rainer Rehak:Zwischen Macht und Mythos: Eine kritische Einordnung aktueller KI-Narrative. In:In Sachen KI. Zur Diskussion um eine schillernde Technologie. Soziopolis: Gesellschaft beobachten. Hamburger Institut für Sozialforschung, 14. Dezember 2023 (soziopolis.de [abgerufen am 8. Juli 2025]).
↑What if we chose new metaphors for artificial intelligence? | Think Tank | European Parliament. (europa.eu [abgerufen am 8. Januar 2025]).
↑Matthijs M. Maas:AI is Like… A Literature Review of AI Metaphors and Why They Matter for Policy. In:AI Foundations Report 2. 2023,doi:10.2139/ssrn.4612468.
↑Nils J. Nilsson:The Quest for Artificial Intelligence. A History of Ideas and Achievements. Cambridge University Press, New York 2009. (amerikanisches Englisch)
↑abNick Bostrom:Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp, 2016, S. 42.
↑Mark A. Bedau:Artificial life: organization, adaptation and complexity from the bottom up. In: Department of Philosophy, ReedCollege, 3023 SE Woodstock Blvd., Portland OR 97202, USA (Hrsg.):Trends in Cognitive Sciences.Band7,Nr.11. Portland, OR, USA November 2003 (reed.edu [PDF; abgerufen am 12. März 2019]).
↑Wolfgang Banzhaf, Barry McMullin:Artificial Life. In: Grzegorz Rozenberg, Thomas Bäck, Joost N. Kok (Hrsg.):Handbook of Natural Computing. Springer, 2012,ISBN 978-3-540-92909-3.
↑Franz-Josef Hücker:Die Pygmalion-Mythologie in der Psychotherapie. In:Psychotherapie Forum. Band 16, Nr. 3, 2008, (Springer), (Wien), S. 128–135.
↑Vgl. Hubert Dreyfus:In-der-Welt-sein und Weltlichkeit: Heideggers Kritik des Cartesianismus. In: Thomas Rentsch:Sein und Zeit. Akademie Verlag, Berlin 2001, S. 69ff.
↑Thomas Weiß, Künstliche Intelligenz – eine marxistische Betrachtung. In: Anna Strasser,Wolfgang Sohst, Ralf Stapelfeldt, Katja Stepec (Hrsg.):Künstliche Intelligenz – Die große Verheißung Xenomoi, Berlin 2021. S. 379–405.
↑David Koch, Joachim Lentes, Frauke Schuseil, Lara Waltersmann:Nachhaltigkeit durch KI. Potenziale und Handlungsleitfaden für produzierende Unternehmen. 2022,doi:10.24406/publica-301.
↑Aimee van Wynsberghe:Sustainable AI: AI for sustainability and the sustainability of AI. In:AI and Ethics.Band1, 2021,S.213–218,doi:10.1007/s43681-021-00043-6.
↑Pengfei Li, Jianyi Yang, Mohammad A. Islam, Shaolei Ren:Making AI Less »Thirsty«: Uncovering and Addressing the Secret Water Footprint of AI Models. 2023,S.1,arxiv:2304.03271.
↑Ricardo Vinuesa, Hossein Azizpour, Iolanda Leite, Madeline Balaam, Virginia Dignum, Sami Domisch, Anna Felländer, Simone Daniela Langhans, Max Tegmark, Francesco Fuso Nerini:The role of artificial intelligence in achieving the Sustainable Development Goals. In:Nature Communications.Band11, 2020,S.2,doi:10.1038/s41467-019-14108-y.
↑Svenja Bergt:Stromfresser Künstliche Intelligenz: „Die Energieverbräuche durch KI gehen durch die Decke“. In:taz. 5. April 2025 (taz.de [abgerufen am 6. April 2025]).
↑abcMiles Brundage, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersley, Ben Garfinkel, Allan Dafoe, Paul Scharre, Thomas Zeitzoff, Bobby Filar, Hyrum Anderson, Heather Roff, Gregory C. Allen, Jacob Steinhardt, Carrick Flynn, Seán Ó hÉigeartaigh, Simon Beard, Haydn Belfield, Sebastian Farquhar, Clare Lyle, Rebecca Crootof, Owain Evans, Michael Page, Joanna Bryson, Roman Yampolskiy, Dario Amodei: The Malicious Use of Artificial Intelligence. (PDF) Centre of the Study for Existential Risk, 20. Februar 2018, abgerufen am 9. März 2018 (englisch).
↑Steffen Gassel, Alexandra Kraft:„Lasst Euch nicht hetzen! Wenn wir Menschen uns den Algorithmen anpassen, ist das unser Ende“. Exklusiv-Gespräch mit Yuval Noah Harari. In:Stern.Nr.37, 5. September 2024,S.38–45.
↑Roboter können keine Moral. Warum das Gerede von superintelligenten, allmächtigen Maschinen nur ein großes Ablenkungsmanöver ist. In:Die Zeit, 18. Juni 2020, S. 32.
↑Caroline Criado-Perez:Invisible Women: Exposing Data Bias in a World Designed for Men.ISBN 978-1-78470-628-9.
↑Peter Dabrock:Wir sollten auf klassische Bildung setzen. In:Aufbruch Künstliche Intelligenz – Was sie bedeutet und wie sie unser Leben verändert. Google LLC, SZ Scala GmbH, 2018, S. 34.
↑Lisa Brüssler:Deutscher Bundestag – Enquete-Kommission zur künstlichen Intelligenz eingesetzt. In:Deutscher Bundestag. (bundestag.de [abgerufen am 6. September 2018]).
↑Phillip Lücking:Automatisierte Ungleichheit. Wie algorithmische Entscheidungssysteme gesellschaftliche Machtverhältnisse (re)produzieren. In: netzforma* e. V. (Hrsg.):Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus. Berlin 2020,S.65–76 (netzforma.org [PDF; abgerufen am 6. April 2025]).
↑G. Buttazzo:Artificial consciousness: Utopia or real possibility?. Computer.Band7,Nr.34, 2001,S.24–30,doi:10.1109/2.933500 (englisch).
↑Jill Galvan:"Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of electric Sheep?"" In:Science Fiction Studies.Band3,Nr.24, Januar 1997,S.413–429,JSTOR:4240644 (englisch).
↑Nerisha Penrose: OneRepublic Taps Peter Gabriel for ‘A.I.’-Inspired Track: Listen. What was once a dream has now become reality for OneRepublic. The pop group released their new collaborative track with Peter Gabriel "A.I" -- which oddly enough was inspired by the 2001 movie of the… Billboard, 3. Oktober 2016, abgerufen am 22. August 2024 (amerikanisches Englisch).
↑Susan Leigh Anderson:Asimov's "three laws of robotics" and machine metaethics. In:AI & Society.Band4,Nr.22, 2008,S.477–493,doi:10.1007/s00146-007-0094-5 (englisch).
↑Lee McCauley:"AI armageddon and the three laws of robotics". In:Ethics and Information Technology. 2007,S.153–164,doi:10.1007/s10676-007-9138-2 (englisch).
↑Thomas Knaus et AI:Künstliche Intelligenz und Bildung: Was sollen wir wissen? Was können wir tun? Was dürfen wir hoffen? Und was ist diese KI? Ein kollaborativer Aufklärungsversuch. Hrsg.: Ludwigsburger Beiträge Zur Medienpädagogik – LBzM.Nr.23, 2023,S.11–16,doi:10.21240/lbzm/23/19 (1–42 S.).