Termin „sztuczna inteligencja” wymyśliłJohn McCarthy w 1956[5] na konferencji w Dartmouth.Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”[6]. Sztuczną inteligencją zajmowali się m.in.Marvin Minsky, John McCarthy,Alan Turing,Edward Feigenbaum,Raj Reddy,Judea Pearl,Allen Newell,Herbert A. Simon.
Sztuczna inteligencja ma dwa podstawowe znaczenia:
jest tohipotetyczna inteligencja realizowana w procesie technicznym, a nie naturalnym;
Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowaniemaszyn iprogramów komputerowych zdolnych do realizacji wybranych funkcjiumysłu i ludzkichzmysłów, niepoddających się numerycznejalgorytmizacji[7]. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:
Algorytmy sztucznej inteligencji często określane są mianemczarnej skrzynki, z powodu trudności w zrozumieniu ich działania, gdy ilość danych i parametrów jest duża. W przypadku, gdy mamy mały model, zrozumienie zasady działania nie sprawia problemu. Jednak gdy ilość danych i parametrów się zwiększa, jest to praktycznie niemożliwe, aby zrozumieć, w jaki sposób te algorytmy podejmują decyzje[8]. Były jednak próby opracowania matematycznej teorii, jak naprawdę działają te algorytmy (sieci neuronowe), z uwzględnieniem modeluGPT[9].
Uproszczony schemat jednokierunkowej sieci neuronowej. Poszczególne „kółka” oznaczają sztuczne neurony, z wyjątkiem zielonych i żółtych, które oznaczają odpowiednio wejście i wyjście.
Sieć neuronowa opiera się na zbiorze połączeń, znanych również jakosztuczne neurony, które stanowią analogię neuronów w biologicznymmózgu. Jest ona trenowana do rozpoznawania wzorców, a po przeszkoleniu może rozpoznawać te wzorce w świeżych danych. W najprostszej postaci posiada wejście, co najmniej jedną ukrytą warstwę połączeń i wyjście. Każde połączenie posiadafunkcjęaktywacji, która pozwala na przesyłane informacji do następnej warstwy. Sieć jest zazwyczaj nazywana głęboką siecią neuronową, jeśli ma co najmniej 2 ukryte warstwy[10].
Uczenie głębokie[11] używa wielu warstw sieci neuronowej, dzięki czemu możliwe jest operowanie na cechach wysokiego poziomu. Dla przykładu, w przetwarzaniu obrazu, niższe warstwy (bliżej wejścia) mogą wykrywać krawędzie natomiast wyższe warstwy (bliżej wyjścia) mogą przetwarzać koncepcje bliższe ludziom jak liczby, litery czy twarze[12].
Duże modele językowe (LLM) jakwstępnie przeszkolony transformator generatywny (GPT) generują tekst oparty na związkach semantycznych pomiędzy słowami i zdaniami. Tekstowe duże modele językowe bazują na dużymkorpusie pobranym z różnych stron wInternecie. Wstępny trening polega na nauczeniu predykcji następnegotokena, po czym następuje docelowy trening mający na celu poprawę użyteczności, wiarygodności i poprawie bezpieczeństwa. Do tego celu stosowana jest technikaRLHF. Według stanu na 2025 rok LLM-y są podatne na generowanie fałszywych informacji nazywanychhalucynacjami, a sam problem potrafi się pogarszać w miarę używania tych modeli dorozumowania[13].
Termin „sztuczna inteligencja” został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy’ego, który w 1955 r. zdefiniował go w następujący sposób:
„konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawówinteligencji”.
Istnieją dwa podstawowe podejścia do pracy nad SI:
Pierwsze to tworzenie modeli matematyczno-logicznych analizowanych problemów i implementowanie ich w formieprogramów komputerowych, mających realizować konkretne funkcje uważane powszechnie za składowe inteligencji. W tej grupie, tzw. podejścia symbolicznego, są np.algorytmy genetyczne, metodylogiki rozmytej i wnioskowania bazującego na doświadczeniu.
Drugie to podejście subsymboliczne, polegające na tworzeniu struktur i programów „samouczących się”, bazujących na modelachsieci neuronowej isieci asocjacyjnych, oraz opracowywanie procedur „uczenia” takich programów, rozwiązywania postawionych im zadań i szukania odpowiedzi na wybrane klasy „pytań”.
W trakcie wieloletniej pracy laboratoriów i zespołów SI stosujących oba podejścia do problemu, okazało się, że postęp w tej dziedzinie jest i będzie bardzo trudny i powolny. Często mimo niepowodzeń w osiąganiu celów, laboratoria te wypracowywały nowe techniki informatyczne, które okazywały się użyteczne do zupełnie innych celów. Przykładami takich technik są np. języki programowaniaLISP iProlog. Laboratoria SI stały się też „rozsadnikiem” kulturyhakerskiej.
Najnowsze podejście do problemów SI to rozwijanie różnych form inteligencji rozproszonej (wzorowanej na organizacjach ludzkich, np.personoidy(inne języki)) oraz tzw.agentów autonomicznych i „inteligentnych”. Dziedzina ta nosi nazwęTechnologiiInteligentnych Agentów (ang.Intelligent Agent Technology).
Sztuczna inteligencja stała się bardzo popularna wraz z powstaniem interaktywnej sztucznej inteligencji w postaciChatGPT.
94 proc. polskich specjalistów i specjalistek IT o różnych poziomach doświadczenia wykorzystuje narzędzia SI w codziennej pracy, natomiast 28,7 proc. obawia się, że w ciągu najbliższych kilku lat sztuczna inteligencja zastąpi ich w pracy[15].
Od czasów powstania ChatGPT, mamy do czynienia z wyścigiem AI, główniedużych modeli językowych[16]. Najnowsze rozwiązania związane z tymi modelami toagenty AI, które dają możliwość wykonywania czynności, zazwyczaj poprzez komunikację zaplikacjami internetowymi[17] oraz protokół MCP stworzony przez firmęAnthropic, który ułatwia komunikację modeli językowych z zewnętrznymi systemami lub usługami[18].
Sztuczna inteligencja jest stosowana od dekad w różnych dziedzinach gospodarki. W 1980 rynek AI miał rozmiar liczony w setkach milionów dolarów, a w roku 1988 był szacowany na miliardy dolarów[10] i głównie skupiał się na zastosowaniachsystemów eksperckich. W latach 90. XX wieku znajdowano coraz więcej zastosowań dla AI w technologiach informacyjnych[19] takich jakrobotyka przemysłowa, aplikacje bankowe[20],diagnostyka medyczna[20], rozpoznawanie mowy[21] czywyszukiwarka Google[22]. Kolejne dekady przyniosły dalsze zastosowania sztucznej inteligencji wraz z rosnącą mocą obliczeniową komputerów i wypracowaniem bardziej zaawansowanych technik[10]. Lata dwudzieste XXI wieku przyniosłyekspansję AI(inne języki)[23] .
W 2024 szacowano, że sztuczna inteligencja będzie miała wpływ na wzrostPKB w wysokości od 1,1 do 1,6% w przeciągu 10 lat[24]. W 2024 roku w Polsce 5.9% przedsiębiorstw wykorzystywało AI, wskaźnik ten był niższy niż średnia UE (13.48%). W 2023 roku wskaźnik ten wynosił odpowiednio 3.67% i 8.00%[25]. WStanach Zjednoczonych w 2023 roku 3,8% przedsiębiorstw korzystało z AI do produkcji dóbr i usług[26]. W roku 2024 83% firm w Chinach i 48% firm w Polsce testowało lub wdrożyło generatywną sztuczną inteligencję w co najmniej jednymprocesie biznesowym[27].
Łączna wartość nakładów publicznych na AI w latach 2013-2023 w USA wyniosła 5,233 mld USD, wNiemczech 278 mln USD i Polsce 55,92 mln USD[28]. Łączna wysokość prywatnych inwestycji na AI w 2024 roku w Stanach wyniosła 109,8 mld USD, w Europie 19,42 mld USD (w tym w Niemczech 1,97 mld USD), w Chinach 9,29 mld USD[28]. W 2024 roku udział Polski w globalnych prywatnych inwestycjach w sztuczną inteligencję wyniósł 0,05%[29].
Generatywna sztuczna inteligencja (GenAI) jest ogółem narzędzi, które korzystają z modeli generatywnych do tworzenia tekstu,obrazów, wideo czy innych formatów danych[30][31]. Do generowania zawartości korzysta się zinżynierii podpowiedzi[32]. W szczególności,duże modele językowe mogą być używane przezprogramistów do pisaniakodu programów[33]. Praktyka tworzeniaprogramów komputerowych za pomocą sztucznej inteligencji (bez zrozumienia kodu źródłowego) określana jest jako „vibe coding”[34]. Możliwości tej techniki są ograniczone, jako że sztuczna inteligencja nie radzi sobie w bardziej złożonych zastosowaniach[35]. Duże modele językowe mogę być również wykorzystywane do rozwiązywania problemów matematycznych[36][37].
W ekonomii powszechnie stosuje się systemy automatycznie oceniające m.in.zdolność kredytową, profil najlepszych klientów czy planujące kampanie reklamowe. Systemy te poddawane są wcześniej automatycznemu uczeniu na podstawie posiadanych danych (np. klientów banku, którzy regularnie spłacali kredyt i klientów, którzy mieli z tym problemy).
Rozwiązania z zakresu AI są też używane w prognozowaniu i wykrywaniu oszustw. Przy użyciu m.in.regresji logistycznej systemy analizują zbiory danych w celu wychwytywania np. podejrzanych transakcji finansowych[38].
Sztuczna inteligencja znajduje zastosowanie w takich aspektach wojskowości jak autonomiczne systemy bojowe, wsparcie podejmowania decyzji i optymalizacji logistyki[39][40].
Sztuczna inteligencja ma potencjał do transformacji medycyny. SI już teraz pomaga w wykonywaniu różnorodnych zadań, takich jak diagnostyka obrazowa, przewidywanie chorób, prowadzenie badań i zarządzanie danymi pacjentów. Algorytmy SI mogą analizować duże ilości danych szybciej i dokładniej niż ludzie, co może przynieść korzyści dla pacjentów i lekarzy[41].
Sieci neuronowe są stosowane z powodzeniem w wielu zastosowaniach łącznie z programowaniem „inteligentnych przeciwników” wgrach komputerowych czy też przechodzą całe gry[42][43].
Istnieją programy grające w szachy na poziomie wyższym niż arcymistrzowski, a poziom arcymistrzowski osiągają obecnie programy działające na mobilnych urządzeniach[44]. Podobnie, stworzono program grający wGo, który pokonał światową czołówkę[45]. Wcześniej podobne zwycięstwa odnosiły programy grające wwarcaby, w tymwarcaby polskie[46]. Jak dotąd nie ma jednak programów skutecznie wygrywających np. wbrydża sportowego.
Technologie oparte nalogice rozmytej – powszechnie stosowane np. do sterowania przebiegiem procesów technologicznych w fabrykach w warunkach „braku wszystkichdanych”.
Systemy eksperckie – systemy wykorzystujące bazę wiedzy (zapisaną w sposób deklaratywny) i mechanizmy wnioskowania do rozwiązywania problemów.
Maszynowe tłumaczenie tekstów – systemy tłumaczące nie dorównują człowiekowi, robią intensywne postępy, nadają się szczególnie do tłumaczenia tekstów technicznych.
Uczenie się maszyn – dział sztucznej inteligencji zajmujący się algorytmami potrafiącymi uczyć się, podejmować decyzje bądź nabywać wiedzę.
Eksploracja danych – omawia obszary powiązanie z potrzebami informacyjnymi, pozyskiwaniem wiedzy, stosowane techniki analizy i oczekiwane rezultaty.
Rozpoznawanie obrazów – stosowane są już programy rozpoznające osoby na podstawie zdjęcia twarzy lub rozpoznające automatycznie zadane obiekty na zdjęciach satelitarnych.
Rozpoznawanie mowy i rozpoznawanie mówców – stosowane już powszechnie na skalę komercyjną.
Rozpoznawanie pisma (OCR) – stosowane już masowo np. do automatycznego sortowania listów, rozpoznawania treści życiorysów[47] oraz welektronicznych notatnikach.
Inteligentne interfejsy – stosowane do zautomatyzowanego zarządzania, monitorowania, raportowania oraz podjęcia prób rozwiązywania potencjalnych problemów w procesach technologicznych.
Analiza wideo w czasie rzeczywistym – znajduje zastosowanie m.in. w systemach monitoringu, systemach zarządzania ruchem samochodowym/pieszym i prognozowaniu takiego ruchu[48].
Programy wykorzystujące sztuczną inteligencję do sprawdzania prac domowych uczniów, generujące wynik już po kilku sekundach. W teorii bardzo dobre rozwiązanie problemu, który może być czasochłonny przy dużej ilości prac do sprawdzenia. Niestety, próba implementacjialgorytmu nie powiodła się i na łamach portaluThe Verge opisano historię[49], gdzie uczniowie złamali algorytm sztucznej inteligencji, która sprawdzała prace domowe uczniów, wykorzystując technikę obserwacji słów kluczowych.
Systemy sztucznej inteligencji mogą przejawiać różnego rodzajuuprzedzenia np.rasowe lubseksistowskie, ze względu na stronniczość danych testowych[50] i zjawisko nieświadomych uprzedzeń (unconscious bias). Może to rodzić poważne konsekwencje w zależności od miejsca, w którym sztuczna inteligencja ma zastosowanie.
Sztuczna inteligencja mimo zalet, może być także wykorzystywana do szerzeniadezinformacji. Można jej używać to tworzenia tzw.deepfakeów[55], czy tworzenie treści przezduże modele językowe. W przypadku modeli językowych może to być niezamierzone, gdy modelhalucynuje[56], lub celowe np. tworzeniefake news, gdzie modele językowe mogą ułatwić pracętrollom internetowym[57]. Modele językowe mogą także pomagać w walce z dezinformacją[58].
Regulacja i polityka dotycząca sztucznej inteligencji jest nowym problemem w jurysdykcjach na całym świecie[59]. Na rok 2022, większość krajów UE opublikowało swoją strategię AI, tak samo jakKanada,Chiny,Japonia,Rosja iStany Zjednoczone[60]. W 2024Rada Europy wprowadziła w życie pierwszą międzynarodowąKonwencję ramową Rady Europy o sztucznej inteligencji[61], która została zaadaptowana przezUnię Europejską, Stany Zjednoczone, Wielką Brytanię i inne kraje[62].
Debaty filozoficzne od zawsze miały na celu ustalenie natury inteligencji i sposobu tworzenia inteligentnych maszyn[63]. Kolejnym ważnym zagadnieniem było to, czy maszyny mogą być świadome, oraz związane z tym implikacje etyczne[64]. Wiele innych zagadnień filozoficznych jest istotnych dla sztucznej inteligencji, takich jakepistemologia iwolna wola[65]. Szybki postęp zintensyfikował publiczne dyskusje na temat filozofii ietyki sztucznej inteligencji[66].
Odpowiedź na pytanie, czy maszyna może miećumysł,świadomość istany mentalne w tym samym sensie co ludzie, jest tematem debaty wśródfilozofów umysłu. Ta kwestia rozważa wewnętrzne doświadczenia maszyny, a nie jej zewnętrzne zachowanie. Główny nurt badań nad sztuczną inteligencją uważa tę kwestię za nieistotną, ponieważ nie wpływa ona na cele tej dziedziny: budowania maszyn, które mogą rozwiązywać problemy za pomocą inteligencji.Stuart Russell iPeter Norvig(inne języki) dodają, że dodatkowy projekt uczynienia maszyny świadomą dokładnie w taki sposób, w jaki są świadomi ludzie, nie jest tym, co jesteśmy w stanie podjąć[10].
Komputacjonizm to stanowisko wfilozofii umysłu, zgodnie z którym umysł ludzki jest systemem przetwarzania informacji, a myślenie jest formą obliczeń. Komputacjonizm twierdzi, że relacja między umysłem a ciałem jest podobna lub identyczna do relacji między oprogramowaniem a sprzętem, a zatem może być rozwiązaniemdylematu psychofizycznego. To stanowisko filozoficzne zostało zainspirowane pracą badaczy AI i naukowców zajmujących siękognitywistyką w latach 1960. i zostało pierwotnie zaproponowane przez filozofówJerry'ego Fodora iHilary'ego Putnama[67].
FilozofJohn Searle scharakteryzował to stanowisko jako tzw.silną AI: Odpowiednio zaprogramowany komputer z właściwymi danymi wejściowymi i wyjściowymi miałby umysł w dokładnie takim samym sensie, w jakim mają umysły ludzie[68]. Searle kwestionuje to twierdzenie swoim argumentemchińskiego pokoju, który próbuje wykazać, że nawet komputer zdolny do idealnego symulowania ludzkiego zachowania nie miałby umysłu[69].
Połowa przepytanych ekspertów w 2014 roku uważała, iż istnieje 50% prawdopodobieństwo na osiągnięcie przez SI ludzkiego poziomu przed 2040 rokiem[70]. W mniejszej ankiecie w 2013 roku 42% badaczy stwierdziło, że SI na ludzkim poziomie powstanie przed 2030 rokiem, a 67% – 2050 rokiem[71].
Wciąż brakuje naukowego konsensusu co do tego, czy maszyny mogą osiągnąć świadomość. Algorytmy sztucznej inteligencji mogą być programowane do symulowania zachowań, które ludzie uznają za inteligentne, ale to nie oznacza, że SI będzie świadoma. Świadomość jest złożonym zjawiskiem, który nawet w kontekście ludzkim nie jest jeszcze w pełni zrozumiały[72].
Grupa chińskich naukowców w pracy z 2015 roku ogłosiła, iż program komputerowy ich autorstwa osiągał lepszy wynik niż przeciętni ludzie (w tym dzieci) podczas testu IQ opartego na komunikatach werbalnych[73].
Również w roku 2015 amerykańscy badacze ogłosili stworzenie programu, który w zawodach zanalizy danych pokonał 615 na 906 drużyn złożonych z ludzi[74][75].
↑AnnetteA.FlanaginAnnetteA.,KirstenK.Bibbins-DomingoKirstenK.,MichaelM.BerkwitsMichaelM.,Stacy L.S.L.ChristiansenStacy L.S.L.,Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge, „Journal of the American Medical Association”, 329 (8),2023, s. 637,DOI: 10.1001/jama.2023.1344 [dostęp 2024-04-12](ang.).
↑National Research Council (U.S.). Committee on Innovations in Computing and Communications: Lessons fromN.R.C.(U.S.). C.I.C.C.: L.HistoryNational Research Council (U.S.). Committee on Innovations in Computing and Communications: Lessons fromN.R.C.(U.S.). C.I.C.C.: L.,Funding a revolution : government support for computing research, Washington, D.C. : National Academy Press, 1999,ISBN 978-0-309-06278-7 [dostęp 2025-06-01]. Brak numerów stron w książce
↑ZhihongZ.ShaoZhihongZ. i inni,DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models, arXiv, 27 kwietnia 2024,DOI: 10.48550/arXiv.2402.03300 [dostęp 2025-08-02](ang.). Brak numerów stron w książce
↑DmitryD.BabenkoDmitryD.,HaralambosH.MarmanisHaralambosH.,TomaszT.WalczakTomaszT.,Inteligentna sieć. Algorytmy przyszłości, Gliwice: Wydawnictwo Helion, 2017,ISBN 978-83-283-3250-8,OCLC995439215 [dostęp 2020-08-29]. Brak numerów stron w książce
↑MichaelM.RescorlaMichaelM.,The Computational Theory of Mind,Edward N.E.N.Zalta,UriU.Nodelman (red.), wyd. Winter 2024, Metaphysics Research Lab, Stanford University, 2024 [dostęp 2025-05-31]. Brak numerów stron w książce
↑JamesJ.BarratJamesJ.,Our Final Invention: Artificial Intelligence and the End of the Human Era, New York: Thomas Dunne Books, 2013, s. 152,ISBN 978-0312622374,OCLC827256597.