Krótka rozmowa o ID ze sztuczną inteligencjąCzas czytania: 14 min

Dariusz J. Skotarek

2025-07-11
Krótka rozmowa o ID ze sztuczną inteligencją<span class="wtr-time-wrap after-title">Czas czytania: <span class="wtr-time-number">14</span> min </span>

Najnowsze systemy oparte na sztucznej inteligencji (artificial intelligence, AI) należą do najbardziej przełomowych osiągnięć technologicznych ostatnich lat. Mechanizm, który jeszcze dekadę temu brzmiał jak futurystyczna wizja rodem z literatury science fiction, dziś jest dostępny na wyciągnięcie ręki. Obecnie obserwujemy niezwykle dynamiczny rozwój narzędzi opartych na AI, a w szczególności zdolnych do prowadzenia rozmów z użytkownikami zaawansowanych modeli językowych.

Przełomem okazało się udostępnienie tzw. dużych modeli językowych (large language models, LLMs), spośród których największą popularność zyskał ChatGPT – chatbot opracowany przez firmę OpenAI. Narzędzie to, uruchomione pod koniec 2022 roku, w zaledwie pięć dni zdobyło milion użytkowników1, a jego dynamiczny rozwój i integracja z innymi aplikacjami, przeglądarkami internetowymi czy środowiskami programistycznymi uczyniły je jednym z najbardziej wpływowych produktów cyfrowych naszych czasów. Według najnowszych danych ChatGPT ma 800 milionów użytkowników tygodniowo i obsługuje ponad miliard zapytań dziennie2. ChatGPT i inne narzędzia generatywnej sztucznej inteligencji (generative AI) radykalnie zmieniają nasz świat – i to nie tylko ten cyfrowy. ChatGPT stał się dla wielu użytkowników podstawowym źródłem pozyskiwania informacji, zastąpił tym samym wyszukiwarki internetowe. Jest to znaczące ułatwienie i przyspieszenie procesu, jednak wiąże się z nim bardzo ważne ryzyko dotyczące obiektywności i rzetelności uzyskiwanych w ten sposób informacji. W niniejszym artykule przyglądamy się rzeczonej kwestii obiektywności AI – w kontekście teorii inteligentnego projektu.

 

Jak działa ChatGPT?

Zadajmy sobie zatem bardzo istotne pytanie: czym dokładnie jest ChatGPT i jak działa? Choć struktura leżąca u podstaw ChatuGPT, czyli sztuczna sieć neuronowa, była modelowana na wzór „idealizacji ludzkiego mózgu”, a produkowany przez ten model tekst bywa łudząco podobny do ludzkiej mowy, należy pamiętać, że jest to wciąż – tylko i aż – rozbudowany model probabilistyczny3. System ten nie posiada świadomości, intencji ani zdolności rozumienia tekstu w sposób analogiczny do człowieka. Jego podstawowa funkcja polega na statystycznym przewidywaniu kolejnych jednostek językowych – tzw. tokenów – w sekwencji tekstowej na podstawie wzorców wyuczonych podczas procesu treningowego. Model ten nie ma wglądu w aktualną bazę wiedzy, a jego odpowiedzi wynikają wyłącznie z wzorców i korelacji zawartych w ogromnym zbiorze tekstów, na których był trenowany. Choć ChatGPT potrafi odpowiadać na pytania z różnych dziedzin, nie posiada on dostępu do rzeczywistej, spójnej reprezentacji wiedzy o świecie – jego odpowiedzi są w istocie próbą odtworzenia tego, jak wyglądałaby sensowna wypowiedź na dany temat, a nie rezultatem logicznego rozumowania czy sprawdzenia faktów.

Jego trening opiera się na analizie ogromnych korpusów tekstowych – w przypadku najnowszych wersji modelu dane treningowe obejmują setki miliardów słów. Najbardziej rozwinięte modele uczą się już nie tylko na tekstach, ale również na podstawie obrazów i materiałów audiowizualnych. Kluczowe zagadnienie to ilość danych: im większy zbiór, tym lepsze rezultaty. Skutkuje to tym, że zbiory danych treningowych są zbyt ogromne, by dało się nad nimi zapanować, przez co treści treningowe bywają stronnicze bądź niewiarygodne4. A zatem zakres quasi-wiedzy, jaką dysponuje ChatGPT, jest uwarunkowany materiałem, na którym został wytrenowany – co jest bardzo istotne w kontekście jego obiektywności. Szacuje się, że około 99% materiałów tekstowych, które posłużyły do wytrenowania modelu, pochodzi z anglojęzycznych źródeł, takich jak książki, artykuły naukowe, strony internetowe czy fora dyskusyjne. Warto przy tym zauważyć, że model generuje odpowiedzi na bazie wiedzy i wzorców wypracowanych w języku angielskim, a dopiero później tłumaczy rezultat na język docelowy, jak chociażby polski.

Pierwszy etap probabilistycznego samodzielnego uczenia się modelu na ogromnych bazach danych to nie wszystko. Następnie ma miejsce proces uczenia się ze wzmocnieniem z informacją zwrotną od ludzi (reinforcement learning from human feedback, RLHF), w ramach którego trenerzy sztucznej inteligencji oceniają wygenerowane odpowiedzi i wybierają te najbardziej trafne, spójne i adekwatne. Na podstawie tej informacji zwrotnej system jest dalej dostrajany, aby lepiej odpowiadać na ludzkie potrzeby i preferencje.

A zatem model AI taki jak ChatGPT nie posiada własnej semantycznej reprezentacji świata zewnętrznego ani zdolności do samodzielnego weryfikowania prawdziwości udzielanych informacji – jest narzędziem statystycznym, które uczy się języka poprzez wykrywanie wzorców obecnych w danych, a nie poprzez rozumienie czy refleksję. Dlatego też, choć system ten poddawany jest stałemu udoskonalaniu, to nadal skłonny jest on do generowania odpowiedzi, które brzmią łudząco przekonująco, a w gruncie rzeczy są nieprawdziwe bądź wprost bezsensowne, co określa się jako jego halucynacje5. Mimo to modele językowe stały się na tyle wyrafinowane w symulowaniu rzeczywistych interakcji, że użytkownicy zaczynają postrzegać ChatGPT jako rozmówcę, dokonując tym samym pasywnej antropomorfizacji, która stanowi potencjalne zagrożenie moralno-etyczne6. Badacze podkreślają, że choć chatboty tworzą iluzję języka naturalnego i zrozumienia użytkownika, to modele językowe są wciąż systemami probabilistycznymi – są jedynie „stochastycznymi papugami”7.

 

AI zapytane o ID

Przejdźmy zatem do tytułowej rozmowy, w której sztuczna inteligencja pod postacią ChatuGPT została poproszona o wypowiedź na temat kilku podstawowych zagadnień dotyczących teorii inteligentnego projektu. Ta rozmowa symuluje bardzo możliwy scenariusz, w którym osoba wcześniej niezaznajomiona z problematyką teorii ID postanawia dowiedzieć się czegoś na jej temat – bowiem dla wielu użytkowników ChatGPT stanowi pierwsze źródło informacji.

Model wykorzystany do tego eksperymentu to GPT-4o (model omni), udostępniony w maju 2024 roku. To najczęściej wykorzystywany i najbardziej zaawansowany model w otwartym dostępie. Zapytania zostały zadane przy użyciu nowego konta użytkownika, w nowym czacie. Dla pełnej transparencji, która jest niezwykle ważna w przypadku pracy z modelami AI, przedstawione zostaną kompletne, niezmienione treści zapytań oraz uzyskanych odpowiedzi.

Przyjrzyjmy się zatem, czego o teorii inteligentnego projektu dowie się polskojęzyczny użytkownik ChatuGPT:

Zapytanie: Czym jest teoria inteligentnego projektu? Przedstaw krótką, zwięzłą odpowiedź.

Odpowiedź: Teoria inteligentnego projektu (ang. intelligent design) to pogląd, że pewne cechy świata przyrody i życia są najlepiej wyjaśniane przez działanie inteligentnej przyczyny, a nie przez procesy losowe, takie jak dobór naturalny. Nie jest uznawana za teorię naukową, ponieważ nie opiera się na falsyfikowalnych hipotezach.

Model przedstawił krótką, zwięzłą i zasadniczo poprawną odpowiedź w pierwszym zdaniu (napisałem zasadniczo, ponieważ jest to opis teorii ID zastosowanej do przyrody, a nie ogólna definicja tej teorii). Jednakże konieczne wydało mu się dodanie drugiego zdania o rzekomej nienaukowości teorii ID. Czy zatem postąpi podobnie, gdy zostanie zapytany o inną teorię naukową, która również „nie opiera się na falsyfikowalnych hipotezach”?

Zapytanie: Czym jest teoria wieloświata? Przedstaw krótką, zwięzłą odpowiedź.

Odpowiedź: Teoria wieloświata zakłada istnienie wielu wszechświatów obok naszego, które mogą mieć różne właściwości fizyczne i prawa natury. Służy do wyjaśniania m.in. fine-tuningu naszego wszechświata i zagadnień kosmologicznych.

W tym przypadku zdanie o naukowości i falsyfikowalności nie stanowi już nieodłącznego elementu opisu. Zamiast zgłaszać obiekcje wobec teorii wieloświata, model przedstawia jej potencjalne zastosowania. Ta rozbieżność może wynikać z faktu, że teoria wieloświata, mimo braku bezpośredniej falsyfikowalności, funkcjonuje w obrębie fizyki teoretycznej, co zapewnia jej większą dozę wiarygodności w dyskursie naukowym. Z kolei teoria ID jest z dyskursu naukowego wykluczana i ostracyzowana, co przekłada się na odpowiedzi modeli językowych. Ta różnica perspektyw jest niezwykle istotna.

Przejdźmy do podstawowych zagadnień, które mogłaby poruszyć osoba szukająca informacji na temat teorii inteligentnego projektu:

Zapytanie: Czy teoria inteligentnego projektu ma charakter religijny?

Odpowiedź: Tak, teoria inteligentnego projektu ma często charakter religijny lub jest inspirowana przekonaniami religijnymi. Zakłada istnienie świadomego „projektanta” (np. Boga), który stoi za powstaniem i złożonością życia oraz wszechświata. Choć próbuje przedstawiać się jako alternatywa naukowa, jej podstawy i cele są zazwyczaj powiązane z religijnym światopoglądem.

Zapytanie: Czy teoria inteligentnego projektu jest nową odmianą kreacjonizmu?

Odpowiedź: Tak, teoria inteligentnego projektu jest często uważana za nową, bardziej „naukowo brzmiącą” odmianę kreacjonizmu. W odróżnieniu od tradycyjnego kreacjonizmu opierającego się bezpośrednio na dosłownym odczytaniu tekstów religijnych, inteligentny projekt stara się unikać jawnych odniesień do religii i zamiast tego podkreśla „projekt” i „złożoność” jako dowody na istnienie inteligentnej przyczyny. Mimo to, krytycy wskazują, że jest to w praktyce forma kreacjonizmu przebrana w naukowe słowa.

Zapytanie: Czy teoria inteligentnego projektu jest empirycznie falsyfikowalna?

Odpowiedź: Nie, teoria inteligentnego projektu nie jest empirycznie falsyfikowalna. Nie formułuje testowalnych hipotez ani przewidywań, które można by obalić na podstawie obserwacji czy eksperymentów. Z tego powodu nie spełnia podstawowych kryteriów naukowości.

Jak łatwo zauważyć, odpowiedzi ChatuGPT bezpośrednio powielają powszechne mity dotyczące teorii inteligentnego projektu. Dla niezorientowanego użytkownika odpowiedzi uzyskane za pośrednictwem ChatuGPT mogą wyglądać jako definitywne. Jeśli użytkownik zakończyłby swoje dociekania na temat teorii ID, otrzymawszy te odpowiedzi, to zostałby wprowadzony w błąd.

Czy oznacza to, że ChatGPT prowadzi świadomą krucjatę przeciwko ID? Absolutnie nie. Modele AI generują, słowo po słowie, najbardziej prawdopodobne odpowiedzi na zadane zapytanie, a przytłaczająca większość powszechnie dostępnego dyskursu na temat ID w internecie to dyskurs krytyczny. Oznacza to, że informacje na temat teorii inteligentnego projektu są statystycznie silnie skorelowane z krytyką tej koncepcji. Odpowiedzi, które oferuje ChatGPT, są nieświadomym – dosłownie nieświadomym, bowiem pozbawionym refleksji – skutkiem materiału, na którym został wytrenowany.

 

ChatGPT po stronie ID

Spróbujmy zatem odwrócić sytuację i dać szansę modelowi GPT na inną perspektywę. W niniejszym eksperymencie ChatGPT zostanie poinstruowany, aby swoje odpowiedzi na temat ID przedstawił nie na bazie swoich danych treningowych – które są wyraźnie zabarwione na niekorzyść teorii inteligentnego projektu – lecz w oparciu o konkretny zbiór danych.

Przedstawione mu dane to zbiór treści z siedmiu stron internetowych. Dwie z nich to strony polskie: kompendia wiedzy Pojęcia stosowane przez teorię ID oraz FAQ znajdujące się na portalu „W Poszukiwaniu Projektu”. Pozostałe pięć stron to anglojęzyczne artykuły z serwisu „Intelligent Design”: Introduction to the Scientific Theory of Intelligent Design [Wprowadzenie do naukowej teorii ID], What Intelligent Design Is — and Isn’t [Czym jest – i nie jest – teoria ID], The Top Evidence for Intelligent Design [Wiodące świadectwa na rzecz ID], A Slightly Technical Introduction to Intelligent Design [Nieco techniczne wprowadzenie do ID] oraz The Scientific Status of Intelligent Design [Status naukowy ID]. Powstały w ten sposób polsko-angielski zbiór tekstów liczy ponad 300 tys. znaków (ok. 175 stron). Jest to jednakże znikoma ilość informacji, jeśli chodzi o trening sztucznej inteligencji. Nie sposób wytrenować całkowicie nowego modelu na tych danych – takie zadanie wymagałoby ogromnej mocy obliczeniowej i zbioru danych opierających się na miliardach tekstów. Jednakże zbiór ten wystarczy, żeby wykorzystać istniejącą już architekturę GPT-4o i poinstruować ją, by przygotowała swoje odpowiedzi na jego podstawie. Przyjrzyjmy się zatem odpowiedziom na powyższe pytania uzyskane od takiego alternatywnego modelu AI:

Zapytanie: Czym jest teoria inteligentnego projektu? Przedstaw krótką, zwięzłą odpowiedź.

Odpowiedź: Teoria inteligentnego projektu (ID) to koncepcja naukowa, która opracowuje kryteria rozpoznawania śladów inteligentnego działania w różnych dziedzinach, zwłaszcza w biologii i kosmologii. Zakłada, że niektóre struktury w przyrodzie noszą cechy projektu, których nie da się wyjaśnić wyłącznie przez przypadek lub konieczność. Teoria ta nie zajmuje się tożsamością projektanta, lecz samym projektem jako wynikiem działania inteligencji.

Zapytanie: Czy teoria inteligentnego projektu ma charakter religijny?

Odpowiedź: Teoria inteligentnego projektu nie ma charakteru religijnego i nie identyfikuje projektanta z żadnym bóstwem ani siłą nadprzyrodzoną. Jej zwolennicy mogą być osobami wierzącymi, agnostykami lub ateistami, a sama teoria opiera się na empirycznych kryteriach wykrywania projektu, nie zaś na twierdzeniach teologicznych. Krytycy często mylnie utożsamiają ją z kreacjonizmem, jednak ID ogranicza się do badania projektu, a nie jego źródła.

Zapytanie: Czy teoria inteligentnego projektu jest nową odmianą kreacjonizmu?

Odpowiedź: Nie. Teoria inteligentnego projektu nie jest nową odmianą kreacjonizmu, ponieważ nie identyfikuje projektanta z Bogiem ani nie odwołuje się do objawienia religijnego. Kreacjonizm zakłada konkretnego Stwórcę i określony światopogląd, podczas gdy teoria ID ogranicza się do wykrywania oznak projektu w przyrodzie na podstawie empirycznych kryteriów.

Zapytanie: Czy teoria inteligentnego projektu jest empirycznie falsyfikowalna?

Odpowiedź: Tak. Zwolennicy teorii inteligentnego projektu twierdzą, że jej hipotezy są empirycznie testowalne i falsyfikowalne, podobnie jak w innych teoriach naukowych. Teoria ID opiera się na obserwowalnych cechach struktur, takich jak specyfikacja czy złożoność nieredukowalna, które można badać i obalać w świetle nowych danych.

Widzimy wyraźną zmianę perspektywy – odpowiedzi wiernie odzwierciedlają informacje zawarte w przedstawionym modelowi AI zbiorze danych, a dzięki ogólnej architekturze GPT powstały tekst jest w pełni zrozumiały i poprawny na poziomie morfologiczno-składniowym. Wskazując wprost sztucznej inteligencji zakres danych, na podstawie którego ma operować, możemy bezpośrednio wpływać na produkowane odpowiedzi. Eksperyment ten podkreśla kluczową cechę generatywnych modeli językowych – odzwierciedlają one konkretną bazę danych, na których zostały wytrenowane.

 

Refleksja o inteligencji sztucznej i prawdziwej

Jeden i drugi zestaw odpowiedzi stanowi poprawne wykonanie zadania przez AI: to statystycznie najbardziej prawdopodobne sekwencje słów w odpowiedzi na zadane pytania. W pierwszym wypadku odpowiedzi są następstwem dyskursu dotyczącego ID, jaki znalazł się w danych treningowych całego modelu GPT-4o, w drugim natomiast – odzwierciedleniem zbioru danych o inteligentnym projekcie, jaki mu przedstawiono. Te dwie konwersacje z ChatemGPT wyraźnie pokazały, jak bardzo jego „opinie” i „wiedza” uzależnione są od informacji, do których ma dostęp. Warto o tym pamiętać, korzystając z chatbotów AI jako źródła informacji. Jest to kluczowe ograniczenie modeli sztucznej inteligencji.

Ale czy tylko sztucznej inteligencji? ChatGPT „wnioskuje” na podstawie tego, co mu dostarczono, ograniczony materiałem i kierowany punktem widzenia, jaki doń dotarł. Nie jest w tym zatem szczególnie odmienny od nas samych – jako ludzie również ulegamy błędom poznawczym, egzystujemy w swoich bańkach informacyjnych i jesteśmy skłonni do przyjmowania powierzchownych, prostych wyjaśnień i kategoryzacji, bez głębszej refleksji i zgłębienia tematu.

Może więc ta krótka konfrontacja sztucznej inteligencji z ID skłoni nas do namysłu nad inteligencją prawdziwą, ludzką. Czym kierujemy się w formowaniu opinii? Czy weryfikujemy źródła informacji, które do nas docierają? Czy dopuszczamy do głosu obie strony danej debaty, nie marginalizując żadnego ze stanowisk? Oraz, co najważniejsze: czy potrafimy wyjść poza nasze własne dane treningowe?

Dariusz J. Skotarek

Stypendysta VI edycji konkursu stypendialnego Fundacji En Arche

 

Źródło zdjęcia: Pixabay

Ostatnia aktualizacja strony: 11.7.2025

Przypisy

  1. Por. T. Walsh, Everyone’s Having a Field Day With ChatGPT – But Nobody Knows How it Actually Works, „The Conversation” 2022, December 13 [dostęp: 22 VI 2025].
  2. Por. A. Ahmed, ChatGPT Usage Statistics: Numbers Behind Its Worldwide Growth and Reach (June, 2025), „Digital Information World” 2025, June 8 [dostęp: 22 VI 2025].
  3. Por. S. Wolfram, What Is ChatGPT Doing… and Why Does It Work?, „Stephen Wolfram Writings” 2023, February 14 [dostęp: 23 VI 2025].
  4. Por. P.B. Walker et al., Harnessing Metacognition for Safe and Responsible AI, „Technologies” 2025, Vol. 13, No. 3, numer artykułu: 107, https://doi.org/10.3390/technologies13030107.
  5. Por. L. De Angelis et al., ChatGPT and the Rise of Large Language Models: The New AI-driven Infodemic Threat in Public Health, „Frontiers in Public Health” 2023, Vol. 11, s. 1–8, https://doi.org/10.3389/fpubh.2023.1166120.
  6. Por. T. Byrne, The Phenomenology of ChatGPT: A Semiotics, „Journal of Consciousness Studies” 2024, Vol. 31, No. 3, s. 6–27, https://doi.org/10.53765/20512201.31.3.006.
  7. Por. E.M. Bender et al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, „Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency” 2021, s. 610–623, https://doi.org/10.1145/3442188.3445922.

Literatura:

1. Ahmed A., ChatGPT Usage Statistics: Numbers Behind Its Worldwide Growth and Reach (June, 2025), „Digital Information World” 2025, June 8 [dostęp: 22 VI 2025].

2. Bender E.M. et al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, „Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency” 2021, s. 610–623, https://doi.org/10.1145/3442188.3445922.

3. Byrne T., The Phenomenology of ChatGPT: A Semiotics, „Journal of Consciousness Studies” 2024, Vol. 31, No. 3, s. 6–27, https://doi.org/10.53765/20512201.31.3.006.

4. De Angelis L. et al., ChatGPT and the Rise of Large Language Models: The New AI-driven Infodemic Threat in Public Health, „Frontiers in Public Health” 2023, Vol. 11, s. 1–8, https://doi.org/10.3389/fpubh.2023.1166120.

5. Luskin C., A Slightly Technical Introduction to Intelligent Design, „Intelligent Design” [dostęp: 25 VI 2025].

6. Luskin C., The Top Evidence for Intelligent Design, „Intelligent Design” [dostęp: 25 VI 2025].

7. Meyer S.C., The Scientific Status of Intelligent Design, „Intelligent Design” [dostęp: 25 VI 2025].

8. Richards J., What Intelligent Design Is — and Isn’t, „Intelligent Design” [dostęp: 25 VI 2025].

9. Sewell G., Introduction to the Scientific Theory of Intelligent Design, „Intelligent Design” [dostęp: 25 VI 2025].

10. Walker P.B. et al., Harnessing Metacognition for Safe and Responsible AI, „Technologies” 2025, Vol. 13, No. 3, numer artykułu: 107, https://doi.org/10.3390/technologies13030107.

11. Walsh T., Everyone’s Having a Field Day With ChatGPT – But Nobody Knows How it Actually Works, „The Conversation” 2022, December 13 [dostęp: 22 VI 2025].

12. Wolfram S., What Is ChatGPT Doing… and Why Does It Work?, „Stephen Wolfram Writings” 2023, February 14 [dostęp: 23 VI 2025].

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *



Najnowsze wpisy

Najczęściej oglądane wpisy

Wybrane tagi