Naukowcy pracujący nad sztuczną inteligencją [artifical intelligence – AI] twierdzą, że są na drodze do wytworzenia inteligencji. Jednakże prawdziwa inteligencja nadal pozostaje tajemnicą, a wiele zwierząt radzi sobie o wiele lepiej niż współczesna AI.
Niedawno dyrektor generalny OpenAI Sam Altman ponownie przyznał, że silna sztuczna inteligencja (SAI) – podobna do ludzkiej inteligencja maszyn – jest na wyciągnięcie ręki. Wypowiadając się dla „Bloomberga”, zasugerował, że proste zwiększenie skali podstawowych modeli takich jak czat GPT ostatecznie nas do niej doprowadzi: „Rozwój SAI nastąpi najprawdopodobniej za kadencji [Trumpa]”1 – przewidywał, zgodnie z tym, co przedstawiciele firmy OpenAI propagowali od czasu spektakularnego debiutu rynkowego czatów GPT w listopadzie 2022 roku. Post opublikowany w 2023 roku na blogu OpenAI wzmacniał to stanowisko: „pierwsza SAI będzie zaledwie punktem na continuum prowadzącym do inteligencji”2. Wizja ta jest przekonująca, aczkolwiek ma jedną poważną skazę: inteligencja, czymkolwiek jest, niemal z pewnością nie może być postrzegana jako continuum.
Jest całkowicie zrozumiałe, że ktoś dobrze poinformowany z kręgu osób z Doliny Krzemowej, mający tak wiele do stracenia, może w ten sposób formułować trajektorię rozwoju AI. Pogląd ten jednak staje się trudny do obrony, jeśli weźmiemy pod uwagę inny rodzaj inteligencji, który AI od początku w znacznej mierze omija: mowa o naturalnej inteligencji.
Co możemy powiedzieć o naturalnej inteligencji?
Jest oczywiste, że ludzie używają języka, a zatem konwersacyjna AI tworzy wrażenie inteligentnej. Jednakże podczas gdy czat GPT manipuluje symbolami, my używamy języka, by przekazywać wiadomości dotyczące świata wokół nas. Działamy w fizycznej, emocjonalnej i społecznej rzeczywistości, a modele AI mają do czynienia wyłącznie z abstrakcjami. Z tego też powodu, pomimo płynności wypowiedzi, duże modele językowe tworzą jedynie sprawiające wrażenie pewności nonsensowne fantasmagorie – nie posiadają one rzeczywistej łączności ze światem.
Naukowcy i przedsiębiorcy tacy jak Altman wciąż snują przypuszczenia na temat przyszłości AI. Zakładają, że wiemy, w którym miejscu na drodze rozwoju się znajdujemy, oraz (nieco mniej przekonująco) że zmierzamy w kierunku podobnej do ludzkiej inteligencji. Jednak inteligencja jako taka pozostaje tajemnicą. Psychologowie nie osiągnęli wiele więcej niż wskazanie na czynnik zwany „płynnym g”3, czyli rodzaj ulegającej adaptacji zdolności rozwiązywania problemów leżącej u podstawy zadań kognitywnych. Na to jednak, w jaki sposób powstaje i czym jest inteligencja, brak jak dotąd sformułowanej w naukowych definicjach odpowiedzi.
Gdyby kosmita wylądował na Ziemi i ocenił inteligencję ludzi oraz maszyn, mógłby się zdziwić, dowiadując się, że badania nad AI kwitną i pokłada się w nich nadzieję na zmiany cywilizacyjne – w oparciu przecież o niejasną definicję prawdziwej inteligencji. Bliższe przyjrzenie się królestwu zwierząt wzbudziłoby jeszcze więcej wątpliwości. Naturalna inteligencja (która jest daleko od bycia wyłącznie czymś, co „wzrasta” wraz z ilością danych i mocy obliczeniowej) w zależności od gatunków przejawia się bowiem w różny sposób.
To, co możemy określić terminem ekologicznej inteligencji, obejmuje szeroką gamę istot żywych – od pcheł do słoni. Jeśli inteligencja jest po prostu umiejętnością nawigowania i przetrwania w środowisku, wówczas najlepszym kandydatem na SAI nie jest oparta na bilionie parametrów sieć neuronowa, ale muszka owocówka.
Co muszka owocówka mówi nam na temat nawigacji
Znacząca dziedzina AI nazywana autonomiczną nawigacją definiuje inteligencję jako cokolwiek, co umożliwia pojazdowi bezpieczne prowadzenie samego siebie. Systemy te – bazujące na głębokich sieciach neuronowych rozwijanych w oparciu o uczenie się przez wzmacnianie – wykorzystują kombinację czujników (LIDAR4, kamer i radarów) do rozpoznawania przeszkód i planowania trasy. Dzięki wystarczającemu treningowi system potrafi opracowywać strategie bezpiecznego nawigowania nawet w chaotycznym otoczeniu.
Jeśli to miałaby być nasza definicja AI, powinniśmy zachwycić się skromną muszką owocówką (Drosophila melanogaster).
Niewielkie i wyposażone w mikromózgi muszki owocówki posiadają pozwalające na unikanie kolizji instynkty znacznie przewyższające systemy, które występują w jakimkolwiek samochodzie autonomicznym. W ułamku sekundy muszka owocówka wykrywa sygnały ruchowe, przewiduje trajektorie i wykonuje manewr wymijający. Badacze odkryli, że muszki owocówki wyliczają trasy ucieczki szybciej niż najwyższej klasy systemy widzenia komputerowego.
Jeśli w inteligencji chodzi o planowanie ruchu i błyskawiczne podejmowanie decyzji, wówczas muszki owocówki zasługują na własne finansowanie ze strony OpenAI.
Umysł ula oraz iluzja inteligencji rozproszonej
No i są jeszcze pszczoły. Jeśli posłuchamy entuzjastów AI, możemy uwierzyć, że dzięki wzajemnie połączonym sieciom neuronowym jesteśmy u progu wytworzenia „inteligencji umysłu ula”. Przyroda jednak dokonała tego pierwsza.
Funkcjonujące w kolonii pszczoły podejmują zdecentralizowane decyzje, które mogą konkurować ze skutecznością algorytmicznej optymalizacji. Poszukując nowego miejsca dla swojej kolonii, wykorzystują procedury kolektywnego głosowania, które obejmują taniec pszczół – formę symbolicznej komunikacji, która koduje odległość, kierunek i jakość potencjalnych lokalizacji. Co niezwykłe, decyzje te wyłaniają się z tysięcy prostych interakcji, bez udziału władzy centralnej.
Jeśli inteligencja polega na kolektywnym rozwiązywaniu problemów, to AI wciąż znajduje się na poziomie larwy pszczoły. W rzeczywistym świecie zbiorowa inteligencja roju jest skuteczna, łatwo się przystosowuje i okazuje się zachwycająco silna. Wersja sztucznej inteligencji? Grupa chatbotów przeszukujących Reddita5.
Wiewiórki: mistrzynie pamięci świata przyrody
Kolejną domenę, w której wyróżnia się AI, stanowi przechowywanie i odzyskiwanie danych. Naukowcy pracujący nad AI często mierzą inteligencję, odnosząc się do zdolności przechowywania nieprzebranych ilości informacji i przywracania ich, kiedy są potrzebne. Wektorowe bazy danych oraz wektorowe reprezentacje pozwalają modelom językowym na uzyskanie dostępu do ogromnych ilości danych, a także na korzystanie z zasobów obejmujących terabajty tekstów.
Taka umiejętność nie jest czymś niespotykanym w świecie zwierząt – poznajcie wiewiórkę.
Wiewiórka nie tylko gromadzi orzechy – ona nawet wiele miesięcy później pamięta, gdzie je schowała. Badania wykazały, że wiewiórki aktywnie angażują się w stosowanie zmyślnych forteli – udają6, że chowają orzechy, by zmylić potencjalnych złodziei. Owa zdolność efektywnego kodowania, przechowywania i odtwarzania informacji – bez potrzeby użycia wartych wiele miliardów dolarów centrów danych – jest niezwykłym osiągnięciem inżynierii pamięci.
Czym tak naprawdę jest „I” w AI?
Czego może z królestwa zwierząt nauczyć się AI? Po pierwsze tego, że inteligencja nie jest uniwersalnym, jednorodnym fenomenem. Sposób, w jaki nawigują muszki owocówki, metoda decyzyjna w kolonii pszczół, a także zasada, według której działa pamięć wiewiórek – to odmienne tryby poznawcze, ukształtowane w efekcie różnych presji ewolucyjnych.
Po drugie, zmusza to nas do podania w wątpliwość własnych założeń. Dominujący paradygmat AI – zwiększanie skali sieci neuronowych – zakłada, że więcej danych i mocy obliczeniowej doprowadzi ostatecznie do czegoś na podobieństwo ludzkiej inteligencji. Jeśli jednak naturalna inteligencja to spektrum, dlaczego w takim razie mamy zakładać, że podążanie jedną ścieżką – czyli oparte na statystyce i danych uczenie się – doprowadzi nas do SAI?
Prawdziwa inteligencja jest ucieleśniona. Istnieje w obrębie żywych i dynamicznie oddziałujących ze środowiskiem systemów. AI natomiast jest wyłącznie abstrakcją. Przewiduje ona sekwencje tekstu, a nie przyczyny czy skutki.
Czy zatem SAI jest w zasięgu ręki? Być może. Jeśli jednak czerpiemy wskazówki z przyrody, możemy osiągnąć więcej, sponsorując badania nad muszkami owocówkami.
Erik J. Larson
Oryginał: How Fruit Flies, Bees and Squirrels Beat Artificial Intelligence, „Mind Matters” 2025, March 23 [dostęp: 16 IX 2025].
Przekład z języka angielskiego: Anna Wójcik, Jacek Uglik
Źródło zdjęcia: Wikipedia
Ostatnia aktualizacja strony: 16.9.2025
Książka Erika Larsona Mit sztucznej inteligencji. Dlaczego komputery nie potrafią myśleć jak my dostępna jest w księgarni Fundacji En Arche.
Przypisy
- T. Pillay, How OpenAI’s Sam Altman Is Thinking About AGI and Superintelligence in 2025, „Time” 2025, January 8 [dostęp: 24 VIII 2025].
- S. Altman, Planning for AGI and Beyond, „Open AI” 2023, February 24 [dostęp: 24 VIII 2025].
- W psychologii „płynne g”, zwane też „płynną inteligencją”, oznacza „zdolność dostrzegania złożonych relacji i rozwiązywania problemów; mierzy się ją testami obejmującymi schematy blokowe i wizualizację przestrzenną; pojęcie opracowane przez Raymonda Cattella” (Słownik, PWN [dostęp: 24 VIII 2025] [przyp. tłum.]).
- LIDAR to skrót pochodzący od: „Light Detection and Ranging” i oznacza metodę pozwalającą wykrywać i mierzyć odległość z wykorzystaniem światła laserowego (przyp. tłum.).
- Reddit to platforma społecznościowa (https://www.reddit.com/), w obrębie której użytkownicy dzielą się w różnej formie rozmaitymi informacjami (przyp. tłum.).
- Por. E. Foster, 15 Squirrel Facts That Prove They’re Secret Geniuses, „Survival World” 2025, March 15 [dostęp: 24 VIII 2025].
Literatura:
1. Altman S., Planning for AGI and Beyond, „Open AI” 2023, February 24 [dostęp: 24 VIII 2025].
2. Foster E., 15 Squirrel Facts That Prove They’re Secret Geniuses, „Survival World” 2025, March 15 [dostęp: 24 VIII 2025].
3. Pillay T., How OpenAI’s Sam Altman Is Thinking About AGI and Superintelligence in 2025, „Time” 2025, January 8 [dostęp: 24 VIII 2025).
4. Słownik, PWN [dostęp: 24 VIII 2025].