Sztuczna inteligencja i zaufanie, jakim jest obdarzana, budzą nasz niepokój. Powinniśmy jednak zacząć się martwić czymś znacznie poważniejszym.
Coraz bardziej rosną moje obawy o to, w którym kierunku zdąża kierowana sztuczną inteligencją automatyzacja. Co tydzień otrzymuję mnóstwo ofert pracy na Linkedln, WhatsApp i na e-mail. Niektóre pochodzą od wielkich korporacji, inne od początkujących firm oferujących mi „wymarzone stanowisko”. Od pewnego czasu coraz trudniej jest przewidzieć, które oferty są prawdziwe. Czy stoją za nimi ludzie? Czy też AI?
Grube ogony i problem optymalizacji AI
W większości toczonych współcześnie dyskusji zakłada się po prostu, że AI jest mądra, a staje się coraz mądrzejsza – i ostatecznie albo nas zastąpi, albo uczyni superludźmi. Problem w tym, że, no cóż, tak się nie dzieje. Podczas gdy martwimy się o (całkiem prawdziwe) kwestie dotyczące zaufania i stronniczości, oddajemy ogromną filozoficzną i poznawczą przestrzeń systemom, które sami zbudowaliśmy. Mówiąc szczerze, jest to głupie. Dlatego właśnie postanowiłem o tym napisać, by to wyjaśnić.
Koncepcja grubych ogonów (czyli znaczących, nietypowych zdarzeń wykraczających poza normalny rozkład) powinna znaleźć się w centrum naszych rozważań dotyczących AI. Tak, najprawdopodobniej słyszeliście już odwołujące się do „krzywej dzwonowej”1 argumenty przeciwko uczeniu się maszyn funkcjonujących dzięki AI. Uchwycenie idei statystycznych średnich nie jest wystarczające.
Niektórzy moi koledzy, słysząc to, natychmiast zaczynają dyskusję na temat nowej AI, która zdoła uchwycić nietypowe przypadki. Nie o to jednak chodzi w kwestii inteligencji, dlatego ich dyskusje są raczej powierzchowne (przepraszam, ale taka jest prawda). Zdarzenia nietypowe – czyli te określane mianem grubego ogona – nie są wyłącznie sporadycznym zbiegiem okoliczności, chociaż tym także są.
To właśnie tego typu zdarzenia są polem do popisu dla inteligencji. Świat nie funkcjonuje na zasadzie statystycznych średnich i w rzeczywistości to właśnie owe dziwne nieprawidłowości tworzą środowisko, w którym operuje naturalna inteligencja. Nieco to ironiczne i smutne, że przyszłości inteligencji doszukujemy się w działających w oparciu o „krzywą dzwonową” maszynach, podczas gdy ten rodzaj optymalizacji jest tym jedynym „pewnym zwycięzcą”, który na pewno przegra.
Fortuna to nie algorytm
Przedstawię krótki i prawdopodobnie powszechnie znany przykład z historii nauki. W 1928 roku młody szkocki bakteriolog Alexander Fleming (1881–1955), powróciwszy z urlopu do swego laboratorium, odkrył, że na jednej z szalek Petriego2 rośnie coś nieoczekiwanego. Pleśń zanieczyściła kultury bakterii gronkowca, nad którymi właśnie pracował. Zamiast jednak je wyrzucić, Fleming zaczął się im przyglądać i zauważył coś niezwykłego: bakterie znajdujące się w pobliżu pleśni obumarły. Dzięki jednemu z największych szczęśliwych zbiegów okoliczności we współczesnej nauce bakteriolog zauważył niezaplanowaną interakcję i odkrył pierwszy prawdziwy antybiotyk – penicylinę.
Powód, dla którego my, ludzie, możemy czuć się pełni optymizmu dzięki tak napawającym dumą momentom, jest prosty, a mimo to niemal nigdy nie skupiamy na nim naszej uwagi: maszyny nie potrafią dynamicznie oddziaływać ze swoim środowiskiem w sposób, jaki charakteryzuje biologiczną inteligencję. Odkrycie dokonane przez Fleminga nie było jedynie rozwiązaniem problemu – było ono wynikiem nieustannej interakcji z otoczeniem oraz wnioskowaniem opartym na zupełnie nieoczekiwanej obserwacji. Jedynym celem dużych modeli językowych jest dostarczenie statystycznie najlepszej odpowiedzi, innymi słowy takiej, której oczekujemy.
Fortuna czy też przypadek zakorzenione są w ludzkim rozumowaniu poznawczym w sposób, jakiego maszyny, zależne od pierwotnie ustalonych danych, zwyczajnie nie potrafią naśladować. To twierdzenie ma ogromne znaczenie, ponieważ nasuwa wniosek, że myślimy o czymś linearnie: tak że zdecydowanie najważniejszym spostrzeżeniem jest to najbardziej niejasne.
Pozwolę sobie przedstawić tę kwestię nieco inaczej. Nasza inteligencja nie jest wyposażona w „czarną skrzynkę”, która zwyczajnie odtwarza coś uprzednio wyuczonego. Nasze mózgi uzyskują wiedzę dynamicznie, oddziałując ze środowiskiem w sposób, który nieustannie stwarza niedające się przewidzieć okazje do uchwycenia czegoś. Zapewne dość zużytym, lecz doskonale to obrazującym przykładem jest Albert Einstein: zerkając w pociągu na znajdujący się za sobą zegar i kontemplując czas – rozmyślał o fizyce. Jaki miałoby to sens w aspekcie optymalizacji pewnej funkcji na zbiorze danych?
Chwile podobne do tych – które Grecy nazywali fortuną3, a które my zwiemy szczęściem lub przypadkiem – nie są wyłącznie czymś przydatnym, lecz stanowią integralną cechę naszej inteligencji. Niekiedy uzyskujemy głębszy wgląd dzięki snom – tak jak w przypadku odkrycia cząsteczki benzenu – a kiedy indziej dzięki temu, że ktoś upuścił mleko na podłogę lub też wpadła z wizytą mama czy cokolwiek innego się wydarzyło. Niemal nic, co posiadałoby jakieś znaczenie, nie powstało za sprawą bezmyślnego przetwarzania zestawu danych.
Wystrzegajcie się fałszywych proroków, AI nie zmierza w kierunku „SAI”4.
Nie da się przecenić różnic kognitywnych. Ludzka inteligencja ujawnia się dzięki temu, że jesteśmy głęboko zakorzenieni w naszym środowisku – jest to oparta na nieustannej interakcji relacja przyczynowo-skutkowa, która daje nam stałą przewagę. Model maszyny, niezależnie od tego, jak dobrze wytrenowany, nie jest w stanie operować w obrębie owego dynamicznego systemu. Nie tylko nie uzyska wiedzy w czasie rzeczywistym, lecz dodatkowo nie potrafi wnioskować ze zdarzeń nietypowych, lecz wyłącznie z tych najbardziej oczekiwanych. Używam dużych modeli językowych, by pozyskać fakty i liczby, które nie przychodzą mi do głowy – nie jestem kalkulatorem. Nie korzystam jednak z tych modeli, by usłyszeć coś interesującego. Im więcej mam do czynienia ze współczesną AI, tym bardziej zdaję sobie sprawę z tego, jak niewiele posunęliśmy się naprzód na przestrzeni ostatnich dziesięcioleci – biorąc pod uwagę prawdziwą inteligencję. Wciąż bawimy się maszynami i karmimy sami siebie mrzonkami.
Rozumowania abdukcyjne i myślenie dynamiczne
Podobna dynamika charakteryzowała zdarzenia mające miejsce podczas londyńskiej epidemii cholery w latach pięćdziesiątych XIX wieku. W owym czasie większość przekonana była, że cholera rozprzestrzenia się poprzez „miazmat” – morowe powietrze. Lekarz John Snow zauważył jednak, że ognisko epidemiczne w dzielnicy Soho koncentrowało się wokół jednej pompy wodnej. Hm. Wnioskując, że to woda, a nie powietrze przenosi chorobę, Snow dokonał abdukcyjnego przeskoku – zbiór powszechnie dostępnych danych skupiał uwagę na powietrzu. W rezultacie jego dochodzenia usunięto uchwyt pompy, a to powstrzymało epidemię i radykalnie poszerzyło nasze rozumienie rozprzestrzeniania się chorób.
Przełom, którego dokonał Snow, nie opierał się wyłącznie na zbiorze danych. Można powiedzieć więcej, ten przełom nie miał zasadniczo nic wspólnego z dostępnymi danymi.

Sedno sprawy
Dość regularnie angażuję się w obecnie toczące się dyskusje na temat AI i będę to czynił w przyszłości. Nieustannie odbywam rozmowy o AI – na temat tego, jak funkcjonuje ona teraz i czym może się stać w przyszłości. W dyskusjach tych zakłada się zazwyczaj, że AI znajduje się na jakiejś niedającej się zatrzymać drodze kognitywnego rozwoju, a obecnie powinniśmy postrzegać ją inaczej niż do tej pory i skupić się na zagadnieniach, takich jak stronniczość, zaufanie i etyka danych. Jasne, jest to zupełnie zrozumiałe. Potrzebujemy systemów, którym możemy ufać. Nikt jednak nie dostrzega znajdującego się w pokoju 363-kilogramowego goryla: prawdziwą inteligencję można odkryć, odżegnując się od wielkich zbiorów danych i od norm statystycznych. Tak, istnieją normy statystyczne i wykorzystujemy je przy wnioskowaniach. Nie chodzi o to, że tego typu wnioskowań nie ma, lecz raczej o to, że otrzymywana w ten sposób wiedza jest dalece niewystarczająca, aby zrozumieć, czym jest inteligencja. Wiemy, że sieci neuronowe radzą sobie z wzorcami, które krystalizują się w dostatecznie dużych zbiorach danych. Jednakże cały ten wysiłek ma niestety niewiele wspólnego z SAI. Dobra wiadomość jest taka, że ludzie – delikatnie rzecz ujmując – kiepsko radzą sobie z dostrzeganiem wzorców w wielkich masach danych, więc AI zawsze odgrywać będzie rolę w szerzej rozumianym procesie poznawczym.
Stworzyliśmy te systemy, by zoptymalizować znany nam świat. Jednak świat, który znamy, to zaledwie początek. Kiedy naukowcy przestaną obsesyjnie skupiać się na wyuczonych danych i zaczną zastanawiać się nad tą jedną cechą, która sprawia, że jesteśmy tym, kim jesteśmy: nad umiejętnością radzenia sobie z wyzwaniami, z którymi nigdy wcześniej nie mieliśmy do czynienia? Do tego czasu systemy AI będą nas gonić – a właściwie tylko udawać, że nas doganiają w grze, którą my gramy od pierwszego dnia.
Erik J. Larson
Oryginał: Why Human Intelligence Thrives Where Machines Fail, „Mind Matters” 2024, November 13 [dostęp: 10 IX 2025].
Przekład z języka angielskiego: Anna Wójcik, Jacek Uglik
Książka Erika Larsona Mit sztucznej inteligencji. Dlaczego komputery nie potrafią myśleć jak my dostępna jest w księgarni Fundacji En Arche.
Przypisy
- Krzywa dzwonowa, krzywa (rozkład) Gaussa jest to rozkład prawdopodobieństwa używany w statystyce. Wykres funkcji prawdopodobieństwa przybiera formę dzwonu. Por. A. Walanus, Krzywa dzwonowa, „StatSoft Polska” (przyp. tłum.).
- Wykonane ze szkła bądź przezroczystego tworzywa sztucznego naczynie laboratoryjne ogólnego przeznaczenia. Stosowane m.in. do hodowli mikroorganizmów (przyp. tłum.).
- W gruncie rzeczy Fortuna była boginią losu w mitologii rzymskiej (przyp. tłum.).
- AI – sztuczna inteligencja, a SAI – silnie sztuczna inteligencja. Ta druga symbolizuje hipotetyczny stan, w którym jej aktywność będzie przypominać działanie ludzkiego mózgu bądź wręcz będzie działać jak mózg człowieka (przyp. tłum.).
Literatura:
1. Walanus A., Krzywa dzwonowa, „StatSoft Polska” (przyp. tłum.).