Prawdziwy postęp w dziedzinie sztucznej inteligencji [AI – artificial intelligence] oznacza wykroczenie poza indukcję i analizę danych. Naukowcy muszą zacząć traktować poważnie „problem wiedzy zdroworozsądkowej”.
Młodszym pokoleniom, które wychowały się w erze internetu, wydać się może zaskakujące, że AI dużych zbiorów danych – AI wytrenowana, by dostosowywać programy informacyjne do indywidualnych zainteresowań użytkowników, rozpoznawać przyjaciół i twarze oraz rozmawiać z nami za pomocą dużych modeli językowych takich jak GPT – to zaledwie jeden ze sposobów użycia sztucznej inteligencji. Umiejętność korzystania z dużych zbiorów danych to nic nowego, przynajmniej w świetle obowiązujących w tej dziedzinie standardów. Sieci neuronowe (technicznie: sztuczne sieci neuronowe – SSN) pojawiły się już w latach czterdziestych XX wieku, a w latach pięćdziesiątych można ich było używać do prostych zadań. Zniknęły one następnie na większą część lat sześćdziesiątych i siedemdziesiątych. W latach osiemdziesiątych powstała istotna innowacja znana jako „propagacja wsteczna”, w owych czasach jednakże nie istniały wielkie zbiory danych, na których SSN mogłyby się uczyć. Sieci neuronowe ponownie popadły w niełaskę, ponieważ oparte na stałych zasadach propozycje, takie jak japoński „Projekt systemów komputerowych piątej generacji”, zdominowały nagłówki prasowe i pochłonęły dostępne fundusze tak rządowe, jak i korporacyjne.
Sieci neuronowe – a zatem „głębokie uczenie” – pojawiły się ponownie w drugiej dekadzie XXI wieku, kiedy prawo Moore’a (moc obliczeniowa komputerów podwaja się w cyklu dwuletnim) zadziałało niczym sterydy na sieci oparte na głębokim uczeniu. Nagle komputery miały dość mocy, by przetwarzać ogromne zestawy danych tekstowych lub graficznych. Informacje stały się powszechne i w większości dostępne bez ograniczeń w sieci. Owo połączenie mocy obliczeniowej komputerów, ogromnej ilości danych oraz AI jawi się teraz jako świętość, lecz naukowcy zajmujący się AI wiedzą (lub powinni wiedzieć), że jest ono wynikiem oportunistycznych i przypadkowych wyborów.
Granice indukcji
AI dużych zbiorów danych (napędzana danymi AI) opiera się na rodzaju wnioskowania zwanym indukcją. Naukowcy z dziedziny kognitywistyki zdają sobie sprawę, że indukcja jest bezużyteczna jako kompletny model ludzkiego rozumowania. Stosujemy także dedukcję, czyli wnioskowanie oparte na regułach1; stosujemy również pewien mniej znany rodzaj wnioskowania z zaobserwowanych zdarzeń o prawdopodobnych przyczynach, który nazywamy abdukcją. Wszystkie trzy rozumowania są niezbędne dla funkcjonującej na prawdziwie ludzkim poziomie AI. Współcześnie naukowcy zajmujący się AI nie pracują już nad dwoma ostatnimi sposobami rozumowania (poza nielicznymi godnymi uwagi wyjątkami), a zatem z góry wiemy, że możliwe pod szyldem „AI wielkich zbiorów danych” osiągnięcia będą ograniczone.
Duże modele językowe, takie jak GPT i ich zastosowania (jak czat GPT), nie są tu wyjątkiem. Choć czat GPT jest na tym polu prawdziwą innowacją (bazuje on na opublikowanej w 2017 roku – do pewnego stopnia przełomowej – pracy zatytułowanej Attention is All You Need2 [Uwaga jest wszystkim, czego potrzebujesz]), opiera się na przetwarzaniu dostępnych w sieci ogromnych ilości materiałów tekstowych. Najnowsza wersja czatu GPT używa dużych modeli językowych zwanych GPT-4, które mają zasadniczo niezależnie obliczanych 170 bilionów parametrów. Podczas „dekodowania” modelu GPT (czyli generowania następnego słowa do uzupełnienia polecenia) 170 bilionów parametrów, które czynią system elastycznym i potężnym, stanowi ogromne wyzwanie obliczeniowe – parametry są zmiennymi, a system musi znaleźć i dostroić wartości (wagi) wszystkich 170 bilionów parametrów.
Zaczyna nam już brakować wystarczającej mocy obliczeniowej, kończą się nam też dane. Według niektórych szacunków, koszty treningu dla dużych modeli językowych mogą do roku 2026 przekroczyć miliard dolarów, i to tylko przy założeniu, jak zwraca uwagę „The Economist”, że wcześniej nie zabraknie nam w sieci nadających się do treningu danych. Inne prognozy przewidują, że mniej więcej w tym samym czasie zostaną wyczerpane wysokiej jakości dane tekstowe. Co znamienne, dyrektor OpenAI Sam Altman, zaapelował o ostrożność, kiedy wypowiadając się na temat gigantycznych modeli AI, stwierdził: „Sądzę, że znajdujemy się na końcu epoki”3. Rzeczywiście. Możemy nigdy nie ujrzeć GPT-5, nie mówiąc już o GPT-100.
Duże modele językowe są zaledwie jednym z zastosowań AI. Co prawda dręczą je problemy skali, jak zostało to właśnie pokazane, lecz słusznie uznaje się je za ekscytujące osiągnięcie w popadającej niekiedy w stagnację dziedzinie badań. W innych istotnych obszarach badań, przykładowo samochodów autonomicznych, nie widać żadnych postępów. W roku 2016 ekscytacja bliskim pojawieniem się samochodów poziomu 5, czy też w pełni automatycznych, osiągnęła apogeum. Jednak do wczesnych lat dwudziestych naszego stulecia skończyło się to szaleństwo w mediach. Co takiego się stało?
W odróżnieniu od czatu GPT, działanie autonomicznych samochodów nie opiera się wyłącznie na pożeraniu ogromnych ilości słów z sieci. Kierowanie pojazdami wymaga adaptacji, ponieważ ma miejsce na zewnątrz, w świecie naturalnym, który nie jest uporządkowany za pomocą linków HTML. Litania dziwnych zdarzeń i problemów, które mogą się źle skończyć w przypadku autonomicznych systemów samochodowych, zwyczajnie nie ma końca. Krótka lista: częściowo nieczytelne (uszkodzone) znaki ograniczenia prędkości interpretowane jako znaki stopu (lub gorzej: jako zmiana kierunku), śmieci na drodze, różne zwierzęta błyskawicznie wyskakujące przed samochód (czy kierowca reaguje tak samo w przypadku psa, sarny i kurczaka?), zmieniające się warunki pogodowe, ulegająca zmianie widoczność w zależności od dziennych lub nocnych warunków, a także poprawna identyfikacja innych pojazdów i infrastruktury – wszystko to się odbywa w czasie rzeczywistym. Są to skrajne przypadki i jak dotąd dla w pełni autonomicznych samochodów są one, jak określił to „Forbes” w 2021 roku, „grubymi ogonami zagłady”4. Wątpliwe jest, by większa ilość danych mogła wszystkie te problemy rozwiązać. Nie jest też jasne, czy mogą one zostać rozwiązane dzięki poprawkom w obliczeniach. Czat GPT nie potrafi zrobić nic, co byłoby pomocne – nie można przenieść go poza sieć. W najbliższym czasie nie ujrzymy autonomicznych pojazdów. Gdzie podziały się nowatorskie pomysły, by wypuścić nowe autonomiczne Tesle na ulice miast i wsi? (A skoro już o tym mowa, to co stało się z planami wypuszczenia robota Rosie?5).
Problem wiedzy zdroworozsądkowej
Prawdziwy postęp w dziedzinie AI – nie mówiąc już o postępie na ludzką skalę – oznacza wykroczenie poza indukcję i analizę danych; jest to koncept, który powstał ponad dekadę temu i wciąż dojrzewa. Naukowcy i badacze z dziedziny AI muszą zacząć poważnie podchodzić do „problemu wiedzy zdroworozsądkowej”, tak by konkretne koncepcje i zrozumienie zależności przyczynowo-skutkowych zastąpiło monstertruckowe pożeranie danych. Funkcjonalne modele zdroworozsądkowego czy też przyczynowego rozumowania niemal na tym polu nie istnieją, w dużej mierze z powodu skali trudności problemów i tego, że na pierwszy rzut oka wydają się one nierozwiązywalne. Przyczynowość to świat na zewnątrz – spacerując na dworze, nie doświadczamy korelacji danych, doświadczamy zdarzeń wywołujących kolejne zdarzenia w niekończącej się splątanej sieci dynamicznych zmian. Zachęcanie badaczy do różnicowania metod – wiele owoców do zebrania – już od dawna nie przynosi pozytywnego skutku w kontekście interaktywnie oddziałującej z obszerniejszym światem AI, takiej jak autonomiczne samochody i miriady zastosowań z dziedziny robotyki. Nasz obecny ograniczony punkt widzenia nieustannie uniemożliwia rozpoczęcie owocnych dyskusji i zmian. Nie wszystko jest stroną internetową.
Steve Jobs wymyślił frazę „rowery dla umysłu”, by wyrazić potencjał komputerów osobistych (termin ukuty wcześniej przez Stewarta Branda). Współcześnie nasze „rowery dla umysłu” jedynie nas inwigilują, obdzierają z osobistych informacji i używają naszych danych – przetworzonych na scentralizowanych farmach serwerów – by wmanewrować nas w kliknięcie lub pozostanie na tej czy innej stronie internetowej. Jeśli AI ma się nam lepiej przysłużyć, będzie musiała porzucić uniwersalne podejście do każdego typu danych na korzyść różnorodnych, konkurujących metodologii, wspierających indywidualne inicjatywy oraz kreatywność naukowców, badaczy i wszystkich zainteresowanych. Świeże spojrzenie doprowadzić może do pojawienia się nowych możliwości.
Erik J. Larson
Oryginał: How Can We Make Genuine Progress on AI?, „Mind Matters” 2023, October 30 [dostęp: 5 IX 2025].
Przekład z języka angielskiego: Anna Wójcik, Jacek Uglik
Przypisy
- Por. E. Gurba, Błędy w rozumowaniu logicznym, popełniane przez dzieci i dorosłych, w: Komunikaty i argumenty, red. E. Żarnecka-Biały, I. Trzcieniecka-Schneider, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2002, s. 55 [53–62] (przyp. tłum.).
- Por. A. Vaswani et al., Attention is All You Need, „31st Conference on Neural Information Processing Systems” (NIPS 2017), Long Beach, CA, USA [dostęp: 23 VIII 2025]. Tytuł pracy nawiązuje do piosenki All You Need Is Love zespołu The Beatles (przyp. tłum.).
- Wypowiedź pochodzi z tekstu: Why AI Must Get Smaller, „The Economist” 2023, June 24, s. 64 (przyp. tłum.).
- L. Eliot, Whether Those Endless Edge Or Corner Cases Are The Long-Tail Doom For AI Self-Driving Cars, „Forbes” 2021, July 13 [dostęp: 23 VIII 2025] (przyp. tłum.).
- Nawiązanie do postaci gospodyni domowej robota z animowanego serialu Rodzina Jetsonów (przyp. tłum.).
Literatura:
1. Eliot L., Whether Those Endless Edge Or Corner Cases Are The Long-Tail Doom For AI Self-Driving Cars, „Forbes” 2021, July 13 [dostęp: 23 VIII 2025].
2. Gurba E., Błędy w rozumowaniu logicznym, popełniane przez dzieci i dorosłych, w: Komunikaty i argumenty, red. E. Żarnecka-Biały, I. Trzcieniecka-Schneider, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2002, s. 53–62.
3. Vaswani A. et al., Attention is All You Need, „31st Conference on Neural Information Processing Systems” (NIPS 2017), Long Beach, CA, USA [dostęp: 23 VIII 2025].
4. Why AI Must Get Smaller, „The Economist” 2023, June 24