Rozważany tutaj przykład, który ma zilustrować, jak należy określać wartość wyspecyfikowanej złożoności, zaczerpnąłem z podrozdziału 3.6 w drugim wydaniu książki Wnioskowanie o projekcie1. Załóżmy, że zaobserwowałeś, jak na drodze publicznej przejeżdża obok ciebie nieprzerwany szereg dziesięciu nowiuteńkich Chevroletów Malibu. W twojej głowie rodzi się pytanie: czy ten szereg dziesięciu nowiuteńkich Chevroletów Malibu to skutek przypadku?
W pierwszej chwili mógłbyś pomyśleć, że jest to chwyt reklamowy lokalnego dealera tych samochodów. W takiej sytuacji ten szereg samochodów byłby wynikiem projektu, a nie przypadku. Nie chcesz jednak wyciągać tego wniosku zbyt pochopnie. Może to po prostu szczęśliwy zbieg okoliczności. Jeśli to jednak prawda, to skąd możesz to wiedzieć? Być może ten zbieg okoliczności jest tak mało prawdopodobny, że nikt nie powinien się spodziewać, że takie zdarzenie zajdzie przypadkowo. W takiej sytuacji mało prawdopodobne byłoby nie tylko, że ty zaobserwujesz takie przypadkowe zdarzenie, lecz że zaobserwowałby je ktokolwiek. Na jakiej podstawie rozstrzygniesz więc, czy można sensownie oczekiwać, że ten szereg identycznych samochodów jest skutkiem przypadku?
Oczywiście będziesz musiał wiedzieć, ile było okazji do zaobserwowania tego zdarzenia. Oszacowano, że w 2019 roku po drogach całego świata poruszało się 1,4 miliarda pojazdów mechanicznych. Wliczają się w to pojazdy ciężarowe, ale dla uproszczenia załóżmy, że chodzi tylko o samochody osobowe. Chociaż te samochody poruszałyby się po wielu różnych typach dróg, a na niektórych z tych dróg ruch byłby tak słabo nasilony, że nigdy nie zaobserwowalibyśmy szeregu dziesięciu samochodów, a już tym bardziej samochodów tej samej marki i tego samego modelu, dajmy przypadkowi szansę i załóżmy, że mamy do czynienia z jednym ogromnym szeregiem 1,4 miliarda samochodów jadących zderzak przy zderzaku.
Nie wystarczy jednak wziąć pod uwagę statycznego układu wszystkich tych 1,4 miliarda samochodów. Samochody znajdują się w ruchu i stale zmienia się ich układ. Przyjmijmy więc, że samochody całkowicie zmieniają swój układ co każdą minutę i że mamy możliwość ujrzenia szeregu dziesięciu Chevroletów Malibu w dowolnym czasie w ciągu stu lat. W takiej sytuacji byłoby nie więcej niż 74 biliardy okazji do utworzenia nieprzerwanego szeregu dziesięciu Chevroletów Malibu.
Jakie więc jest prawdopodobieństwo tego zdarzenia, jeżeli uwzględnimy, że 1,4 miliarda samochodów wielokrotnie zmienia swój układ? Odpowiedź na to pytanie wymaga wiedzy o tym, ile marek i modeli samochodów znajduje się na drodze, a także jakie są ich względne proporcje (pomińmy kwestię geograficznego rozkładu różnych marek, co również jest istotne, ale wprowadza zbyteczne komplikacje z punktu widzenia naszej ilustracji). Gdybyśmy przyjęli niemożliwą sytuację, że wszystkie samochody na świecie to nowiuteńkie Chevrolety Malibu, to nie byłoby żadnego zbiegu okoliczności do wyjaśnienia. Wówczas każdy z 1,4 miliarda samochodów byłby identyczny i zaobserwowanie dziesięciu takich samochodów z rzędu byłoby zdarzeniem mającym prawdopodobieństwo równe 1, nawet pomimo faktu nieustannej zmiany ich układu.
W naszym przykładzie wyeliminowanie hipotezy przypadku wymaga jednak jeszcze czegoś więcej. Ujrzenie nieprzerwanego szeregu dziesięciu nowiuteńkich Chevroletów Malibu byłoby niewątpliwie czymś niezwykłym. Co jednak, gdybyś zaobserwował, że obok ciebie przejeżdża szereg dziesięciu nowiuteńkich czerwonych Chevroletów Malibu? Ponieważ miałyby one ten sam kolor, byłoby to jeszcze bardziej niezwykłe niż po prostu ujrzenie szeregu dziesięciu nowiuteńkich Chevroletów Malibu. Zauważmy przy tym, jak długości opisów są powiązane z prawdopodobieństwami: wzorzec „dziesięć nowiuteńkich czerwonych Chevroletów Malibu z rzędu” ma dłuższy opis niż wzorzec „dziesięć nowiuteńkich Chevroletów Malibu z rzędu”, ale temu pierwszemu wzorcowi odpowiada zdarzenie o mniejszym prawdopodobieństwie niż drugiemu. I odwrotnie – wzorzec „dziesięć nowiuteńkich Chevroletów z rzędu” ma krótszy opis niż wzorzec „dziesięć nowiuteńkich Chevroletów Malibu z rzędu”, ale pierwszemu wzorcowi odpowiada zdarzenie o większym prawdopodobieństwie niż drugiemu.
W tego typu przykładach dostrzegamy kompromis między długością opisu a prawdopodobieństwem opisywanego zdarzenia. Formułując argumenty na rzecz eliminacji hipotezy przypadku, chcielibyśmy mieć do czynienia z połączeniem krótkiego opisu i małego prawdopodobieństwa. Zazwyczaj jest jednak odwrotnie. Wzorcowi „dziesięć nowiuteńkich czerwonych Chevroletów Malibu z rzędu” odpowiada zdarzenie o mniejszym prawdopodobieństwie niż wzorcowi „dziesięć nowiuteńkich Chevroletów Malibu z rzędu”, ale długość opisu pierwszego wzorca jest nieco większa niż drugiego. Które z tych zdarzeń trudniej przypisać przypadkowi (albo, jak moglibyśmy powiedzieć, które z tych zdarzeń bardziej skłania do przeprowadzenia wnioskowania o projekcie)? Na podstawie szybkiego intuicyjnego osądu stwierdzimy, że spadek wartości prawdopodobieństwa jest ważniejszy od wzrostu długości opisu, a związku z tym prędzej wykluczylibyśmy hipotezę przypadku, gdybyśmy zaobserwowali dziesięć nowiuteńkich czerwonych Chevroletów Malibu z rzędu niż gdybyśmy ujrzeli szereg dziesięciu takich samochodów w dowolnym kolorze.
Wygląda więc na to, że prawdopodobieństwo i długość opisu znajdują się w stanie napięcia, ponieważ kiedy jedno rośnie, drugie maleje, a żeby można było wyeliminować hipotezę przypadku, zarówno prawdopodobieństwo, jak i długość opisu muszą być odpowiednio małe. To napięcie dostrzegamy, gdy porównujemy wzorzec „dziesięć nowiuteńkich Chevroletów Malibu z rzędu” z wzorcem „dziesięć nowiuteńkich Chevroletów z rzędu”, a jeszcze wyraźniej, gdy rozpatrujemy wzorzec „dziesięć Chevroletów z rzędu”. Ten ostatni wzorzec ma krótszą (mniejszą) długość opisu, ale jednocześnie znacznie większe prawdopodobieństwo. Intuicja podpowiada nam, że ten wzorzec w mniejszym stopniu skłania do przeprowadzenia wnioskowania o projekcie, ponieważ wzrost prawdopodobieństwa jest ważniejszy od spadku długości opisu. W gruncie rzeczy zaobserwowanie dziesięciu dowolnych modeli Chevroletów z rzędu wskutek przypadku nie jest bardzo niezwykłe, jeżeli weźmiemy pod uwagę samą liczbę Chevroletów na drogach, a już z pewnością w Stanach Zjednoczonych.
To jednak jeszcze nie wszystko. Dlaczego mielibyśmy skupiać się wyłącznie na Chevroletach Malibu? Co, gdybyśmy zmienili marki i modele i mówili o szeregach Hond Accord, Porche Carrera lub jakichkolwiek innych? Albo co, gdyby inna była liczba samochodów w szeregu? Zamiast 10 mogłoby ich być na przykład 9 lub 20. Takie pytania uzmysławiają, że sposoby wyspecyfikowania szeregu identycznych samochodów mogą być różne. Każdy taki szereg, gdybyśmy go zaobserwowali, ukazywałby wyrazisty wzorzec. Każdemu takiemu szeregowi odpowiadałaby specyfikacja, gdyby długość opisu była dostatecznie krótka. I każdy taki szereg mógłby zostać uwzględniony w argumencie na rzecz eliminacji hipotezy przypadku, gdyby dostatecznie małe były zarówno jego długość opisu, jak i prawdopodobieństwo. W tej sytuacji pełny argument na rzecz eliminacji hipotezy przypadku uwzględniałby wszystkie istotne zdarzenia o małym prawdopodobieństwie i małej długości opisu, równoważąc je w taki sposób, że kiedy jedno jest większe, drugie jest mniejsze.
Wiemy już, że powyższy przykład można ująć za pomocą kategorii stosowanych w teorii informacji. Spadek prawdopodobieństwa odpowiada wzrostowi informacji shannonowskiej, a wzrost długości opisu odpowiada spadkowi informacji kołmogorowskiej. Wyspecyfikowana złożoność, jako różnica tych dwóch typów informacji, ma więc następującą właściwość (zakładam – ponieważ to założenie jest sensowne – że niektóre elementy informatyki teoretycznej, takie jak nierówność Krafta, również są tutaj w przybliżeniu możliwe do zastosowania): jeśli wyspecyfikowana złożoność zdarzenia jest większa lub równa n bitom, to ogólne zdarzenie, składające się ze wszystkich zdarzeń o co najmniej takim samym stopniu wyspecyfikowanej złożoności, ma prawdopodobieństwo mniejsze lub równe 2(–n). Jest to ważne ustalenie, ponieważ zapewnia konceptualnie klarowny sposób wykorzystania koncepcji wyspecyfikowanej złożoności do eliminowania hipotez przypadku i wyprowadzania wniosków o projekcie.
W zasadzie, aby zrozumieć koncepcję wyspecyfikowanej złożoności, można rozważyć przykład łucznika, który w kołczanie ma określoną liczbę strzał i strzela do określonej liczby celów mających różne rozmiary, i zapytać, jakie jest prawdopodobieństwo, że któraś z tych strzał przypadkowo wyląduje w jednym z tych celów. Strzały w kołczanie odpowiadają złożoności, a cele – specyfikacjom. Po podniesieniu liczby 2 do ujemnej wartości wyspecyfikowanej złożoności jako wykładnika potęgi otrzymujemy ogólne prawdopodobieństwo, że którakolwiek z tych strzał przypadkowo trafi w którykolwiek z tych celów.
Zakończenie
Formalnie rzecz biorąc, wyspecyfikowana złożoność zdarzenia jest różnicą jego informacji shannonowskiej i informacji kołmogorowskiej. W ujęciu nieformalnym można powiedzieć, że wyspecyfikowana złożoność zdarzenia jest połączeniem dwóch właściwości, mianowicie tego, że zdarzenie ma małe prawdopodobieństwo i że długość jego opisu jest krótka. Formalnie mówimy o algorytmicznej wyspecyfikowanej złożoności, a nieformalnie – o intuicyjnym ujęciu wyspecyfikowanej złożoności. Zwykle jednak z kontekstu jest jasne, o jakim sensie terminu „wyspecyfikowana złożoność” jest mowa.
W niniejszej serii artykułów zdefiniowałem i uzasadniłem algorytmiczną wyspecyfikowaną złożoność. Nie przedstawiłem jednak rzeczywistych jej obliczeń. Obliczenia algorytmicznej wyspecyfikowanej złożoności w zastosowaniu do rzeczywistych przykładów znajdują się w podrozdziałach 6.8 oraz 7.6 w drugim wydaniu książki Wnioskowanie o projekcie. W podrozdziale 6.8 przeanalizowano przykłady różnego typu, natomiast w podrozdziale 7.6 omówiono przykłady biologiczne. W obu podrozdziałach wspólnie ze współautorem książki Winstonem Ewertem przeanalizowaliśmy przykłady, w których wyspecyfikowana złożoność ma niską wartość i nie umożliwia wyprowadzenia wniosku o projekcie, a także takie przykłady, w których wartość wyspecyfikowanej złożoności jest wysoka i umożliwia wyprowadzenie wniosku o projekcie.
Na przykład w podrozdziale 6.8 tak zwaną „Twarz na Marsie”, naturalną strukturę na Marsie, która przypomina twarz, skontrastowaliśmy z twarzami wyrzeźbionymi w Mount Rushmore. Argumentujemy, że stopień wyspecyfikowanej złożoności „Twarzy na Marsie” jest zbyt mały, by uzasadniał wniosek o projekcie, ale stopień wyspecyfikowanej złożoności twarzy wyrzeźbionych w Mount Rushmore jest naprawdę duży i uzasadnia wniosek o projekcie.
W podrozdziale 7.6 rozważyliśmy przykład wiązania się białek z ATP, biorąc za podstawę wyniki badań Athony’ego Keefego i Jacka Shostaka, i skontrastowaliśmy go z przykładem tworzenia się sfałdowań białkowych w beta-laktamazie, opierając się na wynikach badań Douglasa Axe’a. Argumentujemy, że stopień wyspecyfikowanej złożoności losowego wiązania się białek z ATP jest bliski zeru, a w istocie obliczyliśmy ujemną wartość wyspecyfikowanej złożoności, wynoszącą –4. Natomiast w przypadku ewoluowalności sfałdowań beta-laktamazy obliczyliśmy wartość wyspecyfikowanej złożoności równą 215, co odpowiada prawdopodobieństwu 2(–215), czyli w przybliżeniu 1 na 1065.
W każdej sytuacji oszacowujemy informację shannonowską oraz informację kołmogorowską i obliczamy ich różnicę. Zasadność tych szacunków i stopień, w jakim można je udoskonalić, podlega oczywiście dyskusji. Leżący u ich podstaw formalizm wyspecyfikowanej złożoności jest jednak solidny. Omówienie szczegółów tego formalizmu i jego zastosowań wykracza poza zakres niniejszej serii artykułów (zatytułowanej przecież Prostym językiem o koncepcji wyspecyfikowanej złożoności). Wszystkie te szczegóły znajdują się w drugim wydaniu książki Wnioskowanie o projekcie.
William A. Dembski
Oryginał: Specified Complexity Made Simple, „Bill Dembski: Freedom, Technology, Education” 2024, February 26 [dostęp: 2 VIII 2024].
Przekład z języka angielskiego: Dariusz Sagan
Przypisy
- Por. W.A. Dembski, W. Ewert, The Design Inference: Eliminating Chance Through Small Probabilities, 2nd ed., Discovery Institute Press, Seattle 2023, podrozdz. 3.6.
Literatura:
1. Dembski W.A., Ewert W., The Design Inference: Eliminating Chance Through Small Probabilities, 2nd ed., Discovery Institute Press, Seattle 2023.