Prostym językiem o koncepcji wyspecyfikowanej złożoności: wyspecyfikowana złożoność jako zunifikowana miara informacjiCzas czytania: 8 min

William A. Dembski

2024-07-31
Prostym językiem o koncepcji wyspecyfikowanej złożoności: wyspecyfikowana złożoność jako zunifikowana miara informacji<span class="wtr-time-wrap after-title">Czas czytania: <span class="wtr-time-number">8</span> min </span>

Wraz z publikacją pierwszego wydania książki Wnioskowanie o projekcie1 oraz jej kontynuacji, czyli książki Nic za darmo2, objaśnienie związku między wnioskowaniami o projekcie a teorią informacji stało się kwestią naglącą. To, że ten związek istnieje, było jasne. W epilogu pierwszego wydania książki Wnioskowanie o projekcie przedstawiłem w zarysie sposób, w jaki relacja między specyfikacjami a małym prawdopodobieństwem (złożonością) zdarzeń odzwierciedla transmisję wiadomości przez kanał komunikacyjny od nadawcy do odbiorcy. Co więcej, w książce Nic za darmo wyraźnie pisałem o informacji shannonowskiej i informacji kołmogorowskiej w powiązaniu z wyspecyfikowaną złożonością.

Chociaż jednak nawet w tym wcześniejszym sformułowaniu koncepcja wyspecyfikowanej złożoności wykorzystywała idee informacyjne, to wyspecyfikowana złożoność nie stanowiła wyraźnie zdefiniowanej miary informacji. Koncepcja wyspecyfikowanej złożoności była zlepkiem idei z logiki, statystyki i teorii informacji. Jay Richards, który był gościnnym redaktorem numeru specjalnego w czasopiśmie filozoficznym „Philosophia Christi”, poprosił mnie o objaśnienie związku między koncepcją wyspecyfikowanej złożoności a teorią informacji. Napisałem więc artykuł zatytułowany Specification: The Pattern That Signifies Intelligence3 [Specyfikacja – wzorzec wskazujący na inteligencję], który ukazał się w tym czasopiśmie w 2005 roku.

W tym artykule zdefiniowałem wyspecyfikowaną złożoność jako jedną miarę, która łączyła w sobie kluczowe elementy metody wnioskowania o projekcie, mianowicie małe prawdopodobieństwo, specyfikację, zasoby probabilistyczne i wszechświatowe granice prawdopodobieństwa. Zasadniczo – za pomocą tak zdefiniowanej miary – chciałem ująć całą metodologię wnioskowania o projekcie w jednym wyrażeniu matematycznym.

Z perspektywy czasu można powiedzieć, że wszystkie kluczowe elementy tego, co teraz jest w pełni rozwiniętym informacyjnym ujęciem wyspecyfikowanej złożoności, było już obecne w tym artykule. Ujęcie przedstawione w tym artykule można było jednak znacznie ulepszyć. Posłużyłem się miarą liczącą do wyliczenia wszystkich opisów o danej długości lub krótszych. Następnie zastosowałem do tej miary logarytm ujemny, dzięki czemu otrzymałem odpowiednik informacji kołmogorowskiej, który był tak uogólniony, aby obejmował minimalną długość opisu. Tak bardzo jednak skoncentrowałem się na ujęciu metodologii wnioskowania o projekcie, że w definicji wyspecyfikowanej złożoności role informacji shannonowskiej i informacji kołmogorowskiej były niejasne.

Mój artykuł z 2005 roku przeszedł bez echa – i nie ma się co temu dziwić, skoro przedstawiona w nim koncepcja nie była klarowna. Osiem lat później Winston Ewert, który ze mną i Robertem Marksem współtworzy Evolutionary Informatics Lab, niezależnie zdefiniował wyspecyfikowaną złożoność jako miarę informacji. Zasadniczo była to taka sama miara, jak w moim artykule z 2005 roku, ale Ewert klarownie wskazał rolę zarówno informacji shannonowskiej, jak i informacji kołmogorowskiej w definicji wyspecyfikowanej złożoności. Wspólnie z Ewertem i Marksem opublikowaliśmy artykuł zatytułowany Algorithmic Specified Complexity4 [Algorytmiczna wyspecyfikowana złożoność], a później publikowaliśmy prace dotyczące zastosowań idei zawartych w tym artykule (zobacz podstronę Evolutionary Informatics Lab, z której można pobrać nasze publikacje).

Dzięki Ewertowi wyspecyfikowana złożoność, jako miara informacji, stała się różnicą informacji shannonowskiej i informacji kołmogorowskiej. W zapisie symbolicznym wyspecyfikowana złożoność (SCspecified complexity) zdarzenia jest zdefiniowana jako SC(E) = I(E) – K(E). Termin I(E) w tym równaniu to po prostu (jak przekonaliśmy się w poprzednim artykule) informacja shannonowska, mianowicie I(E) = –log(P(E)), gdzie P(E) to prawdopodobieństwo E ze względu na jakąś istotną hipotezę przypadku. Termin K(E) w tym równaniu (w zgodzie z ustaleniami z poprzedniego artykułu) to niewielkie uogólnienie informacji kołmogorowskiej, w ramach którego K(E) przypisuje zdarzeniu E długość (wyrażoną w bitach) najkrótszego opisu, który ściśle identyfikuje E. Podstawą dla tego uogólnienia informacji kołmogorowskiej jest język binarny, bezprefiksowy i cechujący się kompletnością Turinga, który opisy sformułowane w tym języku odwzorowuje na identyfikowane przez nie zdarzenia.

Za słowami użytymi w poprzednim akapicie kryje się bardzo dużo treści i objaśnianie tego wszystkiego w serii artykułów zatytułowanej Prostym językiem o koncepcji wyspecyfikowanej złożoności byłoby bezcelowe. Ze szczegółami można zapoznać się w rozdziale 6 drugiego wydania książki Wnioskowanie o projekcie5. Warto jednak przedstawić klika kluczowych elementów, aby pokazać, że tak zdefiniowana SC ma doskonały sens jako zunifikowana miara informacji i nie stanowi jedynie zlepku informacji shannonowskiej i informacji kołmogorowskiej.

Za to, że informacja shannonowska i informacja kołmogorowska tworzą spójną całość w tej definicji wyspecyfikowanej złożoności, odpowiada dualizm zdarzeń-opisów. Zdarzenia (oraz tworzone przez nie obiekty i struktury) zachodzą w świecie. Opisy zdarzeń występują w języku. W związku z tym zdarzeniu E odpowiadają opisy D, które identyfikują E. Na przykład zdarzeniu otrzymania pokera królewskiego w kolorze kier odpowiada opis „poker królewski w kolorze kier”. Takie opisy nigdy nie są, rzecz jasna, unikatowe. To samo zdarzenie można opisać na wiele różnych sposobów. Wspomniane zdarzenie można na przykład opisać jako „pięć kart w pokerze: as kier, król kier, dama kier, walet kier i dziesiątka kier”. Ten drugi opis jest jednak trochę dłuższy niż pierwszy.

Dualizm zdarzeń-opisów prowadzi do następujących wniosków: (1) zdarzenie E o prawdopodobieństwie P(E) ma informację shannonowską I(E), którą mierzy się w bitach; (2) zważywszy na język binarny (wyrażany za pomocą bitów – a wszystkie języki da się wyrazić za pomocą bitów), dla każdego opisu D, który identyfikuje E, liczba bitów tworzących D (zdefiniowana w poprzednim artykule jako |D|) będzie nie mniejsza od informacji kołmogorowskiej E (która mierzy w bitach najkrótszy opis identyfikujący E). W związku z tym, skoro K(E) ≤ |D|, to wynika z tego, że SC(E) = I(E) – K(E) ≥ I(E) – |D|.

Najważniejsze tutaj jest to, że dzięki koncepcji wyspecyfikowanej złożoności informacja shannonowska i informacja kołmogorowska są współmierne. W koncepcji wyspecyfikowanej złożoności bity związane z minimalną długością opisu są odejmowane od bitów związanych z prawdopodobieństwem. Co więcej, oszacowując K(E), wykorzystujemy I(E) – |D| do określenia dolnej granicy wyspecyfikowanej złożoności. Wynika z tego, że wyspecyfikowana złożoność jest stopniowalna i może przyjmować wartości ujemne. W praktyce mówimy jednak, że zdarzenie cechuje się wyspecyfikowaną złożonością, jeśli ma wartość dużą i dodatnią (co znaczy „dużą”, zależy od istotnych zasobów probabilistycznych).

Za tym, że wyspecyfikowana złożoność stanowi naturalną miarę informacji, nie zaś jedynie arbitralne połączenie informacji shannonowskiej i informacji kołmogorowskiej, przemawia również nierówność Krafta6. Zastosowanie nierówności Krafta do wyspecyfikowanej złożoności zależy tutaj od tego, czy język, który odwzorowuje opisy na zdarzenia, jest bezprefiksowy. Języki bezprefiksowe pomagają wyeliminować niejednoznaczności, tak aby jeden opis nie był początkiem drugiego. Ten wymóg nie jest uciążliwy i chociaż nie ma on zastosowania do języków naturalnych, to przekształcenie języków naturalnych w języki bezprefiksowe prowadzi jedynie do zaniedbywalnych wzrostów długości opisu (por. rozdział 6 w drugim wydaniu książki Wnioskowanie o projekcie).

W przypadku wyspecyfikowanej złożoności zdarzenia nierówność Krafta gwarantuje, że wszystkie zdarzenia mające taki sam lub większy stopień wyspecyfikowanej złożoności, kiedy rozważa się je łącznie jako jedną wielką sumę, mają prawdopodobieństwo mniejsze lub równe liczbie 2 podniesionej do ujemnej potęgi wartości wyspecyfikowanej złożoności. Inaczej mówiąc, prawdopodobieństwo sumy wszystkich zdarzeń F o wyspecyfikowanej złożoności nie mniejszej od wyspecyfikowanej złożoności E (czyli SC(F) ≥ SC(E)) będzie miało wartość mniejszą lub równą 2(–SC(E)). Można uznać, że wynik ten, w takim sformułowaniu, nie powinien znaleźć się w artykule, którego celem jest wyrażenie koncepcji wyspecyfikowanej złożoności prostym językiem. Jest to jednak ważny wynik matematyczny, który łączy koncepcję wyspecyfikowanej złożoności z ideą granicy prawdopodobieństwa odgrywającą kluczową rolę we wnioskowaniach o projekcie. Aby zilustrować, jak to działa, w następnym artykule rozważę przykład samochodów jadących drogą.

William A. Dembski

Oryginał: Specified Complexity Made Simple, „Bill Dembski: Freedom, Technology, Education” 2024, February 26 [dostęp: 30 VII 2024].

Przekład z języka angielskiego: Dariusz Sagan

 

Źródło zdjęcia: Pixabay

Ostatnia aktualizacja strony: 30.7.2024

Przypisy

  1. Por. W.A. Dembski, Wnioskowanie o projekcie. Wykluczenie przypadku metodą małych prawdopodobieństw, tłum. Z. Kościuk, „Seria Inteligentny Projekt”, Fundacja En Arche, Warszawa 2021 (przyp. tłum.).
  2. Por. tenże, Nic za darmo. Dlaczego przyczyną wyspecyfikowanej złożoności musi być inteligencja, tłum. Z. Kościuk, „Seria Inteligentny Projekt”, Fundacja En Arche, Warszawa 2021 (przyp. tłum.).
  3. Por. tenże, Specification: The Pattern That Signifies Intelligence, „Philosophia Christi” 2005, Vol. 7, No. 2, s. 299–343, https://doi.org/10.5840/pc20057230.
  4. Por. W. Ewert, W.A. Dembski, R.J. Marks II, Algorithmic Specified Complexity, w: Engineering and the Ultimate: An Interdisciplinary Investigation of Order and Design in Nature and Craft, eds. J. Bartlett, D. Halsmer, M.R. Hall, Blyth Institute Press, Broken Arrow 2014, s. 131–149 [dostęp: 15 VI 2024].
  5. Por. W.A. Dembski, W. Ewert, The Design Inference: Eliminating Chance Through Small Probabilities, 2nd ed., Discovery Institute Press, Seattle 2023, rozdz. 6.
  6. Por. Kraft–McMillan Inequality, „Wikipedia” [dostęp: 15 VI 2024].

Literatura:

1. Dembski W.A., Ewert W., The Design Inference: Eliminating Chance Through Small Probabilities, 2nd ed., Discovery Institute Press, Seattle 2023.

2. Dembski W.A., Nic za darmo. Dlaczego przyczyną wyspecyfikowanej złożoności musi być inteligencja, tłum. Kościuk, „Seria Inteligentny Projekt”, Fundacja En Arche, Warszawa 2021.

3. Dembski W.A., Specification: The Pattern That Signifies Intelligence, „Philosophia Christi” 2005, Vol. 7, No. 2, s. 299–343, https://doi.org/10.5840/pc20057230.

4. Dembski W.A., Wnioskowanie o projekcie. Wykluczenie przypadku metodą małych prawdopodobieństw, tłum. Z. Kościuk, „Seria Inteligentny Projekt”, Fundacja En Arche, Warszawa 2021.

5. Ewert W., Dembski W.A., Marks II R.J., Algorithmic Specified Complexity, w: Engineering and the Ultimate: An Interdisciplinary Investigation of Order and Design in Nature and Craft, eds. J. Bartlett, D. Halsmer, M.R. Hall, Blyth Institute Press, Broken Arrow 2014, s. 131–149 [dostęp: 15 VI 2024].

6. Kraft–McMillan Inequality, „Wikipedia” [dostęp: 15 VI 2024].

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *



Najnowsze wpisy

Najczęściej oglądane wpisy

Wybrane tagi