Trendy w filozofii nauki. Co oznacza „informacja semantyczna”?Czas czytania: 10 min

Evolution News

2020-05-27
Trendy w filozofii nauki. Co oznacza „informacja semantyczna”?<span class="wtr-time-wrap after-title">Czas czytania: <span class="wtr-time-number">10</span> min </span>

„Informacja” stała się modnym słowem w filozofii nauki. Przykład stanowi wyrażenie „informacja semantyczna”, którego sens materialiści starają się teraz rozszerzyć, aby objąć sformułowaną przez Claude’a Shannona koncepcję informacji syntaktycznej. W ten sposób chcą wprowadzić pojęcie znaczenia do komunikacji między bytami. Mówienie o informacji semantycznej wydaje się redundantne, tak samo jak o „maśle maślanym”, ale w rzeczywistości wskazuje na alternatywne stanowiska dotyczące teorii informacji. Robert Marks i William Dembski „rozumieją” przez „informację semantyczną” coś innego, a pozwala to uniknąć pułapki samoobalenia nieodłącznie związanej z naturalizmem metodologicznym.

Kilka lat temu, jak doniesiono w „Evolution News & Science Today”1, David Wolpert z Santa Fe Institute2 zafascynował się koncepcją przepływu informacji w fizycznym Wszechświecie. Wolpert i William Macready najbardziej znani są z twierdzeń „nic za darmo” (NFL – No Free Lunch), które udowodnili w latach dziewięćdziesiątych. Zasadniczo wykazali oni, że żaden algorytm wyszukiwania, w tym algorytmy ewolucyjne, nie jest lepszy od wyszukiwania na ślepo. Dembski posłużył się twierdzeniami NFL w swojej książce No Free Lunch3 [Nic za darmo] (2002), aby przedstawić argumentację na rzecz prawa zachowania informacji. Wykazał, że nie można racjonalnie oczekiwać, że ślepe wyszukiwanie doprowadzi do wyspecyfikowanego, złożonego celu bez dodatkowych informacji spoza systemu. Na przykład nie można przyspieszyć poszukiwania asa trefl w talii 52 zakrytych kart bez wprowadzenia zasady typu: „Trefl jest zawsze na prawo od kiera”. Ta reguła musi pochodzić z zewnątrz, aby usprawnić wyszukiwanie w stosunku do wyszukiwania losowego (ślepego). Zwróćmy uwagę na podobieństwo do twierdzeń austriackiego logika Kurta Gödla o niezupełności, które mówią, że nie można dowieść systemu matematycznego za pomocą jego własnych twierdzeń.

 

Ewoluujący Wolpert

Co zaproponował Wolpert, mając trzy dodatkowe lata na przemyślenia dotyczące informacji? Jak podano w umieszczonym na stronie Santa Fe Institute tekście: New Definition Returns Meaning to Information4 [Nowa definicja przywraca informacji znaczenie], David Wolpert i Artem Kolchinsky napisali do wydawanego przez Royal Society czasopisma „Interface Focus” artykuł Semantic Information, Autonomous Agency and Non-Equilibrium Statistical Physics5 [Informacja semantyczna, działanie autonomiczne i statystyczna fizyka procesów nierównowagowych]. Mają oni nadzieję uzupełnić Shannonowską teorię informacji, która dotyczy jedynie struktury komunikacji (czyli syntaktyki), a nie jej semantyki:

Definicja naukowców wypełnia lukę w teorii informacji pozostawioną przez Claude’a Shannona, który celowo pominął kwestię „znaczenia” informacji w swoim kultowym artykule „Matematyczna teoria komunikacji” z 1948 roku6.

Oto ta definicja oraz przykład jej zastosowania:

Biorąc pod uwagę fizykę statystyczną i teorię informacji, opracowali definicję, która podkreśla, w jaki sposób konkretna informacja umożliwia systemowi fizycznemu trwanie – w kontekście organizmów biologicznych oznacza to ich zdolność do przeżycia. Piszą, że informacja semantyczna to „informacja, która mówi coś systemowi fizycznemu o jego środowisku i stanowi niezbędną przyczynę istnienia systemu w czasie.

Na przykład lokalizacja pożywienia stanowi informację semantyczną dla ryby z Wielkiej Rafy Koralowej, ponieważ ma ona zasadnicze znaczenie dla przetrwania tego stworzenia. Tymczasem dźwięk odległego statku nie wpływa na przetrwanie ryby, więc nie kwalifikuje się jako informacja semantyczna”7.

Dzięki takiej definicji informacji postulują oni teorię, która może obejmować każdą interakcję w biologii, a nawet w fizyce. Wolpert i Kolchinsky przepływ informacji dostrzegają nawet w skałach i huraganach! W ich mniemaniu definicja ta pomaga „oddzielić ziarno od plew w próbie zrozumienia informacji, jakie system fizyczny ma na temat swojego środowiska”8. Zgodnie z tym poglądem każdy system, fizyczny lub biologiczny, który trwa w istnieniu, posiada informację semantyczną. Zauważmy, że nie trzeba pojmować tego w sposób symboliczny:

Kolchinsky twierdzi, że w dziedzinie biologii zrozumienie roli informacji semantycznej mogłoby pomóc odpowiedzieć na niektóre z najbardziej intrygujących pytań w tej dyscyplinie, dotyczące na przykład ewolucji najwcześniejszych form życia lub adaptacji tych, które istnieją obecnie. „Czy kiedy mówimy o dostosowaniu i adaptacji, informacja semantyczna wzrasta wraz z przebiegiem ewolucji? Czy organizmy lepiej wychwytują ważne dla nich informacje?”9.

Czy jednak semantyka może być naprawdę „znacząca” w królestwie nieświadomych bytów?

 

Niedostateczna znajomość literatury

Ten artykuł oraz tekst opublikowany na stronie Santa Fe Institute wydają się nie uwzględniać faktu, że teoretycy projektu badali i pisali o koncepcji „informacji semantycznej” już od lat. Oto niektóre przykłady:

2002: William Dembski omówił zagadnienie informacji semantycznej w książce No Free Lunch10.

2014: Dembski opisał koncepcję informacji semantycznej w książce Being as Communion11 [Bycie jako relacyjność], w której broni filozoficznego poglądu, że informacja, a nie materia, stanowi podstawę rzeczywistości. Warto też obejrzeć ten krótki film12 o definicji informacji, która umożliwia analizę matematyczną:

2015: W podcaście ID the Future13 przedstawiono „taksonomię informacji”. Informację semantyczną wyraźnie odróżniono od innych rodzajów informacji.

2017: David Snoke omówił zagadnienie związane z pytaniem, czy informacja ma charakter fizyczny14, a kontynuował tę dyskusję w innym podcaście15. Snoke łączy ze sobą informację i entropię.

2017: Brian Miller bronił koncepcji informacji semantycznej przed krytyką ze strony przeciwników teorii inteligentnego projektu16.

2018: Michael Newton Keas i Eric Anderson zaprzeczyli, że informacja znajduje się w systemach fizycznych, takich jak pierścienie Saturna17. „Informację w” należy odróżnić od „informacji o” – wyjaśniają. Kontynuowali tę dyskusję w innym podcaście18.

2018: Robert Marks z Walter Bradley Center omówił Shannonowską koncepcję informacji oraz metodę odróżniania jej od informacji sensownej – oznaką tej ostatniej jest wyspecyfikowana złożoność, którą da się mierzyć19. Marks i Dembski są współzałożycielami Evolutionary Informatics Lab, w którym bada się te kwestie od lat.

 

Zbyt wygórowane oczekiwania

Teoretycy projektu chętnie cytują prace materialistów naukowych, ale ta przysługa rzadko jest odwzajemniana. Być może oczekiwanie, że materialiści uwzględnią oryginalny wkład zwolenników teorii inteligentnego projektu w dziedzinę informatyki, jest zbyt wygórowane. Ich opór może brać się z obawy, że poważna analiza argumentów teorii inteligentnego projektu może zmusić ich do przyjęcia wniosków, które byłyby sprzeczne z ich filozoficznymi założeniami. Poza tym pogląd materialistyczny jest nie do utrzymania, ponieważ podlega samoobaleniu.

Zastanówmy się ponownie nad definicją Kolchinsky’ego i Wolperta: „informacja, która mówi coś systemowi fizycznemu o jego środowisku i stanowi niezbędną przyczynę istnienia systemu w czasie”. Co z tego wynika na temat ich własnej teorii? (1) Jest ona systemem fizycznym, a nie intelektualnym. (2) Jest częścią środowiska, która podtrzymuje swoje istnienie w czasie. W związku z tym ich „nowa” definicja informacji semantycznej podważa semantykę ich własnego artykułu. Dlaczego? Ponieważ wyklucza ona oryginalność, logikę i prawdę. Oni po prostu próbują zachować swoje istnienie w czasie.

Znaczenie (semantyka) wymaga istnienia istoty myślącej. Tylko świadome istoty moralne rozpoznają znaczenie. Ponownie przyjrzyjmy się przykładowi ryby, która jest w stanie przetrwać dzięki informacjom o źródle pokarmu, ale nie za sprawą dźwięku odległego statku. Jeżeli Wolpert i Kolchinsky nie są skłonni przypisywać rybom procesów myślowych, które opisują jako „system fizyczny” (nie przypisując ich zaś mającym wolną wolę, podejmującym decyzje istotom moralnym), to reakcja ryb na środowisko jest po prostu instynktowna – nie wydobywają z niego „znaczenia”. Huragan lub inny samoorganizujący się system, taki jak pierścienie Saturna, tym bardziej nie mogą nic wiedzieć o znaczeniu. W ujęciu Wolperta semantyka spływa rurami wraz z wirującą wodą w zlewie. Jego definicja jest tak szeroka, że obejmuje czarne dziury i bezwładność, ale jednocześnie tak wąska, że odziera ludzką kreatywność z treści semantycznej.

 

Uzyskanie jasności

Niczym blask słońca, uzyskujemy jasność na temat „informacji semantycznej”, kiedy wolna, moralna, racjonalna istota nie jest wykluczona przez arbitralne reguły naturalizmu metodologicznego. Istota inteligentna może zaprogramować ryby tak, aby reagowały na źródła pożywienia, lub roboty, aby szukały gniazdek elektrycznych i same się ładowały. Kluczową kwestią jest to, że o różnicy między bodźcami docierającymi ze źródeł pożywienia a tymi dochodzącymi ze statku nie decyduje niesprecyzowane, zewnętrzne działanie presji selekcyjnej na organizm. Różnicę powodują inteligentnie zaprojektowane czujniki i z góry zaprogramowane reakcje organizmu.

Inteligentne istoty mogą tworzyć złożone układy, w tym symfonie i statki kosmiczne. Potrafią pisać artykuły przy użyciu rozumu i logiki. Przyczynowość należy umieścić we właściwym miejscu – w programie stworzonym przez umysł, a nie w niekierowanym systemie fizycznym. To samo dotyczy semantyki – nie znajduje się ona w źródle pożywienia, lecz w umyśle istoty myślącej.

 

Evolution News

Oryginał: Trends in Philosophy of Science: What Does „Semantic Information” Mean?, „Evolution News & Science Today” 2018, December 10 [dostęp 27 V 2020].

 

Przekład z języka angielskiego: Robert Olender

Źródło zdjęcia: Pixabay

Ostatnia aktualizacja strony: 27.05.2020

Przypisy

  1. Por. Evolution News, A “Mechanical” Philosophy for the 21st Century, „Evolution News & Science Today” 2015, November 8 [dostęp 27 V 2020] (przyp. tłum.).
  2. Por. Working Group: What Physical Principles Predict Life?, „Santa Fe Institute” 2015, October 28 [dostęp 27 V 2020] (przyp. tłum.).
  3. Por. W.A. Dembski, No Free Lunch: Why Specified Complexity Cannot Be Purchased Without Intelligence, Lanham 2002 [dostęp 27 V 2020] (przyp. tłum.).
  4. Por. New Definition Returns Meaning to Information, „Santa Fe Institute” 2018, October 22 [dostęp 27 V 2020] (przyp. tłum.).
  5. Por. A. Kolchinsky, D.H. Wolpert, Semantic Information, Autonomous Agency and Non-Equilibrium Statistical Physics, „Interface Focus” 2018, Vol. 8, 20180041 [dostęp 27 V 2020] (przyp. tłum.).
  6. New Definition Returns Meaning to Information (przyp. tłum.).
  7. New Definition Returns Meaning to Information (przyp. tłum.) [wyróżnienia dodane].
  8. New Definition Returns Meaning to Information (przyp. tłum.).
  9. New Definition Returns Meaning to Information (przyp. tłum.) [wyróżnienia dodane].
  10. Por. Dembski, No Free Lunch (przyp. tłum.).
  11. Por. W.A. Dembski, Being as Communion: A Metaphysics of Information, New York 2014 [dostęp 27 V 2020] (przyp. tłum.).
  12. Por. W.A. Dembski, Conversations with William Dembski – The Meaning of Information, „Discovery Science” 2014, September 22 [dostęp 27 V 2020] (przyp. tłum.).
  13. Por. C. Luskin, The Taxonomy of Information, Pt. 1, „Discovery Institute’s Multimedia Library” 2015, December 9 [dostęp 27 V 2020]. Por. też C. Luskin, The Taxonomy of Information, Pt. 2, „Discovery Institute’s Multimedia Library” 2015, December 30 [dostęp 16 V 2020]; C. Luskin, The Taxonomy of Information, Pt. 3, „Discovery Institute’s Multimedia Library” 2016, January 4 [dostęp 27 V 2020] (przyp. tłum.).
  14. Por. D. Snoke, Dr. David Snoke: The Physicality of Information, „Discovery Institute’s Multimedia Library” 2017, October 20 [dostęp 27 V 2020] (przyp. tłum.).
  15. Por. D. Snoke, Dr. David Snoke: Information and Entropy, „Discovery Institute’s Multimedia Library” 2017, October 23 [dostęp 27 V 2020] (przyp. tłum.).
  16. Por. B. Miller, The Origin of Life: The Information Challenge, „Evolution News & Science Today” 2017, December 15 [dostęp 27 V 2020] (przyp. tłum.).
  17. Por. M.N. Keas, E. Anderson, Answering Our ID Critics: Distinguish Information In from Information About, „Discovery Institute’s Multimedia Library” 2018, June 13 [dostęp 27 V 2020] (przyp. tłum.).
  18. Por. M.N. Keas, E. Anderson, DNA as Clue: How Intelligence Detects Information, and Creates It, „Discovery Institute’s Multimedia Library” 2018, June 20 [dostęp 27 V 2020] (przyp. tłum.).
  19. Por. R. Marks, ID Inquiry: Robert Marks on Information, „Discovery Institute’s Multimedia Library” 2018, October 5 [dostęp 27 V 2020] (przyp. tłum.).

Literatura:

  1. Dembski W.A., Being as Communion: A Metaphysics of Information, New York 2014 [dostęp 27 V 2020].
  2. Dembski W.A., Conversations with William Dembski – The Meaning of Information, „Discovery Science” 2014, September 22 [dostęp 27 V 2020].
  3. Dembski W.A., No Free Lunch: Why Specified Complexity Cannot Be Purchased Without Intelligence, Lanham 2002 [dostęp 27 V 2020].
  4. Evolution News, A “Mechanical” Philosophy for the 21st Century, „Evolution News & Science Today” 2015, November 8 [dostęp 27 V 2020].
  5. Keas M.N., Anderson E., Answering Our ID Critics: Distinguish Information In from Information About, „Discovery Institute’s Multimedia Library” 2018, June 13 [dostęp 27 V 2020].
  6. Keas M.N., Anderson E., DNA as Clue: How Intelligence Detects Information, and Creates It, „Discovery Institute’s Multimedia Library” 2018, June 20 [dostęp 27 V 2020].
  7. Kolchinsky A., Wolpert D.H., Semantic Information, Autonomous Agency and Non-Equilibrium Statistical Physics, „Interface Focus” 2018, 8, 20180041 [dostęp 27 V 2020].
  8. Luskin C., The Taxonomy of Information, Pt. 1, „Discovery Institute’s Multimedia Library” 2015, December 9 [dostęp 27 V 2020].
  9. Luskin C., The Taxonomy of Information, Pt. 2, „Discovery Institute’s Multimedia Library” 2015, December 30 [dostęp 27 V 2020].
  10. Luskin C., The Taxonomy of Information, Pt. 3, „Discovery Institute’s Multimedia Library” 2016, January 4 [dostęp 27 V 2020].
  11. Marks R., ID Inquiry: Robert Marks on Information, „Discovery Institute’s Multimedia Library” 2018, October 5 [dostęp 27 V 2020].
  12. Miller B., The Origin of Life: The Information Challenge, „Evolution News & Science Today” 2017, December 15 [dostęp 27 V 2020].
  13. New Definition Returns Meaning to Information, „Santa Fe Institute” 2018, October 22 [dostęp 27 V 2020].
  14. Snoke D., David Snoke: Information and Entropy, „Discovery Institute’s Multimedia Library” 2017, October 23 [dostęp 27 V 2020].
  15. Snoke D., David Snoke: The Physicality of Information, „Discovery Institute’s Multimedia Library” 2017, October 20 [dostęp 27 V 2020].
  16. Working Group: What Physical Principles Predict Life?, „Santa Fe Institute” 2015, October 28 [dostęp 27 V 2020].

Dodaj komentarz



Najnowsze wpisy

Najczęściej oglądane wpisy

Wybrane tagi