Zachowanie informacji. Historia idei (część 1)Czas czytania: 18 min

William A. Dembski

2025-08-27
Zachowanie informacji. Historia idei (część 1)<span class="wtr-time-wrap after-title">Czas czytania: <span class="wtr-time-number">18</span> min </span>

Od autora: Przez ostatnie dwa miesiące pisałem i poprawiałem artykuł zatytułowany The Law of Conservation of Information: Natural Processes Only Redistribute Existing Information [Prawo zachowania informacji. Procesy naturalne tylko redystrybuują istniejącą informację]. Pierwotną wersję artykułu złożyłem do czasopisma „BIO-Complexity”, ale wywołała ona reakcje dotyczące tego, czy termin „zachowanie informacji” jest odpowiedni w odniesieniu do analizowanego w artykule aspektu wyszukiwania. Historia terminu „zachowanie informacji” przekonała mnie jednak, że pod tym względem jest on właściwy. Niniejszy tekst to w istocie dodatek do artykułu złożonego do „BIO-Complexity”. Ponieważ opowiedziana w tym dodatku historia jest w dużej mierze niezależna od reszty artykułu przeznaczonego do „BIO-Complexity”, więc postanowiłem zamieścić treść wspomnianego dodatku również na blogu „Evolution News & Science Today”.

 

„Zachowanie informacji” to termin stosowany zarówno w literaturze z zakresu fizyki, jak i informatyki. W fizyce dotyczy on procesów fizycznych, które są w pewnym sensie odwracalne, dzięki czemu jeden stan fizyczny da się odzyskać z innego i odwrotnie. W takim przypadku informacja jest zachowana między stanami. W informatyce zachowanie informacji dotyczy procesów wyszukiwania, w których ilość informacji na wyjściu nie może być większa od ilości informacji na wejściu. Informacja ulega więc zachowaniu wtedy, gdy na wyjściu jest taka sama, jak na wejściu, nie zaś mniejsza.

Zakresy tych dwóch zastosowań terminu „zachowanie informacji” krzyżują się ze sobą, ponieważ procesy fizyczne mogą mieć udział w wyszukiwaniu. Niemniej w fizyce zachowanie informacji jest rozumiane inaczej niż w informatyce. Gdy w fizyce używane jest słowo „zachowanie”, silny nacisk kładzie się na to, że to, co ulega zachowaniu, pozostaje dokładnie takie samo – bez żadnego zysku i bez żadnej straty. Na przykład zachowanie energii w układzie zamkniętym oznacza, że całkowita energia tego układu pozostaje dokładnie taka sama, mimo iż zmianie ulegają formy, jakie energia przybiera w tym układzie (potencjalna, kinetyczna, chemiczna, elektryczna, jądrowa i tak dalej)1. W odniesieniu do wyszukiwania słowo „zachowanie” oznacza natomiast idealną (górną) granicę, do której mogą dojść procesy wyszukiwania, ale – ogólnie rzecz biorąc – mogą też do niej nie dotrzeć.

Do zachowania informacji w fizyce dochodzi w różnych sytuacjach. Na przykład Stephen Hawking zasugerował, że informacja zawarta w materii może zostać bezpowrotnie utracona, gdy wessie ją czarna dziura, która później paruje wskutek procesu określanego mianem promieniowaniem Hawkinga. Hawking uznał, że w tych warunkach nie dochodzi do zachowania informacji. Natomiast Leonard Susskind zaproponował ideę holograficznych przesunięć informacji z przestrzeni o większej liczbie wymiarów do granic o mniejszej liczbie wymiarów oraz ideę komplementarności czarnych dziur. Zgodnie z jego teorią informację zakodowaną w horyzoncie zdarzeń da się więc odzyskać z promieniowania Hawkinga w mocno zaburzonej postaci, ale ulega ona zachowaniu, nie zaś zniszczeniu. W związku z tym Susskind uważa, że nawet czarne dziury podlegają zachowaniu informacji2.

W klasycznej termodynamice zachowanie informacji jest powiązane z drugą zasadą termodynamiki i koncepcją entropii. Podczas gdy entropia ma naturalną tendencję do wzrostu, co wskazuje na utratę uporządkowania lub informacji w układach makroskopowych, zgodnie z mechaniką statystyczną mikrostany układu rozwijają się deterministycznie i w związku z tym pozostawiają informację w stanie nienaruszonym. Zachowanie informacji jest więc następstwem teorii ergodycznej, zgodnie z którą powtórzą się wszystkie stany układów dynamicznych mających odpowiednią strukturę. W mechanice statystycznej istotnym w tym zakresie rezultatem jest twierdzenie Liouville’a mówiące, że gęstość przestrzeni fazowej układu zamkniętego jest stała w czasie, z czego wynika, że informacja o warunkach początkowych ulega zachowaniu, nawet jeśli na poziomie makroskopowym wygląda na bezładną3.

Łatwo znaleźć również inne przykłady zachowania informacji w fizyce. W mechanice kwantowej unitarna ewolucja stanów kwantowych, zachodząca zgodnie z równaniem Schrödingera, zachowuje całkowitą informację zakodowaną w stanie kwantowym. Na zachowanie informacji kwantowej wskazuje również względnie niedawno dowiedziony zakaz ukrywania (no-hiding theorem)4. Fizyka klasyczna, która jest deterministyczna i której równania gwarantują odwracalność pewnych procesów fizycznych w czasie, wskazuje, że informacja o układzie w dowolnym punkcie czasu może – w zasadzie – zostać odtworzona w dowolnym innym punkcie czasu, a tym samym informacja ulega zachowaniu. Na przykład Pierre Simon de Laplace argumentował, że zachowanie informacji (aczkolwiek nie posługiwał się tą terminologią) obowiązuje w całym Wszechświecie. Ponad 200 lat temu w dziele Celestial Mechanics [Mechanika nieba] przekonywał on, że z fizyki Newtona wynika, iż na podstawie wiedzy o pozycjach i pędach wszystkich cząstek w danym momencie można przewidzieć wprzód i wstecz każdy aspekt rozwoju Wszechświata – i to w najdrobniejszych szczegółach5.

 

Nie tylko poważana idea

Podaję te przykłady zachowania informacji w fizyce nie tylko po to, aby pokazać, że zachowanie informacji jest poważaną ideą w fizyce, ale też po to, aby odróżnić jej rolę w fizyce od jej roli w wyszukiwaniu. W fizyce zachowanie informacji odnosi się do ścisłego zachowywania tej samej ilości informacji przy różnych fizycznych transformacjach, przy czym każdą informację da się odzyskać na podstawie innej. Kiedy jednak mówimy o wyszukiwaniu, to zachowanie informacji dotyczy tego, że ilość informacji na wyjściu nigdy nie jest większa od ilości informacji na wejściu. Zachowanie informacji w wyszukiwaniu polega na tym, że nie można otrzymać czegoś z niczego, aczkolwiek możliwe jest, że mając coś w punkcie wyjścia, ostatecznie można otrzymać mniej albo nawet nic.

Zachowanie informacji w informatyce ma charakter bardziej praktyczny niż zachowanie informacji w fizyce. Z punktu widzenia zachowania informacji w fizyce zniszczenie Biblioteki Aleksandryjskiej w pożarze nie doprowadziło do zniszczenia informacji zawartej w znajdujących się w niej woluminach – cała ta informacja wciąż istnieje i nawet dałoby się ją odzyskać, gdybyśmy mogli cofnąć czas w odniesieniu do procesów fizycznych, które zachodziły po zniszczeniu biblioteki. Jakiś superfizyk w zasadzie mógłby więc zrekonstruować całą Bibliotekę Aleksandryjską. Zachowanie informacji w informatyce uwzględnia jednak „siły tarcia” prowadzące do niewydajnego transferu informacji, a utratę informacji traktuje się w informatyce jako normę, podczas gdy pełne zachowanie informacji uznawane jest za rzadko osiągalny ideał. Z punktu widzenia zachowania informacji w wyszukiwaniu Biblioteka Aleksandryjska naprawdę przepadła raz na zawsze.

Kolorowana rycina przedstawiająca wnętrze Wielkiej Biblioteki Aleksandryjskiej: monumentalne kolumny, półki pełne zwojów, uczeni czytający przy stole, sługa na drabinie sięga po pergaminy.
Źródło zdjęcia: Wikipedia.

Termin „zachowanie informacji” pojawił się po raz pierwszy – i to nie tylko przelotnie – w niewielkiej objętościowo książce biologa i laureata Nagrody Nobla Petera Medawara zatytułowanej The Limits of Science [Granice nauki], która ukazała się w 1984 roku. Medawar wprowadził to pojęcie w podrozdziale zatytułowanym The Law of Conservation of Information6 [Prawo zachowania informacji] – taki właśnie tytuł nadałem obszerniejszemu artykułowi, z którego pochodzi niniejszy tekst. Sformułował on to prawo w sposób następujący: „Żaden proces rozumowania logicznego – żaden czysty akt myślenia albo programowalna operacja komputerowa – nie może zwiększyć zawartości informacji aksjomatów i przesłanek bądź sądów obserwacyjnych, które stanowią jego punkt wyjścia”7. Medawar nie uzasadnił tego prawa, lecz potraktował je jako oczywiste: „Nie zamierzam podejmować próby wykazania zasadności tego prawa, a jedynie rzucam wyzwanie, aby ktokolwiek znalazł od niego wyjątek, czyli operację logiczną, która zwiększa zawartość informacji jakiejkolwiek wypowiedzi”8.

 

„Najwyższy cel fizyka”

W przedmowie do książki The Limits of Science Medawar wyjaśnił, że inspirację dla tego prawa oraz dla terminu „zachowanie informacji” znalazł u fizyka Henry’ego Augustusa Rowlanda, który w 1899 roku przedstawił przed Amerykańskim Towarzystwem Fizycznym artykuł zatytułowany The Highest Aim of the Physicist [Najwyższy cel fizyka]. W tym artykule Rowland przedstawił „prawo zachowania wiedzy”, które sformułował w sposób następujący: „Badania matematyczne zawsze podlegają prawu zachowania wiedzy: nigdy nie otrzymujemy z wiedzy więcej niż mieliśmy na początku. Wiedza może zmieniać formę, stawać się jaśniejsza i precyzyjnej sformułowana, ale całkowita ilość będącej wynikiem dociekań wiedzy o przyrodzie jest taka sama, jak ilość, od której zaczęliśmy”9. Prawo Medawara i prawo Rowlanda całkowicie się ze sobą pokrywają.

„Prawo zachowania informacji” w dogodny sposób charakteryzuje stale dokonywane odkrycie, że w przypadku procesów wyszukiwania ilość informacji na wyjściu nigdy nie jest większa od ilości informacji na wejściu. Medawar i Rowland wyrazili tę ideę w kategoriach zachowania, ale mówili o niej również inni, nie posługując się jednak tą terminologią. W opublikowanej w 1962 roku książce poświęconej nauce i teorii informacji francuski fizyk Léon Brillouin poczynił dokładnie takie samo spostrzeżenie:

Często mówi się, że maszyny matematyczne wytwarzają nową informację. W rzeczywistości tak nie jest. Maszyny są jedynie w stanie przetwarzać informację: pobierają na ogół surowe dane wejściowe i podają wynik końcowy, ale całkowita ilość informacji nie wzrasta. W najbardziej idealnych okolicznościach informacja może pozostać stała podczas liczenia, lecz w normalnych warunkach występują straty i informacja wyjściowa będzie mniejsza od informacji wejściowej10.

Jakie są zaś idealne okoliczności, w których informacja w ogóle nie jest tracona? Według Brillouina:

Jeżeli maszyna [obliczająca ruchy pocisków artyleryjskich] pracuje doskonale, to musi zachodzić odwracalność: z żądanego punktu uderzenia może ona obliczyć z powrotem dane wejściowe i otrzymać warunki początkowe. W podobny sposób tłumacz może znów przetłumaczyć tekst angielski na język japoński i powinien otrzymać oryginalny artykuł lub jego równoważnik. Idealne warunki postępowania odpowiadają odwracalności i stąd zachowaniu informacji11.

To przelotne wspomnienie o zachowaniu informacji jest najwcześniejsze, jakie byłem w stanie znaleźć w literaturze. Tak swoje rozważania podsumowuje Brillouin: „Maszyna [licząca] nie wytwarza żadnej nowej informacji, ale dokonuje ona bardzo cennych transformacji znanej już informacji”12.

 

Maszyna analityczna Charlesa Babbage’a

Idea, że maszyny mogą tworzyć tylko to, co miały zadane na wejściu, pojawiła się już w pierwszej połowie XIX wieku, kiedy Charles Babbage pisał o maszynie analitycznej. Zważywszy na swój projekt, był to pierwszy w pełni rozwinięty komputer cyfrowy, ale w tamtym czasie Babbage nie dysponował odpowiednimi materiałami, które umożliwiałyby skonstruowanie w pełni funkcjonalnej maszyny. Maszyna analityczna Babbage’a była zaprojektowana jako mechaniczny komputer cyfrowy, nie zaś jako elektroniczny komputer cyfrowy, jak współczesne komputery, których funkcjonalność znamy z doświadczenia. Wprawdzie Babbage i jego współpracowniczka Ada Lovelace nie byli w stanie skonstruować w pełni funkcjonalnego modelu, ale rozumieli teoretyczne implikacje dotyczące swojej maszyny liczącej. Jak ujęła to Lovelace w uwagach tłumaczki do wydanych w 1843 roku wspomnień Luigiego Menabrei na temat maszyny analitycznej Babbage’a:

Maszyna analityczna nie ma niczego tworzyć. Będzie mogła zrobić wszystko, co będziemy w stanie jej zadać. Może przeprowadzić analizę, ale nie potrafi przewidywać żadnych analitycznych relacji ani prawd. Jej zadaniem jest wspomaganie nas w uzyskaniu dostępu do tego, co już wiemy13.

Lovelace posługuje się tutaj nieco inną terminologią, ale chodzi jej dokładnie o to samo, co Medawarowi i Brillouinowi.

Kilka lat wcześniej, w 1836 roku, Edgar Allan Poe również poczynił takie samo spostrzeżenie i także w odniesieniu do maszyny analitycznej Babbage’a. Poe, w eseju zatytułowanym Maelzel’s Chess Player [Szachista Mälzla], zastanawiał się nad twierdzeniem, że ta rzekoma maszyna do gry w szachy jest automatem, który potrafi grać w szachy bez interwencji człowieka. W jego przekonaniu szachista Mälzla nie był prawdziwym automatem: miało wyglądać na to, że maszyna gra w szachy samodzielnie, ale w istocie w szachy grał ukryty w niej człowiek. Johann Nepomuk Mälzl mógł w ramach pokazu pozwolić osobom z widowni, aby zajrzały do wnętrza jego szachisty, ale nigdy tego nie robił, a tym samym w tej tak zwanej maszynie mógł siedzieć jakiś mały człowiek. Jak wyraził się Poe:

Ukryty w środku człowiek może wykonywać ruchy. Siedzi on wewnątrz Turka [maszyna, która rzekomo grała w szachy, wyglądała jak Turek] na tyle wysoko, aby widzieć szachownicę. Prawdopodobnie siedzi on na małym kwadratowym klocu albo występie widocznym w rogu głównej przegrody, gdy otwarte są drzwiczki14.

Poe następnie skontrastował tę pseudomaszynę z maszyną analityczną Babbage’a, której warunki początkowe, gdy zostaną już określone, umożliwiają jej automatyczne działanie bez interwencji człowieka, dzięki czemu można uznać ją za prawdziwą maszynę:

 

Niezmienne i zdeterminowane

Obliczenia arytmetyczne albo algebraiczne są, z samej swojej natury, niezmienne i zdeterminowane. Wprowadzane są pewne dane, a na ich podstawie w sposób konieczny i nieuchronny otrzymywane są określone wyniki. Te wyniki nie są zależne od niczego innego – i nie wpływa na nie nic innego – niż pierwotnie wprowadzone dane. Problem wymagający rozwiązania zmierza – albo powinien zmierzać – do swojego finalnego wyniku poprzez sukcesję bezbłędnych kroków, które nie podlegają żadnej zmianie czy modyfikacji. Skoro tak, to bez trudności możemy wyobrazić sobie możliwość takiego ustawienia mechanizmu, że po uruchomieniu go w zgodzie z danymi dotyczącymi wymagającego rozwiązania problemu powinien on wykonywać swoje ruchy regularnie, progresywnie i bez odchyleń, prowadząc do wymaganego rozwiązania, ponieważ ruchy tego mechanizmu, nawet jeśli złożone, powinny być skończone i zdeterminowane. W przypadku szachisty Mälzla sytuacja wygląda jednak zgoła inaczej15.

Poe, podobnie jak Medawar, Brillouin i Lovelace, zauważa tutaj, że ilość informacji na wyjściu jakiegoś procesu mechanicznego nie może być większa od ilości informacji na wejściu lub w jakikolwiek inny sposób jej przekraczać.

Dokonałem przeglądu historii idei zachowania informacji w wyszukiwaniu – opisywanej tymi albo równoważnymi kategoriami – aby pokazać, jak głębokie ma ona zakorzenienie. Wczesne ujęcia zachowania informacji miały zastosowanie do wyszukiwań deterministycznych opartych na w pełni określonych danych („aksjomatach” bądź „przesłankach”) i wykonujących w pełni określone operacje („logiczne” albo „programowalne na komputerze”). W tych wczesnych ujęciach da się zauważyć brak odniesienia do elementów stochastycznych. W związku z tym wyniki tych deterministycznych wyszukiwań, o ile w ogóle przypisano by im prawdopodobieństwa, miałyby prawdopodobieństwo równe 0 albo 1. Celem tych wyszukiwań nie było więc rozwiązywanie problemów typu „szukanie igły w stogu siana”, lecz potwierdzenie, że pewne wyniki są w sposób konieczny uzyskiwane na podstawie określonych danych wejściowych, a w innych przypadkach są przez dane wejściowe całkowicie wykluczane. Teraz chciałbym przeskoczyć do lat dziewięćdziesiątych XX wieku, kiedy to koncepcję zachowania informacji uogólniono tak, aby obejmowała pełny zakres wyszukiwań.

W latach dziewięćdziesiątych najważniejszym ustaleniem w zakresie zachowania informacji w wyszukiwaniu były twierdzenia „nic za darmo” udowodnione przez informatyków Davida H. Wolperta i Williama G. Macready’ego. Ich pierwszym artykułem na ten temat był sporządzony dla Instytutu Santa Fe raport techniczny zatytułowany No Free Lunch Theorems for Search16 [Twierdzenia „nic za darmo” w wyszukiwaniu], a więc twierdzenia te dotyczyły wyszukiwania (nie zaś fizyki) i koncentrowały się na ogólnie pojętym wyszukiwaniu (zarówno deterministycznym, jak i stochastycznym). Ten artykuł powstał w 1996 roku jako maszynopis przeznaczony dla wąskiego grona specjalistów. Jego pełna formalna wersja ukazała się w 1997 roku na łamach czasopisma „IEEE Transactions on Evolutionary Computation”, gdzie artykułowi nadano inny tytuł: No Free Lunch Theorems for Optimization17 [Twierdzenia „nic za darmo” w optymalizacji]. Niemniej optymalizacja to po prostu wyszukiwanie czegoś optymalnego, w związku z czym przedmiotem zainteresowania tego drugiego artykułu wciąż pozostaje wyszukiwanie.

– Koniec części pierwszej –

William A. Dembski

 

Oryginał: Conservation of Information: The History of an Idea, „Evolution News & Science Today” 2025, January 20 [dostęp: 27 VIII 2025].

Przekład z języka angielskiego: Dariusz Sagan

 

Źródło zdjęcia: Pixabay

Ostatnia aktualizacja strony: 27.8.2025

Przypisy

  1. Termin „zachowanie energii” ukuł w 1851 roku William Thomson (Lord Kelwin). Krótką historię idei zachowania informacji można znaleźć w artykule: R.L. Coelho, On the Concept of Energy: How Understanding Its History Can Improve Physics Teaching, „Science & Education” 2007, Vol. 18, No. 8, s. 961–983, https://doi.org/10.1007/s11191-007-9128-0.
  2. Por. L. Susskind, J. Lindesay, An Introduction to Black Holes, Information, and the String Theory Revolution: The Holographic Universe, World Scientific, Singapore 2005, rozdz. 9. Tytuł tego rozdziału jest bardzo wymowny: The Puzzle of Information Conservation in Black Hole Environments [Zagadka zachowania informacji w środowiskach czarnych dziur].
  3. Por. S.W. Fomin, I.P. Kornfeld, J.G. Sinaj, Teoria ergodyczna, tłum. J. Jakubowski, Państwowe Wydawnictwo Naukowe, Warszawa 1987, podrozdz. 2.2.
  4. Por. S.L. Braunstein, A.K. Pati, Quantum Information Cannot Be Completely Hidden in Correlations: Implications for the Black-Hole Information Paradox, „Physical Review Letters” 2007, Vol. 98, No. 8, numer artykułu: 080502, https://doi.org/10.1103/PhysRevLett.98.080502.
  5. Tak ujął tę kwestię Laplace: „Obecny stan Wszechświata powinniśmy więc uznawać za skutek stanu go poprzedzającego i za przyczynę stanu, w którym znajdzie się później. W danej chwili inteligencja, która jest w stanie pojąć wszystkie siły przyrody oraz zna konkretną sytuację składających się na nią bytów – inteligencja dostatecznie potężna, by poddać te dane analizie – ujęłaby w jednym wzorze nie tylko ruchy największych ciał we Wszechświecie, ale też najlżejszych atomów. Dla niej nic nie byłoby niepewne i jej oczom ukazywałaby się zarówno przyszłość, jak i przeszłość. Ludzki umysł, pomimo perfekcji, którą był zdolny nadać astronomii, może zaoferować jedynie nikłą ideę tej inteligencji. Jego odkrycia w dziedzinie mechaniki i geometrii, w połączeniu z odkryciem powszechnego ciążenia, umożliwiły mu ujęcie przeszłych i przyszłych stanów układów świata za pomocą tych samych twierdzeń analitycznych. Dzięki zastosowaniu tej samej metody do innych przedmiotów swojej wiedzy udało mu się odnieść zaobserwowane zjawiska do ogólnych praw oraz przewidzieć te zjawiska, które w danych warunkach powinny nastąpić. Wszystkie te próby poszukiwania prawdy stale prowadzą go do potężnej inteligencji, o której przed chwilą wspomnieliśmy, ale od której zawsze będzie nieskończenie oddalony. Ta tendencja, charakterystyczna dla rasy ludzkiej, zapewnia ludzkiemu umysłowi wyższość nad zwierzętami, a postęp w tym zakresie odróżnia od siebie narody oraz epoki i przynosi im prawdziwą chwałę” (cyt. za: P. Suppes, Probabilistic Metaphysics, Basil Blackwell, Oxford 1984, s. 17–18).
  6. Por. P. Medawar, The Limits of Science, Harper & Row, New York 1984, s. 78–82.
  7. Tamże, s. 79.
  8. Tamże.
  9. H.A. Rowland, The Highest Aim of the Physicist, Presidential Address to the American Physical Society, 1899, October 28, s. 11 [4–16] [dostęp: 26 I 2025] [wyróżnienia dodane przez autora].
  10. L. Brillouin, Nauka a teoria informacji, tłum. S. Mazurek, J. Szklanny, „Informacja i Sterowanie”, Państwowe Wydawnictwo Naukowe, Warszawa 1969, s. 343.
  11. Tamże, s. 344.
  12. Tamże, s. 345.
  13. A. Lovelace, Translator’s Notes on Menabrea’s Memoir, w: Scientific Memoirs, Selected from the Transactions of Foreign Academies of Science and Learned Societies, and from Foreign Journals, Vol. 3, ed. R. Taylor, Richard and John E. Taylor, London 1843, s. 722 [691–731]. Co ciekawe, Alan Turing sporo cennego miejsca w swoim słynnym artykule Computing Machinery and Intelligence [Maszyny liczące a inteligencja] (por. A.M. Turing, Computing Machinery and Intelligence, „Mind” 1950, Vol. 59, No. 236, s. 433–460, https://doi.org/10.1093/mind/LIX.236.433) poświęcił odpowiedzi na tę wypowiedź Lovelace, argumentując, że takie maszyny, jak maszyna analityczna Babbage’a, można jednak uznać za myślące, o ile osiągną pewien krytyczny próg złożoności (gdyby więc udało im się dobrze naśladować człowieka, to przekonałyby ludzi, że mają oni do czynienia nie z maszynami, lecz z ludźmi). Nawet jednak twierdzenie, że maszyny mogą myśleć w taki sposób, jak ludzie (redukcjonizm obliczeniowy), nie przeczy przekonaniu Lovelace, że maszyny nie mogą wytworzyć więcej niż miały na wejściu. Wprawdzie odrzucam pogląd, że ludzkie umysły są równorzędne maszynom liczącym (czyli odrzucam redukcjonizm obliczeniowy), ale wydaje mi się, że życzliwa interpretacja wypowiedzi Lovelace pozwala uznać, iż chodzi jej o to samo, co Medawarowi i Brillouinowi. Sedno sprawy dotyczy tego, czy w przypadku maszyn informacja na wyjściu jest ograniczona przez informację na wejściu. To, czy maszyny potrafią myśleć, i co to znaczy, że myślą, to odrębne kwestie.
  14. E.A. Poe, Maelzel’s Chess-Player, „Southern Literary Messenger” 1836, No. 2, s. 322 [318–326] [dostęp: 27 I 2025].
  15. Tamże, s. 319 [wyróżnienia zgodnie z oryginałem cytatu].
  16. Por. D.H. Wolpert, W.G. Macready, No Free Lunch Theorems for Search, SFI-TR-95-02-010 (Santa Fe Institute), 1996, February 23.
  17. Por. D.H. Wolpert, W.G. Macready, No Free Lunch Theorems for Optimization, „IEEE Transactions on Evolutionary Computation” 1997, Vol. 1, No. 1, s. 67–82, https://doi.org/10.1109/4235.585893.
Tagi: Ada Lovelace, Alan Turing, algorytm ewolucyjny, algorytm wyszukiwania, astronomia, atom, biasowanie, Charles Babbage, Cullen Schaffer, czarna dziura, Dariusz Sagan, David H. Wolpert, druga zasada termodynamiki, duże modele językowe, Edgar Allan Poe, energia, entropia, ewolucja biologiczna, fizyka, fizyka klasyczna, funkcja przystosowania, generalizacja, geometria, George Montañez, granice nauki, Henry Augustus Rowland, horyzont zdarzeń, idea zachowania informacji, informacja, informacja kwantowa, informacja na wejściu, informacja na wyjściu, informacja zwrotna, informatyka, inteligencja, Johann Nepomuk Mälzl, komplementarność czarnych dziur, komputer cyfrowy, koszt probabilistyczny, Léon Brillouin, Leonard Susskind, Luigi Menabrea, maszyna analityczna, maszyna do gry w szachy, maszyna licząca, maszyna matematyczna, matematyka, mechanika, mechanika kwantowa, mechanika statystyczna, mechanizm sprzężenia zwrotnego, nauka, obliczenia ewolucyjne, optymalizacja, optymalizator, parametryzacja, Peter Medawar, Pierre Simon de Laplace, prawdopodobieństwo, prawo zachowania informacji, prawo zachowania wiedzy, proces mechaniczny, proces odwracalny, proces wyszukiwania, promieniowanie Hawkinga, przestrzeń problemów, przestrzeń wyszukiwania, rachunek prawdopodobieństwa, redukcjonizm obliczeniowy, Robert J. Marks II, równanie Schrödingera, sieć neuronowa, ślepe wyszukiwanie, stan kwantowy, Stephen Hawking, szachista Mälzla, teoria ergodyczna, teoria informacji, teoria wyszukiwania, termodynamika klasyczna, Thomas M. English, transformacja informacji, twierdzenie Liouville’a, twierdzenie „nic za darmo”, uczenie maszynowe, układ zamknięty, umysł ludzki, warunki początkowe, William A. Dembski, William G. Macready, William Thomson, Winston Ewert, wszechświat, wyszukiwanie deterministyczne, wyszukiwanie heurystyczne, wyszukiwanie stochastyczne, wyszukiwanie typu „szukanie igły w stogu siana”, wyszukiwanie wyczerpujące, zachowanie informacji, zunifikowane ujęcie probabilistyczne

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *



Najnowsze wpisy

Najczęściej oglądane wpisy

Wybrane tagi