Czy w naukach przyrodniczych jest miejsce dla teorii inteligentnego projektu? Część 1Czas czytania: 14 min

Michał Kuryłek

2021-05-19
Czy w naukach przyrodniczych jest miejsce dla teorii inteligentnego projektu? Część 1<span class="wtr-time-wrap after-title">Czas czytania: <span class="wtr-time-number">14</span> min </span>

„Wydaje się, że im więcej wiemy, tym łamigłówka staje się trudniejsza”.

Nicholas Wade

Wstęp

Dzięki postępowi technicznemu w XX wieku uczeni rozpoczęli zarówno eksplorację niedostępnego przedtem mikroświata, jak i makrokosmosu. W efekcie w niektórych przyjmowanych wcześniej teoriach, jak neodarwinizm, pojawiły się pewne luki. Znaki zapytania zmuszają nas do dalszego poszukiwania odpowiedzi poprzez modyfikację już istniejących teorii lub badanie ich alternatyw. Jedną z propozycji, która rozwiązuje niektóre problemy neodarwinizmu jest teoria inteligentnego projektu (inteligent design, ID). Za moment wykrystalizowania się jej ram uznaje się wydanie przez Charlesa Thaxtona, Waltera Bradleya oraz Rogera Olsena książki The Mystery of Life’s Origin [Zagadka pochodzenia życia]1. Choć znaczna część środowiska naukowego teorię ID nazywa pseudonauką, jej teoretycy dostarczają kolejnych argumentów, które pokazują, że koncepcja ta powinna być w świecie nauki traktowana poważnie.

Teoria inteligentnego projektu zakłada, że niektóre zjawiska i struktury świata przyrodniczego nie mogły pojawić się w rezultacie niekierowanych procesów naturalnych i są skutkiem celowego działania inteligencji. Celem zwolenników tego ujęcia jest poszukiwanie świadectw projektu. Warto zaznaczyć, że w naukach przyrodniczych nie poszukuje się projektanta, ponieważ nie posiadamy danych naukowych, które mogłyby rzucić jakiekolwiek światło na to zagadnienie. Teoretycy projektu wykazują się metafizyczną wstrzemięźliwością, a ich wszelkie próby określenia natury projektanta znajdują się poza teorią inteligentnego projektu (mają one charakter filozoficzny lub teologiczny). Teoria ID nie jest zaprzeczeniem obecnie przyjętych teorii, a wręcz korzystne byłoby ich wzajemne uzupełnianie się. Jednak najpierw należy gruntownie uzasadnić potrzebę wprowadzania teorii ID do grona teorii naukowych.

 

Biogeneza

W tym celu cofniemy się do samego początku biogenezy, fazy bulionu pierwotnego. Jest to etap przysparzający problemów zwolennikom poglądu o naturalistycznej ewolucji chemicznej. Z mieszaniny względnie prostych związków organicznych miałaby powstać struktura charakteryzująca się izolacją od środowiska zewnętrznego, przeprowadzaniem metabolizmu oraz zdolnością do namnażania. Zatem struktura, ujmując rzecz najogólniej, żywa. Przywołując porównanie z książki profesora Mieczysława Pajewskiego Stworzenie czy ewolucja?, Boeing 747 składa się z 4 milionów części, z których żadna nie posiada właściwości latania. Podobnie ani jedna cząsteczka w komórce sama w sobie nie jest żywa. Nie ma niczego nadnaturalnego w procesie, jakim syntetyzowane są białka2. Protoplaście komórki, o którym mowa, potrzeba lipidowej membrany, enzymów oraz nośnika informacji genetycznej, by mianować go żywym3. Tylko pytanie brzmi: jak miałoby dojść do chemicznej ewolucji wszystkich komponentów potrzebnych do powstania pierwszej żywej struktury?

Chronologicznie, pierwsza teoria na temat chaotycznej syntezy losowych łańcuchów peptydowych z wolnych aminokwasów została przedstawiona w 1958 roku przez Sidneya W. Foxa4. Wspomniane łańcuchy, nazywane proteinoidami, ulegając konformacji (splątaniu) uwarunkowanej strukturą I-rzędową, nabierały potencjalnych właściwości katalitycznych, formując pierwsze enzymy. Aktualnie większość badaczy odrzuciła już tę teorię, uznając ją za zbyt mało prawdopodobną i niewystarczającą5.

Następnie, od 1986 roku, dużą popularnością cieszyła się hipoteza świata RNA6. Eksperyment Millera (1953) pokazał możliwości chaotycznego powstania puryn i pirymidyn (części składowych materiału genetycznego) oraz łączenia się ich w łańcuchy7. Ze względu na właściwości katalityczne rybozymów, obiecująca okazała się możliwość replikacji jednych łańcuchów RNA przy użyciu drugich8. Niestety, hipoteza świata RNA nie sprawdziła się. Pisze o tym Philip Ball w artykule Flaws in the RNA World [Wady świata RNA]9. Wśród wad tej teorii wymienia: 1) zbyt niskie prawdopodobieństwo otrzymania skomplikowanych polimerów, jakimi są rybozymy; 2) za niską koncentrację cząsteczek prebiotycznych oraz 3) zachodzące równocześnie niszczycielskie reakcje krzyżowe. Podobny wniosek wysunął wcześniej biochemik ze Scripps Research Institute, Gerald Joyce wraz z Michaelem P. Robertsonem10.

Aktualnie na popularności zyskuje hipoteza najmniej przekonywająca z perspektywy rachunku prawdopodobieństwa, mówiąca o tym, że zarówno proteinoidy, RNA, jak i membrany lipidowe miałyby powstać jednocześnie11. Teorię tę opracował w 1971 roku węgierski biochemik Tibor Gánti`, nazywając powstałą ze wspomnianych trzech komponentów strukturę chemotonem. Jako pośrednie świadectwo tej teorii miałoby posłużyć badanie składu meteorytu Murchison, który spadł na teren Australii w 1969 roku12. Okazało się, że jest on datowany na wiek Ziemi, a jego dogłębna analiza wykazała obecność lipidopodobnych molekuł, aminokwasów oraz elementów składowych RNA, co miałoby przemawiać za ich jednoczesnym powstaniem na Ziemi wcześniej, niż dotąd sądziliśmy. Jednak teoria zakładająca powstanie w jednym momencie wszystkich wspomnianych molekuł stoi w sprzeczności z założeniami gradualizmu. Gradualizm jest koncepcją zakładającą, że ewolucja to stopniowy proces akumulacji korzystnych cech. Chemoton z kolei charakteryzuje się nieredukowalną złożonością, która stanowi kryterium rozpoznania projektu, a jednocześnie wyklucza możliwość, że pewne złożone struktury powstały drogą małych kroków. Dobrze zilustrował to Michael J. Behe na przykładzie pułapki na myszy, która nie mogłaby powstawać stopniowo, ponieważ każdy etap pośredni byłby niefunkcjonalny13. Co więcej, opracowana przez Gántiego hipoteza odkłada w czasie i powiększa jedynie ten sam problem, który dotyczył hipotezy świata RNA. Prawdopodobieństwo zajścia jednocześnie dwóch niezależnych zdarzeń losowych jest iloczynem szansy na zajście każdego z nich osobno. Wynika z tego, że prawdopodobieństwo chaotycznej syntezy jednocześnie prawidłowo funkcjonujących białek, łańcuchów RNA oraz membrany lipidowej jest nieporównywalnie mniejsze niż szansa na otrzymanie rybozymów w świecie RNA. Ponadto omawiana hipoteza nie rozwiązuje problemu zbyt niskiej koncentracji molekuł w bulionie pierwotnym oraz kwestii destrukcyjnych reakcji krzyżowych. Fred Hoyle oraz Chandra Wickramasinghe w książce Evolution from Space14 [Ewolucja z Kosmosu] podali, że szansa na spontaniczne zorganizowanie żywej materii jest nie większa niż jeden do 1040000. Niewiarygodność naturalistycznych hipotez ewolucji chemicznej jest kierunkowskazem do dalszego poszukiwania wytłumaczenia biogenezy. Nie należy się go doszukiwać li tylko w teorii inteligentnego projektu, jednak nienaukowym podejściem byłoby odrzucenie teorii ID już na wstępie badań.

 

Ewolucja ukierunkowana

Noblistka w dziedzinie chemii, Frances H. Arnold, jako pierwsza w swoich badaniach zastosowała metodę tak zwanej ewolucji sterowanej15. Opiera się ona na wywoływaniu losowych mutacji w sekwencji kodującej białko, a następnie sztucznej selekcji kolonii z oczekiwanymi cechami, na których zależy badaczom. Metoda ta jest niemal antagonistyczna względem planowania racjonalnego z użyciem technik komputerowych, mających na celu przewidzenie efektów konkretnej zmiany konformacji białka. Mimo wszystko profesor Arnold z sukcesem udaje się syntetyzować nowe leki stosowane między innymi w chorobach autoimmunologicznych oraz nowotworowych. Opisana przez noblistkę metoda umożliwiła biotechnologom zapanowanie nad naturalną ewolucją białek i wykorzystanie tego procesu do własnych celów.

Temat ten prowadzi nas do hipotezy zaprojektowania Wszechświata bez dalszej ingerencji w przebieg zdarzeń. Czy możliwe jest uzyskanie z góry zaplanowanego efektu tylko dzięki dobraniu odpowiednich warunków fizycznych (brzegowych) na początku istnienia czasu?  Jak widać, nawet za pomocą tak mało selektywnych warunków człowiek jest w stanie zdarzeniami losowymi doprowadzić do otrzymania produktu, na którym mu zależy. Zatem o ile bardziej złożone procesy selekcji i ciągi przyczynowo-skutkowe mogłyby zostać zdeterminowane przy znacznie precyzyjniejszym określeniu warunków fizycznych.

 

Ciąg przyczynowo-skutkowy

Powszechnie uważa się, że 13 miliardów 820 milionów lat temu całość materii oraz energii były zgromadzone w jednym punkcie, nazywanym przez Georges’a Lemaître’a, twórcę założeń teorii Wielkiego Wybuchu, pierwotnym atomem16. Ewolucja Wszechświata to w rzeczywistości wielkie doświadczenie fizyczne, w które wszyscy jesteśmy zaangażowani, a rozważania o pierwotnym atomie to poszukiwanie warunków brzegowych (początkowych) Wielkiego Wybuchu. Potencjalna inteligencja byłaby w stanie dostosować takie warunki, by przez ciąg przyczynowo-skutkowy doprowadzić do stanu obecnego. W tej koncepcji należy jednak założyć poprawność jednej z trzech następujących teorii: 1) dekoherencji środowiskowej, 2) idei zmiennych ukrytych, postulowanej przez Alberta Einsteina, lub też 3) hipotezy multiwersum Hugh Everetta, której zwolennikiem był Stephen Hawking.

Mówiąc o ciągu przyczynowo-skutkowym, warto przedstawić pojęcie efektu motyla17. Generalizując, jest to sprzężenie zwrotne dodatnie następujących po sobie zjawisk. Wszelkie czynności akumulują się w czasie i wywołują nieporównywalnie większe efekty. Zakładając jedną z powyższych interpretacji mechaniki kwantowej, każde zachowanie materii jest uwarunkowane niższym poziomem. Można zatem powiedzieć, że nie istnieje w naturze coś takiego jak zdarzenie losowe18. Każde wydarzenie uwarunkowane jest innymi zdarzeniami o mniejszej skali. W ten sposób dochodzimy do punktu, w którym każdy proces na jakimkolwiek poziomie złożoności jest do przewidzenia, o ile posiadamy dostęp do wszystkich parametrów fizycznych – takie przewidywania są dla nas oczywiście możliwe tylko w teorii. Jak wspominałem, należy także przyjąć jedną z trzech wyżej wymienionych interpretacji mechaniki kwantowej19.

Nasze komórki zbudowane są z tej samej materii co sześcienna kostka do gry. I zarówno rzut kostką, jak i metabolizm naszych komórek są zdarzeniami nielosowymi. Nasze wybory i emocje nie wynikają z magicznej nieokreślonej świadomości, ale ze złożonych reakcji biochemicznych, synergizmu i antagonizmu neuroprzekaźników oraz hormonów. Przyjmując taki determinizm, każdy nasz ruch jest skutkiem i przyczyną efektu motyla na poziomie zarówno atomowym, jak i makroskopowym. Kiedy znamy wszystkie istniejące parametry fizyczne, możemy przewidzieć skutki ruchu20. Taki scenariusz otwiera drzwi dla idei zaprojektowania Wszechświata bez dalszej ingerencji w przebieg zdarzeń. Teoretycznie wystarczyłoby dostosowanie odpowiednich warunków fizycznych.

Za tą koncepcją pośrednio przemawia tak zwane precyzyjne dostrojenie (fine tuning) stałej kosmologicznej, czyli gęstości energii w pustej przestrzeni. Na podstawie aktualnej teorii cząstek elementarnych, jej wartość oszacowana w oparciu o skalę Plancka jest o kilkadziesiąt rzędów wielkości większa niż oczekiwana na podstawie rozmiarów Wszechświata. Informacja ta ma ogromne znaczenie, ponieważ gdyby owa wartość była większa i dodatnia, stanowiłaby siłę odpychającą, uniemożliwiając skupienie materii we wczesnych stadiach formowania Wszechświata. Z kolei jej mniejsze wartości, jak podaje Steven Weinberg, skróciłyby istotnie czas istnienia Wszechświata, który byłby za krótki, by rozwinęło się w nim życie – w takim wypadku stała kosmologiczna stanowiłaby siłę przyciągającą, która rosnąc wraz z odległością, doprowadziłaby do niemal natychmiastowego zahamowania ekspansji Wszechświata oraz jego ponownego zapadnięcia się21.

Opisany powyżej scenariusz jest jednym z wielu możliwych i zakłada poprawność deterministycznych interpretacji mechaniki kwantowej. Pozostaje on na ten moment w kategorii wolnych rozważań, ponieważ ustalenie cech, zamiarów oraz tożsamości potencjalnego projektanta leży poza możliwościami współczesnej nauki. Mimo wszystko ignorancją byłoby wykluczenie takiej koncepcji przez środowisko naukowe, uzasadniając to jedynie przyjmowanym poglądem metodologicznym. Warto zaznaczyć, że w przypadku przyjęcia interpretacji kopenhaskiej obiekty mniejsze niż 10-9 metra podlegałyby mechanizmom kwantowym, co warunkowałoby indeterminizm i niepoprawność opisanej hipotezy.

 

Panspermia

Panspermia jest hipotezą istotną dla całokształtu teorii ID. Początków opisu jej ram można doszukać się jeszcze u greckiego filozofa, Anaksagorasa z Kladzomen. Następnie, w XIX i XX wieku teorię tę rozwijali Jöns Jacob Berzelius, William Thomson oraz Svante Arrhenius22.

Na potrzeby eseju ograniczę się do dwóch wariantów panspermii: przypadkowej, przedstawionej przez Thomasa Golda, zakładającej, że życie dostało się na Ziemię wraz z meteorytami zanieczyszczonymi bakteryjnymi przetrwalnikami23, oraz ukierunkowanej24, według której inteligentne formy życia wysłały na naszą planetę przetrwalniki bakteryjne w specjalistycznych statkach-tarczach mających chronić je przed promieniowaniem kosmicznym25. Rozważając hipotezę panspermii ukierunkowanej, należy kierować się przede wszystkim prawdopodobieństwem tego zdarzenia, ponieważ na ten moment brak jest praktycznych możliwości zebrania odpowiednich świadectw empirycznych. Istnieją zasadniczo trzy scenariusze pochodzenia wspomnianej inteligentnej formy: 1) galaktyka nienależąca do bliskiego otoczenia Drogi Mlecznej, 2) jedna z kilkudziesięciu galaktyk „Lokalnej Grupy”, 3) układ planetarny powiązany z gwiazdą niedaleką od Układu Słonecznego. W pierwszych dwóch przypadkach, ze względu na odległości, prawdopodobieństwo sukcesu inokulacji życia byłoby bliskie zeru (w pierwszym przypadku odległość wynosiłaby wiele milionów lat świetlnych, a w drugim – około 2 milionów). Rozważmy zatem ostatni scenariusz, posługując się dla przykładu znajdującą się najbliżej naszego Układu gwiazdą, Alpha Centauri C. Odległość do niej wynosi 4,24 lata świetlne. Aby przełożyć to na skalę czasową, Helios, nasza najszybsza sonda, przebyłby tę drogę w około 18 132 lata.

Problemem ukierunkowanej panspermii jest przede wszystkim brak możliwości jej eksperymentalnego zbadania oraz skrajnie niskie prawdopodobieństwo na pokonanie ogromnych odległości dzielących poszczególne obszary we Wszechświecie. Jednak, jak podaje astrofizyk Steinn Sigurdsson, istnieją endospory bakterii, które potrafią przetrwać w stanie wegetatywnym miliony lat. Jednym z licznych przykładów jest bakteria Virgibacillus marismortui, która przetrwała w kryształach solnych 250 milionów lat26. Zatem mimo niskiego prawdopodobieństwa teorii ukierunkowanej panspermii, nie należy jej bezwarunkowo wykluczać, ponieważ postęp technologiczny może w przyszłości zaopatrzyć nas w sposoby na walidację tej hipotezy.

— Koniec części pierwszej —

Przypisy

  1. Por. Ch.B. Thaxton, W.L. Bradley, R.L. Olsen, The Mystery of Life’s Origin: Reassessing Current Theories, New York 1984.
  2. Por. M. Pajewski, Stworzenie czy ewolucja?, Bielsko-Biała 1992, s. 30.
  3. Por. L.E. Orgel, The Origin of Life A Review of Facts and Speculations, „Trends in Biochemical Sciences” 1998, Vol. 23, No. 12, s. 491–495.
  4. Por. S.W. Fox, Harada K., Thermal Copolymerization of Amino Acids to a Product Resembling Protein, „Science” 1958, s. 1214.
  5. Por. J. Daintith, Biographical Encyclopedia of Scientists, New York 2008, s. 259.
  6. Por. T.R. Cech, The RNA Worlds in Context, „Cold Spring Harbor Perspectives in Biology” 2011, Vol. 4, No. 7, s. 1–5.
  7. Por. S.L. Miller, A Production of Amino Acids Under Possible Primitive Earth Conditions, „Science” 1953, Vol. 117, No. 3046, s. 528–529.
  8. Por. W.K. Johnston, RNA-Catalyzed RNA Polymerization: Accurate and General RNA-Templated Primer Extension, „Science” 2001, Vol. 292, No. 5520, s. 1319–1325.
  9. Por. P. Ball, Flaws in the RNA World, „Royal Society of Chemistry” 2020, February 12 [dostęp 20 V 2020].
  10. Por. G.F. Joyce, M.P. Robertson, The Origins of the RNA World, „Cold Spring Harbor Perspectives in Biology” 2012, Vol. 4, s. 1–22.
  11. Por. M. Marshall, Radical New Theory Rewrites the Story of How Life on Earth Began, „New Scientist” 2020, August 5 [dostęp 20 VIII 2020].
  12. Por. Z. Martins et al., Extraterrestrial Nucleobases in the Murchison Meteorite, „Earth and Planetary Science Letters” 2008, Vol. 270, s. 130–136.
  13. Por. M.J. Behe, Czarna skrzynka Darwina. Biochemiczne wyzwanie dla ewolucjonizmu, tłum. D. Sagan, „Seria Inteligentny Projekt”, Warszawa 2020, s. 45.
  14. Por. F. Hoyle, Ch. Wickramasinghe, Evolution from Space, Cardiff 1982, s. 20–24.
  15. Por. Women who Changed Science: Frances H. Arnold, „The Nobel Prize” 2020 [dostęp 12 sierpnia 2020].
  16. Por. G. Lemaître, Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extra-galactiques, „Annales de la Société scientifique de Bruxelles” 1972, s. 49–59.
  17. Por. E.N. Lorenz, Deterministic Nonperiodic Flow, „Journal of the Atmospheric Sciences” 1964, s. 367–378.
  18. Por. M. Heller, T. Pabjan, Elementy filozofii przyrody, Kraków 2014, s. 221.
  19. Por. Determinism, „Conceptually” 2019 [dostęp 12 VIII 2020].
  20. Por. R.L. Franklin Freewill and Determinism: A Study of Rival Conceptions of Man, London 1969, s. 10–37.
  21. Por. S. Weinberg, The Cosmological Constant Problem, „Reviews of Modern Physics” 1989, Vol. 61, No. 1, s. 1–23.
  22. Por. S. Arrhenius, Worlds in the Making: The Evolution of the Universe, New York 1908.
  23. Por. T. Gold, Cosmic Garbage, „Air Force and Space Digest Magazine” 1960, Vol. 49, No. 2, s. 65.
  24. Por. Heller, Pabjan, Elementy filozofii przyrody, s. 143–150.
  25. Por. C. Gros, Developing Ecospheres on Transiently Habitable Planets: The Genesis Project, „Astrophysics and Space Science” 2016, s. 324.
  26. Por. R.J. Cano, M.K. Borucki, Revival and Identification of Bacterial Spores in 25- to 40-Million-Year-Old Dominican Amber, „Science” 1995; J. Ringo, Reproduction of Bacteria, Orono 2004, s. 153–160.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *



Najnowsze wpisy

Najczęściej oglądane wpisy

Wybrane tagi