Paradoksy informacji
Pojęcie informacji przebojem wdarło się do wielu dziedzin nauki: od psychologii, przez biologię, aż po fizykę i kosmologię. I wszędzie są z nim problemy.
Stoję w oknie pokoju hotelowego i z wysokości pięciu pięter przyglądam się ruchliwemu skrzyżowaniu. Zielone… czerwone… zielone… czerwone… Setki lśniących chrabąszczy, posłusznie zatrzymujących się w miejscu i ruszających po chwili. Mżawka rozmywa światła, czas łagodnie przyspiesza, a dwie kolumny samochodów zamieniają się w wątek i osnowę jakiegoś gigantycznego, świetlistego, mechano-elektronicznego krosna. Lewo… prawo… lewo… prawo…
Zginęło sto tysięcy Japończyków – a energii nie wystarczyłoby na uśmiercenie pszczoły.
Z czysto fizycznego punktu widzenia to, co dzieje się na skrzyżowaniu, to absurd. Ilość energii potrzebna do zatrzymania i przyspieszenia setek pojazdów jest gigantyczna, a przyczyną tego całego ruchu jest parę tuzinów lampek. Nie da się strumieniem światła zatrzymać tony stali – a jednak właśnie to się dzieje. Ba, nie ma żadnego związku fizycznego między czerwienią i zatrzymaniem się oraz zielenią i przyspieszeniem – mogłoby być dokładnie na odwrót. Brak tego związku oraz dysproporcja pomiędzy przyczyną i skutkiem to znaki rozpoznawcze świata rządzonego przez informację. Enola Gay zrzuciła swój ładunek na Hiroszimę, ponieważ 25 lipca 1945 r. generał Thomas Handy umieścił na pewnej kartce papieru nieco ciemnego tuszu – poświęcił prawdopodobnie na ten ruch porcję energii, której nie wystarczyłoby na uśmiercenie pszczoły. A jednak właśnie ten podpis był jednym z członów łańcucha przyczyn prowadzących do śmierci 100 tysięcy Japończyków.
Żeby uświadomić sobie, jak nieprawdopodobne są te wszystkie zjawiska, spójrzmy na nie okiem przyrodnika. Na skinięcie ręki generała kolumna żołnierzy pada na ziemię. A czy zdarzyło się kiedyś, że na skinienie brzozowego listka wszystkie drzewa w lesie padły jak długie? Nazwisko generała na kartce papieru wywołało eksplozję bomby jądrowej, ale czy wulkany wybuchają, gdy chmury na niebie ułożą się w „L”? Tajemnica ewidentnie tkwi w naszych mózgach, które potrafią zareagować w sposób skrajnie różny na bodźce różniące się tylko o włos, opierając się na rozwijanych od tysiącleci umowach społecznych.
Z drugiej strony, w głębinach komórek żywych, od mojego neuronu po najskromniejszą bakterię, dochodzi do zjawisk niepokojąco przypominających przepływ informacji w społeczeństwie. Procesy komórkowe komunikują się ze sobą nawzajem przy użyciu precyzyjnych komunikatów, wyrażonych przy pomocy alfabetu aminokwasów i nukleotydów – zobaczcie, ile tu słów związanych z rzeczywistością językową! Czy oznacza to, że powinniśmy się doszukiwać mózgów i umów społecznych w cząsteczkach białka?
Co więcej, pojęcie informacji jest dziś używane do opisu zjawisk zachodzących na fundamentalnym poziomie wszechświata.
Teoria Einsteina nakłada, mówią fizycy, ograniczenia na możliwość przesyłu informacji w czasoprzestrzeni, a czarne dziury usuwają ze świata informację zawartą w cząstkach. Procesy chemiczne, dodają chemicy, przebiegają w kierunku wyznaczanym przez przepływ informacji. To jak to jest – kto puścił w ruch karuzelę informacji? Ludzie? Życie? Świat?
Barszcz serwowany jest tylko jeden jedyny raz, w Wigilię.
W latach 40. i 50. XX w., w bezpośrednim związku z rozwojem elektroniki, telekomunikacji i maszyn obliczeniowych, narodziły się ilościowe badania nad informacją i komunikacją. Wykształcił się też wówczas uczony do dzisiaj idealny model sytuacji komunikacyjnej: nadawca koduje swój komunikat przy pomocy pewnego standardowego kodu, po czym przesyła go określonym kanałem (który może wprowadzać szum „kasujący” informację), a odbiorca dokonuje jego odkodowania. Claude Shannon i Warren Weaver, twórcy tego modelu, pracowali wówczas dla Bell Laboratories, gdzie pytania o informację miały znaczenie praktyczne. W Bell Labs łamano kody i opracowywano technologie bezpiecznej komunikacji; to tam pod koniec lat 40. powstał pierwszy tranzystor i jedne z pierwszych komputerów. W 1948 r. zaś w wydawanym tam czasopiśmie „Bell System Technical Journal” Claude Shannon po raz pierwszy użył słowa bit.
Pomówmy chwilę o tej pięknej fikcji, jaką jest bit. Bit – od binary digit, czyli „cyfra dwójkowa” – to jednostka informacji, odpowiadająca wyborowi spośród dwóch możliwości, które są równie prawdopodobne. W świecie komputerów te dwie możliwości to zwyczajowo zero i jeden. Gdy więc ktoś mnie zapyta: „Zero czy jeden?”, a ja odpowiem „Zero”, to właśnie przekazałem swojemu rozmówcy jeden bit informacji. Jeśli możliwości są cztery, to odpowiedź na pytanie przekazuje dwa bity; jeśli możliwości jest osiem, to moja odpowiedź ma „ładunek informacyjny” wynoszący trzy bity – i tak dalej. Matematyka uczy, że gdyby generał Handy musiał wybrać do zbombardowania jedno spośród 256 japońskich miast, to do zakomunikowania swojego wyboru potrzebowałby dokładnie ośmiu bitów – a więc ośmiu elementarnych sygnałów typu „zero/jeden”. Mogłoby to być cokolwiek, co ma dwa stany: podniesienie/opuszczenie ręki, mrugnięcie lewym/prawym okiem, ugryzienie kanapki od przodu/od boku – byleby odbiorca znał kod.
To piękna teoria, jednak praktycy kodowania, jak Shannon, szybko zdali sobie sprawę z tego, że realne sytuacje komunikacyjne są znacznie bardziej skomplikowane. Pierwszy problem tkwi w założeniu o równym prawdopodobieństwie ewentualności.
Przypuśćmy, że w pewnej kantynie zakładowej serwowane są tylko dwie zupy – pomidorowa i barszcz. Gdyby podawano je równie często, to informacja o tym, która z nich będzie dziś, rzeczywiście dostarczałaby mi dokładnie jeden bit. Przypuśćmy jednak, że barszcz serwowany jest tylko w Wigilię – pewnie aby wynagrodzić pracownikom fakt siedzenia w pracy, gdy Bóg się rodzi, a moc truchleje – przez pozostałe zaś 364 dni w roku ów nieludzki zakład karmi swych pracowników pomidorową. W takim przypadku informacja, że „dziś serwujemy barszcz”, ma sporą wartość informacyjną: zawęża bowiem naszą wiedzę o tym, jaki jest dziś dzień, do tylko jednego spośród 365 dni! Formalnie rzecz biorąc, odpowiedź „barszcz” ma więc zawartość informacyjną aż 9 bitów, a odpowiedź „pomidorowa” ułamek bitu.
Claude Shannon na bazie podobnych doświadczeń myślowych zaproponował swą własną definicję informacji: miała być ona „miarą zaskoczenia”. Można by też powiedzieć: „miarą zawężenia” – komunikat zawiera tym więcej informacji, im silniej zawęża pewien zbiór możliwości. Co istotne, w myśl takiej definicji tę samą ilość informacji można zawrzeć w komunikatach o różnej długości.
Wyobraźmy sobie, że organizujemy wesele i wysyłamy gościom maila o treści: „Czy życzysz sobie menu: 1) mięsne; 2) bezmięsne?”. Czysto formalnie każda użyteczna odpowiedź zawsze będzie zawierała dokładnie bit informacji. Jedni goście odpowiedzą jednak „1”, inni: „Dla mnie menu wegetariańskie”, a jeszcze inni rozpoczną od powitania, potem przejdą do długiej opowieści o roli wołowiny w systemie ich wrażliwości duchowej, a dopiero w ostatnich słowa łaskawie zaakceptują menu mięsne. Bliski współpracownik Shannona, Warren Weaver, zaproponował jeszcze nieco inną definicję: „informacja to miara wolności wyboru przy tworzeniu komunikatu”. Intuicja jest podobna: gość weselny, bez względu na swoją gadatliwość, może wskazać w mailu wyłącznie na jedną z dwóch możliwości, a więc jego komunikat zawsze będzie zawierać dokładnie bit informacji – oczywiście z wyjątkiem przypadków, gdy mail będzie „bezużyteczny” i nie pozwoli nam zawęzić menu: wtedy będzie zawierać zero bitów informacji, nawet gdyby weń wklejono całą Britannikę. Ilość informacji w komunikacie zależy więc też od tego, czego w nim szuka odbiorca.
Ta ostatnia uwaga może wydawać się przesadzona, ale lektura dzieł teoretyków informacji uczy, że niekoniecznie: wspólny kod to wszystko. Prosty przypadek ku refleksji: w 1912 r. antykwariusz Michał Wojnicz nabył tajemniczą książkę zwaną dziś manuskryptem Wojnicza. Większość 240-stronicowego dzieła pokryta jest znakami nieznanego alfabetu, łącznie składającymi się na ok. 35 tysięcy „słów”, i tajemniczymi ilustracjami. Datowanie radiowęglowe mówi, że manuskrypt powstał w I połowie XV w. Pytanie za 100 punktów: czy manuskrypt Wojnicza zawiera informacje? Jedni uważają, że to rzeczywisty tekst, inni – że wyrafinowana zabawa jakiegoś renesansowego dowcipnisia, za którą nie kryje się żadna treść. Jak widać, uzgodnienie kodu to rzecz o fundamentalnym znaczeniu.
Są też przypadki pośrednie, kto wie, czy nie jeszcze bardziej fascynujące. Przypuśćmy, że któryś gość weselny odpowiada: „Moja żona zje nawet turducken, ja jednak tylko sun-dubu”. Czysto „teoretycznie”, komunikat ten zawiera dwa bity informacji: turducken to danie ultramięsne (pieczony indyk nadziewany kaczką nadzianą kurczakiem [sic!]), a sun-dubu to odmiana tofu. Mail przekazuje więc, choć w postaci zawoalowanej i silnie pretensjonalnej, preferencje dietetyczne dwójki gości. Jeśli jednak czytająca go osoba nie zna tych słów, komunikat nagle traci bity. Pomyślmy też o biednym Watsonie, który na miejscu zbrodni może tylko bezradnie wpatrywać się w rozrzucone na podłodze przedmioty, podczas gdy Holmes pływa w morzu informacji, skutecznie zawężającej zbiór podejrzanych.
Klikam na chybił trafił w okienka, próbując jak najsilniej skompresować podręcznik Floridiego.
Wróćmy do sfery życia, w której powinniśmy się spodziewać pomiaru informacji o absolutnej precyzji. Przecież, na litość, plik komputerowy zajmuje konkretną liczbę komórek pamięci, z których każda reprezentuje jeden bit – powinniśmy więc choć tutaj zaznać metafizycznego spokoju. Ot, plik z niniejszym artykułem zajmuje w chwili obecnej 17 794 bajty, czyli 142 352 bity. I kropka. Prawda? Niestety, nawet na pytanie, ile informacji zawiera dany plik, nie da się odpowiedzieć automatycznie. Piękną demonstracją tego faktu jest proces kompresji, potocznie zwanej „pakowaniem”, który sprowadza się do sprawienia, aby „ten sam” plik zajął mniej miejsca na dysku.
W przypadku kompresji „stratnej” dzieje się to kosztem detali: obraz robi się ziarnisty, a dźwięk zaszumiony i metaliczny. Znacznie bardziej interesująca filozoficznie jest jednak kompresja bezstratna, ponieważ oznacza zmieszczenie dokładnie tej samej porcji informacji z użyciem mniejszej liczby bitów. Przykładowo, obraz o wymiarach 1000 na 1000 pikseli składający się wyłącznie z białych pikseli można by po prostu zapisać jako długaśny ciąg: „biały piksel, biały piksel, biały piksel…”, jednak nieco mądrzej jest wyrazić go poprzez znacznie krótszą komendę „napisz milion razy »biały piksel«”. Idea kompresji bezstratnej wydaje się kompletnie sprzeczna z definicją informacji i bitów. Jeżeli bity mają służyć do mierzenia ilości informacji, to mamy niejaki problem, mówiąc o tej samej ilości informacji zaklętej w innej liczbie bitów. To trochę tak, jak gdybyśmy powiedzieli, że potrafimy upchnąć większą masę w tej samej liczbie gramów albo 20 złotych w dwóch pięciozłotówkach.
W 1965 r. radziecki matematyk Andriej Kołmogorow wyraził te intuicje w postaci tzw. algorytmicznej teorii informacji, a niedługo później, być może niezależnie, podobną teorię przedstawił argentyńsko-amerykański matematyk Gregory Chaitin. Algorytm to ustalony sposób postępowania, przepis. Prototypem algorytmu jest program komputerowy: lista jednoznacznych komend, które wykonuje komputer. Miarą ilości informacji w danym komunikacie miałaby się zaś stać długość najkrótszego programu komputerowego generującego ten komunikat. To jeszcze bardziej wyrafinowana teoria informacji. Zauważmy, że algorytm „pakujący” wyszukuje w zadanej mu sekwencji wszelkie formy porządku, a następnie wyraża je w bardziej zwięzłej formie. Zawartość informacyjna danego ciągu znaków miałaby być ilością obecnego w nim „prawdziwego porządku”.
Budzi to oczywiście kolejne wątpliwości: w jakim właściwie języku miałby zostać wyrażony ów algorytm? Jak staranne ma być „upakowanie”? Mój podręczny program kompresujący zna 5 głównych algorytmów o nic niemówiących mi nazwach i całą paletę dodatkowych opcji, z których rozumiem jeszcze mniej. Klikam na chybił trafił w okienka, próbując jak najsilniej skompresować podręcznik filozofii informacji Luciano Floridiego. Ile bitów informacji chce mi przekazać Floridi „tak naprawdę”? Każda próba daje inny wynik. Ostatecznie znów, mimo na pozór precyzyjnej definicji, informacja wymyka się próbom jednoznacznego zmierzenia.
„Sztuczne oko żaby”, „podświadomość”, „efektywność działań bojowych”… To naprawdę miała być nauka od wszystkiego!
Praca Kołmogorowa nie poszła jednak na próżno, a definicja algorytmiczna wprowadziła do teorii informacji powiew świeżości. Przede wszystkim, „porządek” to pojęcie znacznie ogólniejsze od „zaskoczenia”, co daje nadzieję na szukanie informacji w świecie fizycznym. Zauważmy, że definicje Shannona i Weavera lokowały informację w świecie nadawców i odbiorców, kodu i języka, a nawet zjawisk tak subtelnych, jak intencja komunikacyjna. Jesteśmy więc w samym środku rzeczywistości ludzkiej. Tymczasem już wtedy wielu badaczom marzyło się uczynienie z informacji nadpojęcia, które mogłoby dostarczyć fundamentu wszystkim dziedzinom nauki. Metodą Kołmogorowa można równie łatwo opisywać sekwencję znaków w książce, co sekwencję „literek” ludzkiego genomu, a nawet układ atomów w krysztale. To świetna wiadomość dla poszukiwaczy kosmicznego porządku: gdyby udało się poprzez pojęcie porządku ukorzenić teorię informacji w fizyce, otrzymalibyśmy naprawdę piękną konstrukcję intelektualną!
Norbert Wiener, jeden z wizjonerów komputera, ukuł w 1948 r. słowo „cybernetyka” dla „teorii komunikacji i kontroli, czy to zachodzącej w maszynie, czy w zwierzęciu”, a niedługo później w każdym wyobrażalnym kontekście. Informacja miałaby być pojęciem podstawowym cybernetyki, jak punkt w geometrii albo zbiór w teorii mnogości, i nie domagać się istnienia dwóch komunikujących się ze sobą umysłów. W 1946 r. Wiener pisał, że „informacja to miara porządku”, sugerując, że po takim zdefiniowaniu będzie ją można stosować do opisu dowolnego zjawiska naturalnego. Mam na półce „Mały słownik cybernetyczny” z 1973 r., kiedy to cybernetyka przeżywała szczyt popularności. Pośród haseł w tym słowniku są pozycje tak intrygujące jak „sztuczne oko żaby”, „podświadomość” czy „efektywność działań bojowych” – to naprawdę miała być nauka od wszystkiego!
John von Neumann, kolejny geniusz i wizjoner z ery powstawania komputera, zaproponował Shannonowi, aby informację połączyć z pojęciem entropii. Oto rekomendacja, jakiej udzielił: „Powinieneś nazwać ją [tj. „informację Shannona”] entropią z dwóch powodów: po pierwsze, funkcja ta jest już używana w termodynamice pod tą samą nazwą; po drugie i najważniejsze, większość ludzi nie wie, czym tak naprawdę jest entropia, więc jeżeli użyjesz w dyskusji słowa entropia, to wygrasz za każdym razem”. Była to naprawdę celna uwaga: definiowanie informacji przez entropię to gaszenie pożaru benzyną. Pojęcie to ma szereg precyzyjnych definicji, z których żadna nie zadowala wszystkich zainteresowanych stron, a ponadto wiąże się z nią wiele mętnych intuicji (np. „entropia jako miara nieporządku”) i gigantyczne nadzieje. Czyli zupełnie jak informacja. Co więcej, istnieją dwa kompletnie ze sobą sprzeczne sposoby, w jakie można te dwa pojęcia połączyć.
Spróbujmy może zrekonstruować w najogólniejszym zarysie, jak miałaby wyglądać fizyczna wersja pojęcia informacji sformułowana tak, aby odpowiadała naszym codziennym intuicjom. Te zaś, jak się okazuje, nieźle wyraża termodynamika – niegdyś skromna nauka o silnikach, kotłach i tłokach, dziś jeden z korzeni fizyki. Słynna druga zasada termodynamiki w swojej podstawowej wersji, sformułowanej przez Rudolfa Clausiusa w 1854 r., głosi, że ciepło nie może spontanicznie przepłynąć z ciała zimniejszego do cieplejszego. Chłodny stół zawsze rozgrzeje się od gorącej kawy, ale kawa nigdy nie rozgrzeje się dodatkowo od stołu.
Z każdą kolejną dekadą konsekwencje tego niezaprzeczalnego prawa przyrody zaczęły się stawać coraz poważniejsze – okazuje się bowiem, że istnieje w przyrodzie więcej procesów, które, choć czysto na papierze mogłyby zachodzić w dowolnym kierunku, „lubią” zachodzić w tylko jedną stronę. Entropia została początkowo zdefiniowana jako właściwość układu pozwalająca przewidzieć, w którą stronę będą przebiegały zmiany w tym układzie: z definicji każdy układ przyrodniczy miałby przechodzić do stanu o wyższej entropii. W tym ujęciu druga zasada głosi, że entropia izolowanego układu – czyli takiego, który ewoluuje spontanicznie i którego nikt sztucznie nie pobudza z zewnątrz – nigdy nie będzie malała, a w praktyce zawsze rośnie.
To już nieco lepiej, jednak termodynamika nabrała prawdziwych rumieńców, gdy pojęcie entropii powiązano z porządkiem i prawdopodobieństwem. Drugą zasadę można by wówczas, z lekkim przymrużeniem oka, rozumieć jako zasadniczą skłonność świata do przechodzenia od układów bardziej uporządkowanych do mniej uporządkowanych. Kolejne pokolenia filozofów i popularyzatorów nauki zabawiają nas kolejnymi anegdotami ilustrującymi codzienne znaczenie tej zasady. Kubki z czasem obtłukują się w toku zwykłego użytkowania, ale odłamki nie skleją się już same. Spontanicznie używane mieszkanie brudzi się i bałagani, a nie czyści i porządkuje. Książki odkładane byle jak nie ułożą się same w porządku alfabetycznym. Na poziomie czystej fizyki klarownym przykładem jest gaz wypełniający pojemnik, np. powietrze w pokoju. Przypuśćmy, że zaczynamy od rozkładu niejednorodnego: z jednej strony pokoju jest cieplej. Druga zasada nakazuje, aby z czasem temperatura samoistnie się wyrównała, a skrajnie mało prawdopodobna jest historia odwrotna: w pokoju spontanicznie powstaje strefa gorąca i strefa zimna.
Spróbujmy teraz wpuścić do tego opisu pojęcie informacji. Zacznijmy od dokończenia cytatu Wienera. „Informacja to miara porządku” to bowiem tylko połowa jego powiedzonka. Reszta brzmi: „entropia to miara nieporządku”.
Nie jest łatwo to skonkretyzować, ale korzystnych intuicji dostarcza teoria Kołmogorowa. Wyobraźmy sobie, że dzielimy w myślach pomieszczenie na tysiąc regionów o identycznej objętości i wypisujemy dla każdego z nich z osobna panującą w nim temperaturę – ciąg tysiąca liczb. Jeżeli chcemy wiedzieć, ile informacji kryje się w rozkładzie temperatury naszego pokoju, szukamy najkrótszego programu komputerowego, który potrafi wygenerować tysiąc opisujących go parametrów. Algorytm dla pokoju o jednorodnej temperaturze jest bardzo prosty: „Dla każdego regionu temperatura to 210C”. Każdy dodatkowy poziom komplikacji wydłuża algorytm, co oznacza, że w układzie tym zaklęta jest większa ilość informacji. Przy odrobinie pomysłowości da się powiązać tego typu „informację fizyczną” ze zwykłą „informacją komunikacyjną” – niejednorodność rozkładu temperatury w pokoju mogłaby przecież zostać wykorzystana do zostawienia komuś wiadomości. Cieplej przy wejściu – będzie pomidorowa. Cieplej przy oknie – barszcz. I oto jeden bit przekazany przy pomocy jednej „dwójkowej” formy porządku fizycznego. Kolejna taka forma porządku (np. cieplejsza lewa lub prawa strona pokoju) to kolejny bit.
Lodówka zawsze ogrzewa pomieszczenie, w którym się znajduje.
Wszystko to brzmi, mam nadzieję, w miarę sensownie. Aż zbyt sensownie – czyżby rzeczywiście udało się stworzyć „ogólną teorię informacji”, a sama informacja może stanowić bezpieczny naukowy „powszechnik” obok pojęć takich jak „energia” czy „proces”? Niestety, wciąż pozostają poważne paradoksy, które uniemożliwiają nawet wyrobienie sobie elementarnych intuicji na temat tego, jakiego typu układy zawierają minimalną, a jakie maksymalną ilość informacji. Nie zapominajmy też o dziwnej uwadze von Neumanna, że informacja i entropia to jedno i to samo. Moment – a czy nie miało być na odwrót?
Istotę problemu najłatwiej zrozumieć po odwołaniu się do pojęcia szumu. W termodynamice klasycznej nie ma układu o wyższej entropii, a więc – zdawałoby się – zawierającego mniej informacji niż pojemnik wypełniony całkowicie jednorodnym gazem. To szum idealny, a więc – wróćmy myślą do Shannona – wróg informacji. Całkowicie zaszumiony kanał komunikacyjny nie jest w stanie przekazać choćby jednego bitu.
Pomyślmy teraz o prostym matematycznym odpowiedniku szumu: milionie doskonale losowych liczb z przedziału 1-100. Problem polega na tym, że zgodnie z definicją algorytmiczną jest to sekwencja o maksymalnej możliwej ilości informacji. Nie da się „spakować” listy liczb losowych, ponieważ nie ma w niej żadnego porządku. Mówiąc jeszcze inaczej, nie istnieje krótszy sposób zapisania miliona losowych liczb niż same te liczby: nawet najdoskonalszy program do kompresji nigdy nie skróci miliona losowych bitów o ani jeden bit. Porównajmy to choćby z sekwencją kolejnych cyfr po przecinku w liczbie pi – tę da się wygenerować na podstawie przepisu matematycznego, znacznie krótszego od miliona znaków. Dochodzimy więc do kłopotliwego wniosku, że książka całkowicie wypełniona losowymi znakami zawiera więcej informacji od tomu Britanniki: tę drugą bardzo łatwo przecież skrócić bez utraty informacji, choćby wprowadzając ustalone na wstępie skrótowce.
Pokrewny problem pojawia się w skali kosmologicznej. Oglądany oczami termodynamika wszechświat może budzić poważne wątpliwości. Stan kosmosu w jego najwcześniejszych chwilach można opisać jako wielki szum – niemal doskonale jednolita temperatura i prosty skład cząsteczkowy, gdzie okiem sięgnąć. Każdy kolejny miliard lat wiązał się zaś ze spontanicznym wyłanianiem się najrozmaitszych form porządku: od atomowego i chemicznego po artystyczny i technologiczny. Wszechświat wydaje się być całkowicie pochłonięty generowaniem informacji. Stoi to w niejakiej sprzeczności z drugą zasadą, która wydaje się nakazywać, aby entropia świata stale rosła. Owszem, może maleć, jednak zawsze kosztem wypompowania chaosu do środowiska zewnętrznego. Nie ma chyba lepszej wizualizacji tej zasady niż talerz z pięknym daniem na tle kuchennego chaosu, którego ogarnięcie zajmie wiele godzin. Każda dawka porządku, jaki wpompujemy w świat, zostaje okupiona jeszcze większą dawką nieporządku. Lodówka zawsze ogrzewa pomieszczenie, w którym się znajduje, a śmieci zamiecione z ulic trafiają na ukryte za miastem wysypiska.
Jeżeli więc chcemy upierać się, że druga zasada działa również w skali kosmicznej, to musimy znaleźć „zaplecze Boga”, gdzie walają się wszystkie odrzucone skrawki galaktyk i opiłki po szlifowaniu płyt tektonicznych. Albo radykalnie przemyśleć ideę entropii. Starzy termodynamicy uznaliby jednorodną porcję gorącego gazu za układ o maksymalnej entropii, czysty nieporządek; chaos, z którego dopiero wyłoni się kosmos. A może jednak położenie każdej cząstki w młodym wszechświecie należy potraktować poważnie, a kosmos obecny – uporządkowany, a więc dający się pięknie „skrócić algorytmicznie” – zawiera w sobie znacznie mniej informacji niż niegdyś?
***
Nie liczcie na to, że z paradoksów informacji uda się jakimś prostym sposobem wykręcić. Ale to dobrze – ilekroć jakieś pojęcie sprawia tyle problemów, to znak, że jest naprawdę ważne. Tymczasem za oknem mija setny cykl świateł, a ludzki rój wciąż się przemieszcza: a bo przyszedł ważny SMS, a bo duża wskazówka jest już na dziewięć, a bo w Chinach kontenerów zabrakło… To ruch harmonijny, bo sterowany przez informację – której jesteśmy posłuszni, ale której nikt z nas tak naprawdę nie rozumie.
Łukasz Lamża
Dofinansowano z programu „Społeczna odpowiedzialność nauki” Ministra Nauki i Szkolnictwa Wyższego w ramach projektu „Otwarta Nauka w Centrum Kopernika”.