Znaczenie ma znaczenie

Freeman Dyson w zamierzchłych czasach kredowych tablic i marynarkowego lansu

Notatki z tekstu Freemana Dysona, genialnego (i kontrowersyjnego) matematyka i fizyka teoretycznego. Tekst jest recenzją książki Jamesa Gleicka The Information: A History, a Theory, a Flood (2011), choć mam wrażenie, że wszystko, co Dyson mówi – streszczając niejako książkę – mógłby powiedzieć i bez niej. Dyson zajmuje się wszystkim tym, o czym czytam do poduszki: kwantową teorią pola, fizyką matematyczną, elektrodynamiką kwantową itd. Co tu dużo mówić – zazdroszczę mózgu. I marynarki.

Obowiązuje standardowa procedura – moje notatki nie mają na celu dokładnego odzwierciedlenia tekstu. Wybieram co chcę i jeśli trzeba, dopisuję fragmenty własnymi słowami, aby były bardziej zrozumiałe. Lecimy:

  • w 1793 roku Claude Chappe (1763-1805), francuski patriota chcący zwiększyć siłę rządu rewolucyjnego, wynalazł telegraf optyczny. Telegraf optyczny to system wież wykorzystywanych do nadawania sygnałów świetlnych, obserwowanych wzrokowo przez operatorów sąsiednich wież i przekazujących komunikat dalej. Gdy władzę przejął Napoleon, nakazał rozbudować system telegrafów, które faktycznie stały się narzędziem władzy niedostępnym dla zwykłych obywateli.
  • inaczej sprawa miała się w przypadku dwóch osób, których dorobek był kluczowy dla współczesnej technologii informacyjnej: Samuela Morse’a (1791-1872) oraz Claude’a Shannona (1916-2001).
  • Morse wynalazł alfabet, który znamy pod niewyszukaną nazwą „alfabetu Morse’a”, a także – równolegle z innymi konstruktorami pracującymi w różnych miejscach w zbliżonym czasie – stworzył telegraf elektryczny. Geniusz Morse’a polegał na tym, że stworzył najprostszy, najłatwiejszy system umożliwiający reprezentowanie alfabetu i cyfr za pomocą dwóch elementów: kropek i kresek (przekładalnych łatwo na długość dźwięku, błysku światła czy długość impulsów elektrycznych), których ciągi kodowały poszczególne znaki. Morse był Amerykaninem, dlatego stworzył tani i dostępny dla wszystkich system przekazywania informacji, który miał sprzyjać prowadzeniu dochodowego biznesu.
  • Shannon w czasie drugiej wojny światowej pracował nad systemem telefoniczym mającym zapewnić Rooseveltowi i Churchillowi bezpieczny kanał komunikacji. Wiedzę zdobytą podczas tej pracy przełożył po wojnie na artykuł A Mathematical Theory of Communication, będący kamieniem węgielnym pod gmach teorii informacji, bez której nadal tkwilibyśmy w analogu (to znaczy: nadal chodzilibyśmy na pikniki, spotykali się ze znajomymi, uprawiali sporty i robili inne absurdalne rzeczy. Na szczęście – ten etap ewolucji mamy już za sobą!). Otwartość (w przeciwieństwie do zamkniętego modelu starej ciotki Francji) tych innowacji spowodowała, że świat zmienił się diametralnie.
  • Możemy narzekać na zmiany, ale nie wszystkie konsekwencje, zbudowanego na teorii informacji cyfrowego świata, są złe. Weźmy Wikipedię, wielki owoc zrodzony z zalewu informacji, obarczony wadami i zaletami epoki: dostępnością, ale również ryzykiem nierzetelności; jakością informacji, ale również jej niską pozycją; otwartością, ale jednocześnie wielkim ideologicznym konfliktem zamiast konsensusu. Wszyscy z Wikipedii korzystają, choć nikt jej nie ufa. Powoływanie się na nią nie buduje naszego autorytetu, a jednocześnie informacje w niej zawarte są zaskakująco rzetelne. Powstała jednocześnie największa baza wiedzy na świecie oraz największe pole bitwy ideologicznej.
  • Konsekwencje zastosowania teorii informacji przyniosły także wielki zysk nauce.
  • Wątek poboczny nr 1: nauka dużo bardziej przypomina Wikipedię niż Encyklopedię Brytanikę.
  • Wątek poboczny nr 2: publiczny obraz nauki jest wypaczony, ponieważ dzieci uczone są w szkołach, że nauka to zbiór ustalonych, empirycznie potwierdzonych prawd. Nic bardziej mylnego. Nauka nie jest systemem jednoznacznie, raz na zawsze ustalonych prawd, lecz ciągłą eksploracją tajemnic. W którą stronę nie spojrzymy, zobaczymy przede wszystkim zagadki, a nie – prawdy i gotowe rozwiązania. Nauka nie daje pewności, a jeśli komuś daje pewność, to znaczy, że ten ktoś źle naukę rozumie.
  • Cyfryzacja zmienia równiez naukę. Oczywisty przykład: rekonstrukcja genomu ludzkiego. Rzecz niewykonalna w analogowych warunkach. Nauka XXI wieku to nauka robiona na podstawie baz danych. Zasób, którego obecnie nam brakuje, to nie informacje (tych wygenerowaliśmy i wciąż generujemy w nadmiarze), lecz personel, który te informacje przeczyta i zrozumie. Żyjemy w czasach nadmiaru informacji i niedoboru znaczenia. Czym innym jest dostęp i przeczytanie informacji, a czym innym – zrozumienie ich, odkrycie w nich znaczenia. Podobnie sprawa ma się w astronomii. Teleskopy skanują ogromne obszary nieba i dane zapisują w bazach danych. Odkrywanie planet nie polega dziś na patrzeniu w kosmos, lecz na eksploracji danych zapisanych na dyskach komputerów.
  • Zadanie człowieka: tworzyć wyspy znaczenia na oceanie informacji.

2 thoughts on “Znaczenie ma znaczenie

  1. na marginesie: ów nadmiar danych nakazuje też inaczej patrzeć na problem cenzury i inwigilacji… wyłowienie w morzu przekazów tych właściwych, może okazać się wyzwaniem przekraczające siły analityków. Vide: FBI oraz inne służby, które nie potrafiło poskładać w całość poszlak o terrorystach, którzy przylecieli do USA pobierać lekcje pilotażu, by we września 2001 roku porwać pasażerskie odrzutowce i rozbić je o WTC.

    1. Wiem coś o tym. Mam tak popularne nazwisko, że jak chcę się pobawić w ego-googling to natrafiam na tylu innych Wojtków Walczaków, że sam już nie wiem, co w internet wrzuciłem ja, a co oni. Straszne i pocieszające jednocześnie. Muhammady z samolotów też pewnie dzięki temu umknęli FBI ;)

Skomentuj

Wprowadź swoje dane lub kliknij jedną z tych ikon, aby się zalogować:

Logo WordPress.com

Komentujesz korzystając z konta WordPress.com. Log Out / Zmień )

Zdjęcie z Twittera

Komentujesz korzystając z konta Twitter. Log Out / Zmień )

Facebook photo

Komentujesz korzystając z konta Facebook. Log Out / Zmień )

Google+ photo

Komentujesz korzystając z konta Google+. Log Out / Zmień )

Connecting to %s