Zrozumienie w krzemie
W epistemologii ostrożnie mówi się o zjawiskach takich jak wiedza czy zrozumienie. Jedni próbują sprowadzić je do sfery języka, inni podkreślają, że wiedzieć musi zawsze ktoś. Czy więc algorytm komputerowy może coś zrozumieć?
W teorii wiedzy pojawia się szereg kluczowych dla tej dziedziny pojęć, jak dane, informacja, wiedza czy zrozumienie. Choć istnieje wielość opinii na ten temat, panuje zasadnicza zgodność, że gdzieś na drodze pomiędzy surowymi danymi a zrozumieniem dochodzi do włączenia się zjawisk psychologicznych. Termin „dane”, w kontekście metodologii naukowej, obejmuje zwykle pierwszy, najbardziej surowy poziom pozyskiwania wiedzy.
Dane, informacja, wiedza, zrozumienie
W najprostszym przypadku dane obserwacyjne spływają z instrumentów badawczych w postaci zer i jedynek, a następnie, po przetłumaczeniu na pożądany format zapisu, lądują w bazach danych w postaci zapisów matematycznych. W przypadku złożonych projektów badawczych – jak choćby eksperymentów w dziedzinie fizyki cząstek prowadzonych w CERN-ie, albo wielkich przeglądów nieba, jak Sloan Digital Sky Survey czy Gaia – już na tak wczesnym etapie niezbędna jest selekcja danych, których w przeciwnym razie byłoby po prostu za dużo. Wciąż są to jednak operacje na liczbach.
„Informacja” to pojęcie już nieco bardziej kłopotliwe, jednak w kontekście informatyki można ją wyrazić ilościowo – poprzez liczbę bitów – a w ramach tzw. teorii informacji można nawet próbować ściśle oszacować, ile informacji mieści się w określonym tekście albo zbiorze danych. To ciekawy, niebanalny problem, ponieważ ilość informacji nie jest tożsama z ilością danych. Przykładowo, stukrotne powtórzenie tego samego ciągu znaków nie dostarcza żadnych nowych informacji (poza liczbą 100, którą można wszak właśnie w ten sposób zakodować), jednak oznacza stukrotne zwiększenie liczby danych. Ciekawą demonstracją tego zjawiska jest problem pakowania danych: wszystkie popularne bezstratne algorytmy „ścieśniające” dane, a więc na przykład przekształcające zajmujący 20 MB plik *.bmp w zajmujący 0,5 MB plik *.zip, bez żadnej utraty informacji, polegają na wyszukiwaniu powtarzających się, przewidywalnych wzorców.
„Wiedza” to już termin praktycznie niedający się oddzielić od istnienia podmiotu wiedzącego. W klasycznej filozoficznej definicji, której historia sięga Platońskiego dialogu Teajtet, wiedza to „prawdziwe uzasadnione przekonanie”. O ile dla filozofa nauki szczególnie interesujące są dwa pierwsze człony tej definicji (Czym jest prawda? Czym jest uzasadnienie? Czy może istnieć nieuzasadniona wiedza?), równie ciekawy jest sam termin „przekonanie”. Tradycyjnie, przekonanie rozumiane jest jako „prawdziwościowe” nastawienie do pewnego sądu – jako uznanie (przez kogoś), że dany są jest prawdziwy. O ile zaś sam sąd można by uznać za obiekt językowy – po prostu jako pewnego rodzaju zdanie – to nastawienie musi być już czyjeś. Nastawienie jest podmiotowe.
Termin „zrozumienie” wszedł na dobre do języka filozoficznego dopiero w drugiej połowie XX wieku. W znanym artykule przeglądowym „What is understanding?” trzej „panowie na B”, Christoph Baumberger, Claus Beisbart i Georg Brun zwracają uwagę na to, że od samego początku uznawane było domyślnie, że zrozumienie to coś więcej niż wiedza. Można wiedzieć, ale nie rozumieć. Przypuśćmy, że wiem, że foton jest bozonem – a więc jestem słusznie przekonany, i mam do tego dobry powód, że zdanie „Foton jest bozonem” jest prawdziwe. Nie oznacza to jednak automatycznie, że rozumiem, co to tak naprawdę oznacza. Za zdaniem tym kryje się cała złożona rzeczywistość fizyki cząstek, której mogę zupełnie nie rozumieć, a moja zgoda na to zdanie może tak naprawdę oznaczać niewiele więcej niż potulne „papugowanie”. Od dekad trwają debaty na temat tego, czym jest tak naprawdę owa intelektualna „wartość naddana”, która daje nam „prawdziwe zrozumienie”.
Choć ten szybki przegląd budzi prawdopodobnie więcej pytań niż udziela odpowiedzi, zakończymy go w tym momencie, uznawszy, że scena z grubsza została narysowana. Kluczowy dla tematu niniejszego tekstu jest fakt stopniowego „wsączania się” zjawisk poznawczych w surowe twory językowe w sekwencji dane-informacje-wiedza-zrozumienie. Pytanie brzmi, czego możemy, a czego nie możemy się spodziewać po coraz to inteligentniejszym AI.
Sztuczna inteligencja?
Możliwość zakodowania w komputerze danych i informacji nie budzi żadnych wątpliwości. Już czysto teoretyczny obiekt, jakim była maszyna Turinga – najbardziej ogólny, logiczny schemat tego, czym jest maszyna obliczająca – pracuje na danych. Pojęcie informacji również jest głęboko zakorzenione we współczesnej informatyce. Obok podanych wyżej, doskonałą ilustracją różnicy między danymi i informacją jest fakt, że dokładnie ten sam obraz – czyli dokładnie te same informacje – można zakodować na potencjalnie nieskończoną liczbę sposobów, wybierając jeden z wielu dostępnych formatów zapisu, jak np. BMP czy PNG. To wiemy. Co jednak z wiedzą i zrozumieniem?
Historia AI sięga lat 50. XX wieku. Przez wiele dekad trudno było o niej myśleć po prostu jako o zbiorze sprytnie opracowanych komend, wykonywanych przez komputer z nadludzką szybkością. Model ten ma oczywiście za sobą wiele sukcesów, z których najbardziej medialnym było chyba zwycięstwo komputera Deep Blue nad Garrym Kasparowem w maju 1997 roku. Od tego czasu wiele się zmieniło. Przede wszystkim, znacząco rozwinęły się metody samodzielnego uczenia maszynowego, w przypadku których reguły pozwalające na rozwiązanie danego problemu nie są wymyślane przez człowieka, lecz uzyskiwane w toku uczenia, metodą prób i błędów. To znacząca różnica.
Przypuśćmy bowiem, że do rozegrania partii szachów potrzebna jest jakaś „wiedza”, na przykład taka, że „dobrze jest w pierwszej fazie gry uzyskać kontrolę nad centralnym obszarem szachownicy”. Tego typu reguły były niegdyś „wklepywane” ręcznie komputerom szachowym przez grupy ekspertów. Deep Blue posiadał reprezentacje setek tego typu zasad, będących destylatem wielowiekowej wiedzy szachistów. Następna DeepBlue, AlphaZero, nie był uczony w ten sposób. Wszelkie „wyższego rzędu” reguły, pozwalające mu uzyskać pełną dominację nad przeciwnikami, wyłoniły się wewnątrz jego struktury samodzielnie, w toku uczenia. Przyjrzyjmy się temu procesowi nieco bliżej.
W toku trenowania sieci neuronowej, będącej strukturą „siedzącą” w bardzo wielu algorytmów AI, generowane są setki „hipotez” – sposobów na porządkowanie danych, które są następnie oceniane pod kątem skuteczności. „Waga” przypisywana tym hipotezom zmienia się z czasem w miarę kolejnych prób i ciągłego konfrontowania ich z rzeczywistością. Jedne z nich są wzmacniane, inne osłabiane, i ostatecznie, z czasem, w sieci neuronowej utrwalone zostaną te sposoby przekształcania danych w decyzje, które przyniosły największy sukces. Hipotezy „słuszne” zostają więc w pewnym sensie uznane przez algorytm za „prawdziwe”, czego uzasadnieniem jest ich skuteczność. Hipotezy „niesłuszne” są porzucane. Jeśli więc pozwolimy sobie na swobodne posługiwanie językiem psychologii, pozostałe, zakodowane w strukturze AI wzorce porządkowania danych, rządzące później jej zachowaniem, to tylko te, które są jednocześnie prawdziwe i uzasadnione. Odpowiednikiem „przekonania” musiałby być chyba fakt, że algorytm samoistnie decyduje, nieprzymuszony przez człowieka, czy daną hipotezę zaakceptować, czy nie.
Jak widać, przechodzenie od żonglowania danymi do „nastawień” nie dokonuje się prosto. Tak czy inaczej na pewnym etapie zmuszeni jesteśmy wpuścić do opisu rozwoju struktury programistycznej język psychologiczny, co dla wielu osób zawsze stanowić będzie nadużycie. Do sprawy można jednak podejść zupełnie inaczej, w duchu funkcjonalnym. Zarówno szachiści, jak i, powiedzmy, tłumacze, od dawna utrzymują, że do zręcznego, umiejętnego, błyskotliwego uprawiania ich dyscypliny potrzebna jest nie tylko wiedza ekspercka, ale też pewna doza „czegoś więcej”, między innymi zrozumienia. Czy jeśli uzyskamy algorytmy zdolne do osiągnięcia eksperckiego poziomu w tych dyscyplinach, to czy będzie to oznaczało wykształcenie się w nich, w czysto funkcjonalnym sensie, wiedzy i zrozumienia?
ŁUKASZ ŁAMŻA
Publikacja finansowane w ramach programu Ministra Nauki i Szkolnictwa Wyższego pod nazwą „DIALOG” w latach 2016-2019