• Nie Znaleziono Wyników

Czytanie nie-ludzkie i efekt skali

W dokumencie UNIWERSYTET WARSZAWSKI (Stron 109-150)

W niniejszym rozdziale analizuję wyimki z dorobku szczególnej dziedziny literaturoznawstwa – makroliteraturoznawstwa. W szczególności koncentruję się na dokonaniach Marcina Edera i Jana Rybickiego w obszarze stylometrii i komputerowej atrybucji autorskiej.

Podczas analizy i interpretacji posiłkuję się danymi zastanymi – publikacjami autorów badań z tego obszaru. Służą mi one do rekonstrukcji wybranych sposobów prowadzenia analiz stylometrycznych, zilustrowania, na czym polega w wypadku takich badań budowanie sojuszy z nie-ludźmi w obszarze badań nad literaturą piękną i jakiego rodzaju nie-ludzkie spojrzenie wprowadzają w tym kontekście wybrani cyfrowi nie-ludzie.

Pokazuję przy tym, na czym polega nie-ludzkie czytanie i prezentuję paradoks: w warstwach tekstów literackich, które dla ludzkiego czytelnika są przeważnie niewidoczne i odbiegają od tego, gdzie zazwyczaj poszukuje się sensu literatury, kryje się nieuchwytny literacki odcisk palca autora, który, jak się okazuje, może niekiedy więcej powiedzieć o autorze i tekście niż tradycyjne zmienne ujmowane w myśleniu o interpretacji i analizie literatury pięknej.

Wnioski dla głównych rozważań niniejszej rozprawy – zagadnienia kolonizacji analogowego przez cyfrowe – są następujące: daleko posunięta integracja cyfrowych nie-ludzi do kolektywów zajmujących się poznawaniem rzeczywistości doprowadza do sytuacji, w której człowiek musi przyznać, że nie-ludzkie spojrzenie przynosi wnioski, których ludzkim spojrzeniem osiągnąć w zasadzie nie sposób, dowodzi niewidocznych wcześniej charakterystyk badanych rzeczy i doprowadza do przewartościowania niektórych z ich atrybutów. W zjawisku makroliteraturoznawstwa uwidacznia się też kolejny rodzaj obietnicy cyfrowych nie-ludzi. O ile we wcześniejszym rozdziale pokazywałem działanie obietnicy maksymalnej rozdzielczości, teraz pokazuję obietnicę innego rodzaju nie-ludzkiego spojrzenia. To obietnica dostrzegania w rzeczach tego, czego ludzkie oko nie widzi, za pomocą redukcji rozdzielczości, ale zwiększenia skali analizy.

Obserwuję tu także cyfryzację w jej niemal najbardziej zaawansowanej formie – w takiej, w której scyfryzowane zostają już nie tylko same rzeczy (digitalizacja) i procedury obchodzenia się z nimi (algorytmizacja), ale kiedy cyfrowi nie-ludzie pozwalają wyciągać wnioski na podstawie kryteriów, które niemal samodzielnie formułują.

Ku literaturoznawstwu obiektywnemu

110

Badanie literatury polega na dokładnej, skupionej lekturze tekstu. Naszą główną metodologią jest „bliskie czytanie” [ang. close reading – przyp. J.K.].133

Tak o przeważającej części współczesnych badań literackich, które sam też prowadzi, pisze w swojej pracy o cyfrowych metodach w literaturoznawstwie Matthew Lee Jockers.

Niekonsekwencję w stosowaniu terminu „bliskie czytanie” na przestrzeni dziejów literaturoznawstwa, także w pisarstwie Jockersa, wyjaśnia Barbara Herrnstein Smith:

Termin „bliskie czytanie” wykorzystywany był do nazywania bardzo zróżnicowanych aktywności: od Nowej Krytyki demaskującej Szekspirowskie pointy w latach trzydziestych po marksistowskich uczonych ujawniających polityczną nieświadomość wiktoriańskich powieści w latach osiemdziesiątych XX wieku czy, dziś, uczniów pierwszych klas

„analizujących” książkę Dr. Seussa w zgodzie z zaleceniami American national Common Core Curriculum [amerykańskiego curriculum szkolnego – przyp. J.K.].134

Bliskie czytanie Jockers rozumie jako właśnie skupioną lekturę tekstu literackiego przez człowieka, niekoniecznie zaś to, co rozumiał pod tym pojęciem Ivor A. Richards135. Tego też rozumienia trzymam się w niniejszym rozdziale. Bliskie czytanie jest przeciwieństwem czytania z daleka, o którym piszę dalej.

133 M.L. Jockers, Macroanalysis. Digital methods and literary history, Urbana: 2013, s. 6 (tłumaczenie własne).

W dniu 29 września 2019 roku serwis ResearchGate wskazał, że książka ta została zacytowana przynajmniej 199 razy. Google Scholar wskazał 896 cytowań, a autorowi przyznaje h-index na poziomie 14 (dane z 20 lipca 2020 roku). Dla porównania Literary theory. An introduction Terry’ego Eagletona ma wg Google Scholar 11 119 cytowań, a to książka o znacznie szerszym zakresie tematycznym. Z kolei Structuralist poetics Jonathana Cullera – 5096 cytowań. Z tych informacji wnioskuję, że nawet jeśli tezy Jockersa nie są podzielane przez wszystkich uczestników społeczności makroliteraturoznawców, to na pewno są w obrębie tej dziedziny – a także poza nią – ważnym i słyszalnym głosem. Stąd jego argumentacja wydaje się na tyle istotna, by posłużyła tu za wykład uzasadniający sięganie po techniki makroliteraturoznawcze. Współpracownik Jockersa i współzałożyciel LitLabu na Uniwersytecie Stanforda, podzielający opinie Jockersa, Franco Moretti, doczekał się sylwetki na łamach „The New York Times”, J. Schuessler, Reading by the numbers: when big data meets literature, „The New York Times”, October 30, 2017, dostępne on-line: https://www.nytimes.com/2017/10/30/arts/franco-moretti-stanford-literary-lab-big-data.html [data dostępu: 20 lipca 2020 roku]. Sam Stanford Literary Lab, z którym obaj są związani, to czołowy ośrodek cyfrowej humanistyki w obrębie badań nad literaturą.

134 B. Herrnstein Smith, What was ‘close reading’?: A century of method in literary studies, „The Minnesota Review” 2016, No. 87, s. 57 (tłumaczenie własne).

135 Autor terminu „bliskiego czytania”, które rozumiał jako czytanie w odcięciu od pozatekstowych kontekstów.

Zob. M.P. Markowski, Formalizm amerykański, [w:] A. Burzyńska, M.P. Markowski, Teorie literatury XX wieku. Podręcznik, Warszawa: 2009, s. 139–141.

111

Co idzie za tą skłonnością literaturoznawstwa do posługiwania się tak pojętą metodą bliskiego czytania? Jockers sięga tutaj po porównanie z naukami eksperymentalnymi. Zwraca uwagę, że opartemu o bliskie czytanie literaturoznawstwu brakuje narzędzi pozwalających na testowanie i selekcjonowanie interpretacji. Jak pisze, w literaturoznawstwie „trudno odrzucić jakąś interpretację”136. Nauki empiryczne mogą z kolei posługiwać narzędziem eksperymentu – metodą, która pozwala naukowcom z obszaru nauk, nomen omen, eksperymentalnych na testowanie hipotez i odrzucanie tych niewłaściwych.

Czy dysponowanie ścisłą metodą odrzucania jednych interpretacji na rzecz innych na drodze eksperymentu jest dla nauk humanistycznych konieczne, słuszne lub właściwe – to odrębne pytanie, na które nie staram się tutaj odpowiadać. Ale spostrzeżenie, że w polu nauk o literaturze brakuje takich technik, jest jedną z kluczowych motywacji ruchu w kierunku literaturoznawstwa cyfrowego i digitalizacji literaturoznawstwa. Wyzwolenie z ograniczeń ludzkiego czytania poprzez wejście w sojusz z cyfrowymi nie-ludźmi to najważniejsza obietnica, jaką digitalizacja składa literaturoznawcom.

W ujęciu, które rysuje Jockers, tradycyjne literaturoznawstwo jest nauką eksploracyjną w tym sensie, że chętniej stawia pytania i hipotezy, niż udziela odpowiedzi na te pytania czy weryfikuje te hipotezy, przekuwając je w tezy. Jednocześnie literaturoznawstwo doskonale znosi współwystępowanie twierdzeń częściowo lub całkowicie się wykluczających, przez co daleko mu do tego, co Thomas Kuhn nazywał naukami normalnymi137. Zwrotom w humanistyce daleko do kontrowersji, które wstrząsają posadami nauk eksperymentalnych i prowadzą do rewolucji – to raczej performatywne zdarzenia, które przesuwają akcenty w dyskursie nauk humanistycznych, wprowadzając do nich nowe pojęcia czy kategorie badawcze.

Nie są to natomiast konflikty, które po czasie prowadzą do odrzucania ogromnych korpusów nawarstwionych naukowych ustaleń na rzecz nowych wyjaśnień tych samych zjawisk. Żeby zmienić ten charakter literaturoznawstwa, to znaczy przybliżyć je do tzw. nauk normalnych, niezbędne jest przynajmniej częściowe odejście od bliskiego czytania w kierunku metod

136 M.L. Jockers, Macroanalysis..., s. 6.

137 Zob. T.S. Kuhn, Struktura rewolucji naukowych, przeł. H. Ostromęcka, posł. przeł. J. Nowotniak, Warszawa:

2009.

112

bardziej obiektywnych – takich, w których interpretacja będzie replikowalna, mniej subiektywna.

Za ujęciem klasycznego literaturoznawstwa jako dziedziny badań immanentnie niewyczerpującej przemawia m.in. przyjmowana w nim konieczność próbkowania badanych populacji (rozumianych tu jako korpusy tekstów). Jockers, pisząc o próbkowaniu, ma na myśli to, że badacz stosujący bliskie czytanie, ze względu na dostępność czasu, zasobów umysłowych i cierpliwości czytelników swoich prac, selekcjonuje teksty, które poddaje interpretacji. Z tego też powodu formułowanie wniosków o bardziej generalnym charakterze wymaga od badacza podejmowania ryzykownych uogólnień, jako że poddawane badaniom i interpretacjom teksty literackie są bardzo jednostkowe – różni je zbyt wiele, by dało się w klarowny i odpowiedzialny sposób wyznaczyć podzbiór, który powie nam coś o nadzbiorze, czyli np. całej literaturze polskiej XX wieku. A w każdym razie brakuje teoretycznej podbudowy, która pozwoliłaby próbkować w sposób odpowiedzialny i wiarygodny, podobnej do tej, którą znajdujemy choćby w metodach ilościowych nauko społecznych.

Jeśli literaturoznawca chce wyartykułować syntetyczną interpretację, powiedzmy, prozy polskiej XX wieku, siłą rzeczy musi oprzeć się wyłącznie na jakimś jej wycinku. Musi wybrać nazwiska, utwory, nie może też każdemu z nich poświęcić równie dużo uwagi. Ze względu na immanentne cechy metody bliskiego czytania, wpisaną w nią konieczność skrupulatnego czytania przez człowieka, metoda ta nie może zwiększać swojej skali i efektywności wraz z postępującą komputeryzacją metod analitycznych – nie poddaje się automatyzacji, podziałowi pracy, wreszcie nie pozwala w istotnej mierze delegować się cyfrowej maszynie. Oznacza to, że wszelkie próby generalizacji wniosków są naznaczone dużym ryzykiem.

Jak pisze Jockers, od niemożności stosowania uprawnionych generalizacji uwalniają nas dzisiaj techniki cyfrowe. Nie bez znaczenia są przy tym współczesna dostępność danych w formie cyfrowej i stosunkowa łatwość budowania wyspecjalizowanego oprogramowania w wielu obszarach naukowych dociekań:

Zamiast prowadzić kontrolowane eksperymenty na próbkach i ekstrapolować od szczegółu do ogółu […], możemy dziś – dzięki ogromnym zbiorom danych – prowadzić dociekania na skalę obejmującą lub zbliżającą się do obejmowania całości badanych problemów.

113

Niedostępna wcześniej „populacja” stała się dostępna i szybko zastępuje losowe próby reprezentatywne.138

Jednak zaaplikowanie takich metod do literaturoznawstwa wymaga zerwania z przywiązaniem do bliskiego czytania. W metodologiach bliskiego czytania teksty czytać i interpretować musi odpowiednio przygotowany człowiek. Nie wystarczą mu do tego produkowane przez oprogramowanie reprezentacje całych korpusów i czytające algorytmy.

Interpretując Jockersa, należy przyjąć, że do zmiany literaturoznawstwa w rzeczonym kierunku, trzeba zrezygnować z centralnej roli czytającego człowieka i znaleźć sposób, który pozwoli na interpretacyjną współpracę człowieka i cyfrowego nie-człowieka. Chodzi więc o dość o drastyczną zmianę perspektywy. Trzeba, w miejsce mikroanalizy wybranych tekstów, wykonać krok w kierunku analizy makro – opartej na szerokich, nieprzerabialnych dla człowieka korpusach, posługującej się przy tym zmatematyzowanymi kategoriami interpretacji. Kosztem wykonania tego kroku jest zerwanie z fundamentalnym charakterem przywiązania do bliskiego czytania.

Aby zilustrować proces przejścia od mikro- do makroanalizy w literaturoznawstwie, Jockers przywołuje przykład z historii ekonomii. Jak podaje, przed opublikowaniem przez Johna Maynarda Keynesa Ogólnej teorii zatrudnienia, procentu i pieniądza (General theory of employment, interest and money) nie istniało pojęcie makroekonomii139. Istniała natomiast gałąź współcześnie nazywana mikroekonomią, która zajmowała się zachowaniami ekonomicznymi pojedynczych konsumentów i przedsiębiorstw. Ruch ekonomii w kierunku zajmowania się całymi społeczeństwami, nie zaś pojedynczymi, niewielkimi, wyodrębnionymi jednostkami, był ruchem podobnym do tego, który wykonuje dzisiaj część literaturoznawców, mając nadzieję na przekroczenie ograniczeń tradycyjnego literaturoznawstwa. Chodzi o przejście od mikroanalizy – ucieleśnianej przez „bliskie czytanie” – do makroanalizy opartej na „czytaniu z daleka” (ang. distant reading). Ten ostatni termin wprowadził w tym znaczeniu Franco Moretti140, ten sam, który wraz z Jockersem zakładał Stanford Literary Lab.

138 M.L. Jockers, Macroanalysis..., s. 7 (tłumaczenie własne).

139 Tamże, s. 24.

140 B. Herrnstein Smith, What was ‘close reading’?..., s. 63.

114

Jednocześnie ruch od bliskiego czytania do czytania z daleka to ruch skierowany od czytania rozumianego bardzo po ludzku, jako czynności przynależnej wyłącznie ludziom, do czytania od ludzi już odległego, poddanego rygorom perspektywy nie-ludzkiej.

A na czym właściwie polega, w odniesieniu do literaturoznawstwa, owa makroanaliza?

Jaki rodzaj spojrzenia wprowadza niezbędna dla wykonania tego kroku digitalizacja procesu analizy i interpretacji literatury?

Oddalenie perspektywy

Cyfrowa makroanaliza w badaniu tekstów literackich przybiera wiele form. Przykładem, który pozwala doskonale objaśnić jej założenia i postawić wstępne tezy interpretacyjne, jest praca Ryana Heusera i Longa Le-Khaca opublikowana w serii broszur Stanford Literary Lab w 2012 roku pod tytułem A quantitative literary history of 2,958 nineteenth-century british novels: the semantic cohort method141. Autorzy poświęcili ją badaniu prowadzonemu na korpusie dziewiętnastowiecznej prozy brytyjskiej. Odpowiadają w niej na pytanie o to, jak na przestrzeni XIX wieku brytyjska proza zmieniała się w relacji do zachodzącej industrializacji i urbanizacji.

Z uwagi na to, że, jak piszą autorzy raportu z badania, „makroskopowe badania historii kultury są polem, które wciąż się konstruuje, właściwe metody i narzędzia nie są jeszcze pewne”142, badania są nie tylko ekscytujące, ale i trudne. Jak zaobserwowali, w tego rodzaju dociekaniach nie wszystkie decyzje metodologiczne powinny być podejmowane a priori.

Część musi zapadać na bieżąco, w miarę unaoczniania się kolejnych problemów. W odpowiedzi na tę konstatację autorzy decydują się na nietypową konstrukcję tekstu raportującego wyniki ich dociekań. Obok komunikowania rezultatów badań, poświęcają wiele uwagi temu, w jaki sposób prowadzono analizy, zdając przy tym sprawę z konkretnych problemów, na które natrafiali badacze, i z rozwiązań, na które się decydowali. Tekst jest bardzo refleksyjny względem procesu badawczego i dzięki temu stanowi doskonałą bazę do rekonstrukcji projektu prowadzonego w polu komputacyjnej makroanalizy literaturoznawczej.

141 R. Heuser, L. Le-Khac, A quantitative literary history of 2,958 nineteenth-century british novels: the semantic cohort method, May 2012, „Pamphlets of the Stanford Literary Lab”, pamphlet 4, s. 1–66.

142 Tamże, s. 2 (tłumaczenie własne).

115

Punktem wyjścia do projektu badaczy ze Stanfordu była koncepcja badania zmian kultury poprzez badanie historycznych przebiegów kohort semantycznych. Miało się to odbyć z wykorzystaniem dużego zestawu tekstów – badacze chcieli uniknąć formułowania wniosków w ich mniemaniu anegdotycznych. Wciągając do swojego kolektywu cyfrowych nie-ludzi, chcieli osiągnąć efekt odpowiedniej skali. Co to właściwie oznacza – wyjaśnię po kolei.

Dysponując adekwatnym korpusem – w finalnym badaniu badacze ze Stanfordu biorą pod uwagę 3000 brytyjskich powieści z dziewiętnastego wieku, w początkowych eksperymentach tylko 250 – można wykorzystać nieskomplikowany program komputerowy, by wykonać na owym korpusie podstawową operację zliczenia częstości wystąpień wybranego słowa w tekstach z kolejnych dekad. Z tej wstępnej analizy badacze dowiedzieli się, że w badanym korpusie testowym popularność poszczególnych, wybranych przy pomocy intuicji i wcześniejszych doświadczeń lekturowych autorów słów faktycznie zmienia się w czasie. Tylko cóż można wywnioskować z tego, że np. słowo „wieś” (ang. country) ma bardzo nierówny przebieg, tzn. jego częstość spada w latach czterdziestych i sześćdziesiątych XIX wieku, by potem dynamicznie wzrosnąć w latach siedemdziesiątych? Niewiele. Ale ten prosty eksperyment pozwolił im wyznaczyć kierunek, w którym można iść dalej i ostatecznie osiągać zadowalające rezultaty analityczne. Okazało się, że kiedy przeanalizuje się przebiegi większej liczby słów, można zauważyć, że niektóre z nich przebiegają bardzo podobnie – są skorelowane pozytywnie, to znaczy: proporcjonalnie zyskują czy tracą na popularności w tych samych okresach. Kiedy te słowa są też zbliżone pod względem znaczeniowym – na przykład wszystkie dotyczą życia wiejskiego – można odnieść wrażenie, że śledzenie ich przebiegu razem może powiedzieć nam znacznie więcej niż obserwacja pojedynczych słów. Dlatego też autorzy badania zaprojektowali eksperyment, który polegał na prześledzeniu przebiegu czasowego zespołu słów powiązanych pod dwoma względami – znaczeń i zachowań w czasie. To te zestawy słów nazywane są kohortami semantycznymi143.

Kohorty semantyczne to zespoły słów, które spełniają dwa warunki. Po pierwsze, muszą wiązać się z podobnym obszarem tematów czy spraw, np. dotyczyć zmysłowości czy duchowości. Ustaleniem tego rodzaju podobieństw musi na razie zajmować się człowiek,

143 Tamże, s. 9.

116

zapewne uwzględniając wrażliwość epoki, z której pochodzą analizowane teksty. Po drugie, muszą zachowywać się podobnie, kiedy weźmie się pod uwagę ich częstość w poszczególnych kategoriach badanego korpusu, np. podzielonego ze względu na kolejne dekady według daty powstania danego tekstu. Tym segmentem analizy może już zajmować się oprogramowanie statystyczne.

Przykładowo: żeby daną grupę słów uznać za kohortę semantyczną, wzrost częstości ich występowania w czasie powinien być skorelowany pozytywnie. Czyli słowa „miłość” i

„zdrada”, które z pewnością możemy uznać za bliskie sobie pod względem znaczenia (choć może to zależeć od epoki, z której pochodzą badane teksty), mogą należeć do tej samej kohorty tylko wówczas, gdy np. ich popularność w kolejnych dekadach badanego przez nas okresu przebiega podobnie, np. stają się coraz rzadsze wraz z biegiem chronologii badanych.

Dlaczego to tak istotne? Wnioskowanie na temat zmian kultury na podstawie pojedynczych słów, które w literaturze z okresu pojawiają się częściej czy rzadziej, trudno owocnie i przekonująco wykorzystać jako dowód na rzecz jakiejkolwiek tezy. Ale sięgając po analizę w oparciu o kohorty semantyczne, możemy już przekonująco wnioskować nie tyle na temat słów, co na temat poruszanych w kolejnych okresach historycznych tematów.

Tego rodzaju analizy można z jednej strony wykorzystać do badań nad stylem literackim, z drugiej – do interpretacji dotyczących zmian literatury w czasie, na przykład w odniesieniu do poruszanych w niej tematów, obecnych wątków czy choćby scenerii, w których rozgrywa się akcja powieści. Choć, oczywiście, może zdarzyć się tak, że czytający komputer nie zorientuje się, że powieść wykorzystuje techniki narracyjne albo struktury fabularne, które mogą go zmylić. Na przykład wówczas, gdy powieść, której akcja toczy się w Londynie, zawiera rozległe przytoczenia akcji z innych zakątków świata, czy to z idyllicznej prowincji, czy z któregoś z państw kolonialnych.

Bardzo trudno przeprowadzić porównywalne badanie na drodze mikroanalitycznego bliskiego czytania. Korpusy są bowiem bardzo rozległe, a możliwości czytającego blisko literaturoznawcy ograniczone. Na drodze makroanalizy, w którą zaangażowani zostają cyfrowi nie-ludzie, jest to dużo łatwiejsze. Pomyłki wynikające ze ślepoty czytającego komputera na zabiegi narracyjne wydają się, w perspektywie tak rozległych korpusów, względnie nieistotne.

I taką też metodą posłużyli się badacze z LitLabu.

117

Złożonym procesem było samo odnajdowanie kohort. Badacze skonstruowali w tym celu wyspecjalizowane oprogramowanie analizujące korelacje w przebiegach czasowych144. Dodatkowo, by w sposób replikowalny i zobiektywizowany zweryfikować ich bliskość semantyczną, sięgali po dane z tezaurusa. W ten sposób, poprzez włączenie w kolektyw badawczy cyfrowego nie-człowieka, udało im się zyskać metodę zobiektywizowanego konstruowania kohort semantycznych. Obiektywność rozumiem tu przede wszystkim jako replikowalność – prowadzona przez kolektyw analiza przyniosłaby identyczne rezultaty niezależnie od tego, jaki ludzki aktor i w jakich okolicznościach by je powtórzył. Zmieniałaby się wyłącznie pod wpływem zmian w bazach danych – np. innym wyznaczeniu korpusu czy zmianach w samym tezaurusie – lub intencjonalnej modyfikacji oprogramowania analitycznego.

Ostatecznie, w obranym korpusie dziewiętnastowiecznych powieści badacze wyłonili wiele kohort kohort semantycznych, ale na potrzeby głównej analizy skupili się na dwóch.

Pierwsza objęła słowa odnoszące się do abstrakcyjnych wartości (ang. abstract value-type), zwłaszcza związanych z normami społecznymi. W skład drugiej weszły słowa związane z ruchem, akcją, czynnościami, barwami, opisami materialnej rzeczywistości (ang. hard seed).

Badacze odkryli, że te dwie kohorty są negatywnie skorelowane. Im późniejsze powieści, tym mniej w nich przedstawicieli kategorii abstrakcyjnej, więcej zaś – tej związanej z mówieniem o materialnej rzeczywistości, ruchu, akcji.

Swoją obserwację zinterpretowali jako dowód na to, że na języku dziewiętnastowiecznych powieści odcisnęła swoje piętno postępująca w tym okresie industrializacja i urbanizacja. Utwory przestały przedstawiać akcję toczącą się na prowincji, a przenoszenie jej do miast wiązało się z koniecznymi do opisania owego życia modyfikacjami powieściowego języka. I na odwrót: zmiany w języku wskazywały na zmiany tematyki – odejście od tematyki życia na angielskiej prowincji, gdzie, przynajmniej według sposobów przedstawiania w ówczesnych powieściach, najtwardsze mury to te wynikające ze społecznych norm obyczajowych, w kierunku opisu życia miejskiego, w którym rzeczywistość materialna jest bliższa, gęstsza, stąd i wyraźniej obecna.

144 Więcej o regułach działania tego programu – Correlatora, zob. tamże, s. 6–7.

118

Badacze poddali też głębszej interpretacji wybrane utwory, a także odnosili się do ustaleń literaturoznawców posługujących się metodami mikro. De facto potwierdzili swoim eksperymentem to, co wchodziło już wcześniej w skład wiedzy dziedzinowej i co wynikało z wycinkowych badań metodami „bliskiego czytania”.

Według opracowań przytaczanych przez autorów, procesowi odnajdywania się ludzi w miastach często towarzyszyły, alienacja, poczucie utraty braku łączności i rozpuszczania się w nowej przestrzeni145. Temu procesowi towarzyszy poczucie rozpadu tradycyjnych form życia społecznego na angielskiej prowincji. Zdaniem autorów, spadek częstości słów należących do kohorty słów abstrakcyjnych jest pochodną tego zjawiska:

Poczucie współdzielonych wartości i standardów, które dostarczało kolektywom spójności i czytelności, rozmywa się. Tak więc możemy rozumieć spadek częstości sformułowań należących do kohorty słów abstrakcyjnych, odnoszących się właśnie do tych czytelnych systemów wartości społecznych, które dawały się organizować w schludne przeciwieństwa, jako odbicie ich nieadekwatności i zbędności w sytuacji radykalnie nowego społeczeństwa, które te powieści starały się reprezentować. To oznaka transformacji przestrzeni społecznej powieści, podczas gdy urbanizacja, industrializacja i nowe stadia kapitalizmu drastycznie przekształcały faktyczne przestrzenie społeczne Wielkiej Brytanii. Spadek, który widzimy w częstości korzystania z tego rodzaju języka, to ślad znikania całej formy życia społecznego, sposobów życia, ze świata powieści.146

Konsekwencją urbanizacji dla języka powieściowego ma być silniejsze uprzestrzennienie:

Uprzestrzennienie to tendencja do częstszego traktowania otoczenia akcji (ang. setting) mniej jako […] aspektu nastroju [bohatera – przyp. J.K.] czy miejsca istotnego z punktu widzenia historycznego albo społecznego, częściej zaś jako materialnej przestrzeni z fizycznymi wymiarami, orientacją i ograniczeniami, wewnątrz których działają bohaterowie.

Ten tryb traktowania otoczenia akcji sprawia, że narracja rozwija się wewnątrz przestrzeni.147

145 Tamże, s. 36.

146 Tamże (tłumaczenie własne).

147 Tamże, s. 39 (tłumaczenie własne).

119

Zdaniem autorów oznaką tego silniejszego uprzestrzennienia, wyraźnie związanego z postępującą urbanizacją i industrializacją, jest właśnie wzrost częstości występowania w powieściach słów należących do kohorty hard seed.

Podobnie o skutkach urbanizacji dla ludzkich podmiotów myśli pisał Georg Simmel w Mentalności mieszkańców wielkich miast: „Psychologicznym tłem indywidualności wielkomiejskiej jest natężenie podniet nerwowych, wynikające z szybkich, nieustannych zmian zewnętrznych i doznań wewnętrznych”148. W reakcji na ten nadmiar podniet, człowiek musi się adaptować. W tym procesie emocje muszą zejść na dalszy plan, a prym przejąć musi intelekt:

Kontrast ten pozwala rozumieć intelektualistyczny charakter wielkomiejskiego życia duchowego w zestawieniu z życiem małomiasteczkowym, nastawionym znacznie bardziej na uczucia i związki emotywne. Uczucia te biorą bowiem początek w nieświadomych, niższych warstwach psychiki i rozwijają się najsilniej w warunkach spokoju, regularności, stałych przyzwyczajeń. Intelekt natomiast lokuje się w przejrzystych, świadomych, wyższych warstwach psychiki, stanowi tę naszą siłę, która wykazuje najwyższy stopień zdolności adaptacyjnych. Intelekt, godząc się z odmiennością, opozycyjnością zjawisk, nie podlega wstrząsom i wewnętrznym zakłóceniom, za cenę których konserwatywna uczuciowość dostraja się do zmian warunków zewnętrznych. Każdy mieszkaniec wielkiego miasta — niezależnie od swych właściwości indywidualnych — musi wyrobić sobie pewien organ ochronny przed wyobcowaniem, jakim grozi mu zmienność i niejednorodność środowiska zewnętrznego. Reakcja na te zjawiska zachodzi nie w sferze uczuć, a w sferze intelektu, któremu natężenie świadomości, spowodowane przez te same przyczyny, daje psychiczną prerogatywę. Innymi słowy reakcja zachodzi w najmniej uwrażliwionym, najbardziej odległym od głębokich warstw osobowości organie psychicznym.149

Intelektualizm jest u Simmla „środkiem ochraniającym subiektywne życie”150 w realiach wielkiego miasta. Interpretacja Simmla jest więc spójna z ustaleniami badaczy z LitLabu. Spadki częstości słów wchodzących w skład kohort abstrakcyjnych odzwierciedlają opisaną przez Simmla intelektualizację życia miejskiego. Wysycenie świata otaczającego bohaterów literackich – podobnie jak historycznych ludzi migrujących do miast – masami

148 G. Simmel, Mentalność mieszkańców wielkich miast, [w:] tenże, Most i drzwi. Wybór esejów, przeł. M.

Łukasiewicz, przedm. A. Zeidler-Janiszewska, Warszawa: 2006, s. 115.

149 Tamże, s. 115–116.

150 Tamże, s. 116.

120

doznań, których wcześniej było wokół nich znacznie mniej, wyjaśnia przyrost słów pozwalających ruch i wygląd tych przedmiotów opisywać.

W perspektywie komputacyjnego makroliteraturoznawstwa, na tym etapie jego rozwoju, przytoczone badanie naukowców z LitLabu jest nakierowane na wykazanie skuteczności przyjętej metody poprzez wskazanie na wiarygodność, kompletność i reprezentatywność przyjętej w niej metody. Należy je raczej traktować jako proof of concept.

Stąd uwiarygodnianie tego, że procedura badawcza jest poprawna, odbywa się na drodze zestawiania wniosków z badania z ustaleniami dokonanymi przy wykorzystaniu innych metod.

Stąd też głębiej rezultaty tego badania odciskają się na samej dziedzinie makroliteraturoznawstwa niż na historii literatury brytyjskiej.

Co zaś opis tego badania wnosi do rozważań nad digitalizacją kolektywów badawczych, nad cyfrowym spojrzeniem i nad samą kolonizacją analogowego przez cyfrowe?

Po pierwsze, zakres i głębia przyjętych w tym projekcie prac wymagały wejścia w sojusze z cyfrowymi nie-ludźmi, którym należało przekazać do wykonania z jednej strony odpowiednio sformułowane instrukcje (program komputerowy), z drugiej – odpowiednio czytelne dla nich dane. To ostatnie oznacza, że utwory literackie do opracowania przez nie-człowieka podane być musiały w formie cyfrowej, a przy tym oznaczone odpowiednimi metadanymi. Należało więc na początku zdigitalizować samą literaturę.

Ale oprócz literatury digitalizacji wymagało też samo literaturoznawstwo. Jego reguły, choć bardzo uproszczone i potraktowane wyrywkowo, musiały bowiem zostać przepisane na funkcjonalny kod komputerowego oprogramowania.

Oprogramowanie, czyli przekazywane nie-ludziom instrukcje, musiały być przy tym zredagowane ze świadomością, że nie-ludzie nie zdołają samodzielnie rozstrzygnąć trywialnych z perspektywy człowieka problemów, np. tych dotyczących znaczeń słów. W kolektyw trzeba było włączyć takich aktorów, którzy będą w stanie w replikowalny sposób odpowiadać na pytania np. o to, czy słowo „miłość” i „przyjaźń” znaczą rzeczy sobie nieodległe. Dobrze ilustruje to jeden z problemów procesów algorytmizacji, czyli digitalizacji procesów – konieczność cyfryzowania wszystkiego, co jest elementem podstawowej wiedzy piśmiennego człowieka, ale dla cyfrowych nie-ludzi jest kwestią równie nieoczywistą jak znajomość całej dziewiętnastowiecznej prozy brytyjskiej.

Pomimo braku językowej intuicji czy jakkolwiek pojętego rozumienia relacji pomiędzy znaczącymi i znakami w sensie semiotycznym, cyfrowi nie-ludzie – komputery wraz z

W dokumencie UNIWERSYTET WARSZAWSKI (Stron 109-150)

Powiązane dokumenty