• Nie Znaleziono Wyników

Podsumowanie

W dokumencie Index of /rozprawy2/10905 (Stron 48-57)

2.4 Podsumowanie

Przedstawione zostały problemy związane z przetwarzaniem dokumentów w lingwi-styce komputerowej oraz zaprezentowane wybrane metody klasyfikacji dokumentów. Wyróźnić można trzy podstawowe etapy związane z procesem analizy i wydobywania informacji z tekstu:

1. Przetwarzanie wstępne  dane wejściowe zostają przygotowane do dalszej analizy. Nie jest konieczna wiedza o strukturze semantycznej tekstu. Zamiast tego raczej stosuje się zestaw relatywnie prostych narzędzi, które opisują i transformują tekst wejściowy.

2. Budowa reprezentacji tekstu  na podstawie materiału uzyskanego w poprzednim etapie, tworzona jest wewnętrzna reprezentacja znaczenia danego dokumentu. Może tu występować analiza semantyki tekstu, lecz każdy dokument jest (jeszcze) rozpatrywany osobno.

3. Wykorzystanie reprezentacji  mając odpowiednio przedstawioną zawartość tek-stu, może być dokonana docelowa analiza  dostosowana do danego zastosowa-nia. Istotą tego etapu jest także znajomość reprezentacji wszystkich dokumentów w kolekcji, co pozwala na wzajemne odniesienie zawartych w nich treści.

Większość ze stosowanych metod opiera się na statystycznych cechach analizo-wanych tekstów. W przypadku modelu wektorowego, zakłada się że suma znaczeń wszystkich wyrazów występujących w danym dokumencie pozwala na dobre przy-bliżenie istoty jego treści[Landauer 1997]. Tracone są przy tym jednak informacje o re-lacjach między wyrazami, wyrażone m. in. przez szyk, odmianę, wielkość liter i inne cechy, zwykle ignorowane przez systemy przetwarzania dokumentów.

Podejmowane były różne próby wzbogacania treści, np. synonimami pobranymi ze słownika semantycznego [Mandala 1998], jednak zasadniczo nie zostawał dzięki temu osiągany docelowy efekt, w postaci lepszego znajdowania bądź klasyfikowania doku-mentów. Jednym z powodów tego stanu rzeczy może być obserwacja, iż w większości języków, synonimy, choć są wyrazami bliskimi znaczeniowo, posiadają pewne subtelne różnice między sobą, co powoduje, iż nie są równorzędne wobec siebie i nie mogą być bezpośrednio zastępowane, gdyż zmienione zostanie wtedy niesione znaczenie zdania

[Taylor 2003].

Z drugiej strony  wedle badań językoznawców, prawdopodobieństwo, że dwoje przypadkowych ludzi użyje tego samego lub bardzo podobnego zdania do wyraże-nia tej samej rzeczy, jest dosyć niewielkie. W większości przypadków wynosi ok. 20%

[Snedeker 2004].

Językoznawstwo nie jest dziś w stanie odpowiedzieć na niektóre kluczowe pytania. Nawet sprawy tak wydawałoby się oczywiste, jak podział na części mowy nie są roz-wiązane w ostateczny sposób. Obracanie się w problemach lingwistyki komputerowej niesie ze sobą ryzyka związane z potencjalnymi pułapkami, których przykłady zostały powyżej przedstawione.

Z jednej strony, oznacza to, że dziedzina ta może zostać uznana za obarczoną rela-tywnie dużym stopniem niepewności przy projektowaniu nowych rozwiązań. Z

dru-2.4. Podsumowanie 39

giej, wydaje się, że ciągle istnieje miejsce na poprawę realizacji nawet najbardziej podsta-wowych zadań, co stwarza wiele możliwości badawczych. Pokazują to kierunki badań, w których od wielu lat wraca się często do tych samych zagadnień, stopniowo polep-szając jakość uzyskiwanych wyników.

Przedstawione powyżej kwestie kształtują decyzje powzięte co do natury działania metody będącej przedmiotem dysertacji. Można je podsumować za pomocą następują-cych celów:

• dążenie do symulacji procesów kognitywnych  „dobra” metoda powinna sy-mulować działanie ludzkiego mózgu,

• priorytyzacja roli rzeczowników  występuje w ich przypadku najmniej proble-mów z wieloznacznością i wnoszą istotny zakres informacji,

• próba rozwiązania abstrakcyjności czasowników  nie można ich traktować po-jedynczo, gdyż mogą mieć różny sens w zależności od użytego kontekstu; z dru-giej strony, powtórzenia tych samych wyrażeń w korpusie są statystycznie zbyt rzadkie, aby tylko na nich się opierać,

• ostrożność przy doborze metod wykorzystujących zewnętrzne źródła wiedzy  poprzednie prace uczą, iż nie można całkowicie oprzeć się na zewnętrznej wiedzy do wzbogacania modelu treści dokumentu.

Rozdział 3

Rodzina metod rozpoznawania

dokumentów

Natura non facit saltus (Natura nie czyni skoków)

Jak zaprezentowano w poprzednim rozdziale, bezpośrednie stosowanie dodatko-wych informacji, wynikających z cech semantycznych danej wypowiedzi, nie zawsze skutkuje poprawieniem rezultatów. Nie jest to zaskakujące. W przypadku większości metod opracowanych dla potrzeb klasyfikacji dokumentów, mamy w rzeczywistości do czynienia z meta-modelem. Nie wskazuje on konkretnych cech, lecz raczej sposób w jaki należy je wybierać (np. „wszystkie terminy występujące w tekście” dla prostego po-dejścia worka słów). Kiedy mają być wykorzystane dodatkowe cechy, niosące wiedzę o sensie niesionym przez dany fragment tekstu, okazuje się że jest tak dużo wymia-rów, w których mogą być one rozpatrywane, że trudno wybrać te rzeczywiście mające związek z rozpatrywanym problemem (por.2.3.4).

Do reprezentacji znaczenia tekstu proponowane jest podejście wykorzystujące abs-trakcję grafu. Może ono być rozważane jako rozszerzenie i uogólnienie sposobu repre-zentacji omawianej przez Schenkera et. al [Schenker 2005]. W przypadku modelowania cech znaczeniowych tekstu, metodyka taka przypomina budowę sieci semantycznych, które są dość naturalną i ogólną formą reprezentacji wiedzy. Podobieństwo to powodu-je iż wzbogacanie grafu o dodatkowe konstrukcpowodu-je, rozszerzające model o wiedzę wyni-kającą z przesłanek analizy semantycznej, staje się procesem wręcz intuicyjnym. Two-rzenie złożonych relacji między różnymi elementami sprowadza się bowiem do odpo-wiedniej modyfikacji dotyczącego je kontekstu – najczęściej węzłów grafu lub połączeń między nimi. Dodatkowo, stosowanie grafu pozwala zachować informacje o kolejności występowania cech (terminów) w dokumencie.

3.1. Metody sztucznej inteligencji do kategoryzacji modeli grafowych 41

3.1 Metody sztucznej inteligencji do kategoryzacji modeli

gra-fowych

Użycie grafów z metodami maszynowego uczenia niesie ze sobą wiele specyficznych aspektów, nie występujących podczas stosowania np. zwykłego wektora cech. Będąc strukturą znacznie bardziej złożoną, grafy wymagają innych metod analizy, dopasowa-nych do ich charekterystki. Poniżej przedstawione zostały różne aspekty metod sztucz-nej inteligencji wykorzystanych w implementacji badanych metod.

Definicja 7. Grafem etykietowanym G nazywać będziemy czwórkę:

G = (V, E, α, β) (3.1)

Przy czym:

1. V jest zbiorem węzłów (wierzchołków),

2. E jest zbiorem krawędzi łączących wierzchołki (połączeń),

3. α : V → ΣV jest funkcją etykietującą węzły zbiorem etykiet ΣV,

4. β : V × V − > ΣE jest funkcją etykietującą krawędzie zbiorem etykiet ΣE

3.1.1 Izomorfizm grafów

Porównywanie ze sobą jakichkolwiek dwóch grafów może być realizowane na wiele sposobów, adekwatnych do danego celu. Wyróźnia się dwa rodzaje podejść: dokładne oraz niedokładne dopasowanie grafów. Pierwsze z nich pozwala stwierdzić czy dwa gra-fy są ze sobą tożsame (izomorficzne). Miara taka jest jednak zero-jedynkowa i nie pozwala ocenić pośrednich stopni podobieństwa, z którmi najczęściej można mieć do czynienia. Daje jednak podstawy dla metod nieodkładnych i zostanie poniżej ogólnie przedstawio-na.

Definicja 8. Dwa grafy G1is G2 są izomorficzne jeśli mają dokładnie takie same węzły oraz krawędzie, czyli:

G1 = (V1, E1, α1, β1) oraz G2 = (V2, E2, α2, β2) są izomorficzne (G1 = G

2) [Bunke 1997,

Schenker 2005], jeśli istnieje bijekcja f : V1 → V2 taka, że spełnione są warunki:

α1(x) = α2(f (x)) ∀x ∈ V1 (3.2)

β1((x, y)) = β2((f (x), f (y))) ∀(x, y) ∈ V1× V2 (3.3)

Funkcja f jest zwana także izomorfizmem grafów G1oraz G2.

Definicja 9. Jeśli grafy G1i G2są izomorficzne jak zdefiniowane powyżej i G2 ⊆ G3, wówczas f jest izomorfizmem podgrafów G1 oraz G2[Bunke 2000,Schenker 2005].

3.1. Metody sztucznej inteligencji do kategoryzacji modeli grafowych 42

Problem izomorfizmu grafów należy do klasy problemów NP, ale nie wiadomo, czy jest problemem zupełnym. Wiadomo za to, że izomorfizm podgrafów jest NP-zupełny [Medasani 2001,Messmer 1998b,Bengoetxea 2002]. O ile korzystając z przed-stawionych definicji można stwierdzić czy istnieje dokładne dopasowanie między dany-mi dwoma grafadany-mi [Ullmann 1976], to nie dostarczają one odpowiedzi, jaki jest stopień podobieństwa między dowolnymi dwoma grafami.

3.1.2 Metryki grafowe

Konieczne jest więc zdefiniowane miary podobieństwa d(G1, G2) [Bunke 2000,

Bunke 1998,Fernández 2001,Wallis 2001]. Funkcja ta musi spełniać następujące

warun-ki: 1. d(G1, G2) ­ 0 2. d(G1, G2) = 0 =⇒ G1= G 2 3. d(G1, G2) = d(G2, G1) 4. d(G1, G3) ¬ d(G1, G2) + d(G2, G3)

Przykładem jest miara odległości edycyjnej (odmienności) grafów (graph edit

distan-ce). Sama idea miary odmienności jest dosyć prosta i opiera sie się o przedstawione

wcześniej propozycje dla drzew [Tai 1979] czy też łańcuchów znaków [Wagner 1974] znane też jako odległość edycyjna Levenshteina [Levenshtein 1966].

Do znalezienia odległości między G1 oraz G2, wprowadzona zostaje funkcja edy-cyjna [Sanfeliu 1983,Bunke 1997], zdefiniowana jako bijekcyjna funkcja mapująca M :

Gx → Gy, przy czym Gx ⊆ G1oraz Gy ⊆ G2. Wówczas, następujące operacje są

reali-zowane przez M [Schenker 2005]:

1. Jeśli węzeł v ∈ V1, lecz v /∈ Vx, wówczas usuwany jest węzeł v kosztem cnd.

2. Jeśli węzeł v ∈ V2, lecz v /∈ Vy, wówczas wstawiany jest węzeł v kosztem cni.

3. Jeśli M (vi) = vj dla vi ∈ Vx oraz vj ∈ Vy oraz α1(vx) 6= α2(vy), wówczas węzeł vi

jest zastępowany węzłem vj z kosztem cns.

4. Jeśli krawędź e ∈ E1, lecz e /∈ Ex, wówczas usuwana jest krawędź e z kosztem ced.

5. Jeśli krawędź e ∈ E2, lecz e /∈ Ey, wówczas wstawiana jest krawędź e z kosztem cei.

6. Jeśli M (ei) = ej dla ei ∈ Exoraz ej ∈ Ey i β1(ex) 6= β2(ey), wówczas krawędź ei

jest zastępowana krawędzią ej z kosztem ces. Suma operacji edycyjnych stanowi γ(M ).

Definicja 10. Odległość edycyjna (miara odmienności) jest to koszt M , którego rezultatem jest najmniejsze γ(M ):

d(G1, G2) = min

3.1. Metody sztucznej inteligencji do kategoryzacji modeli grafowych 43

Innymi słowy, miarą odległości edycyjnej między dwoma grafami jest koszt funkcji transformującej, która ma najmniejszy koszt spośród wszystkich możliwych kombina-cji operakombina-cji edykombina-cji. Choć podejście takie jest dość proste do zrozumienia, ma ono także istotną wadę  wybrany koszt każdej operacji ma istotny wpływ na efekt końcowy i mu-si być dopasowany do konkretnego zastosowania. Dodatkowo, jedynie przy niektórych kombinacjach kosztów operacji, jest to w istocie metryka [Bunke 1998]. Nie uwzględnia ona także normalizacji odległości. W przypadku grafów o dużej ilości węzłów i krawę-dzi, bezwględne wartości odległości edycyjnej będą większe niż w grafach o mniejszej ilości węzłów i krawędzi, co niekoniecznie będzie się przekładało na pożądaną wartość miary odległości.

Dlatego, Bunke i Shearer [Bunke 1998] zaproponowali metrykę odległości (def.12) opartą o pojęcie największego wspólnego podgrafu. Zostało pokazane, iż pod pewnymi wa-runkami, zachowuje się ona równoważnie do odległości edycyjnej [Bunke 1997]. Definicja 11. Graf g jest największym wspólnym podgrafem (mcs  maximum common

subgraph) grafów G1 oraz G2, co zapisujemy jako mcs(G1, G2), jeżeli zachodzi: 1. g ⊆ G1,

2. g ⊆ G2,

3. nie istnieje inny podgraf g0(taki, że g0 ⊆ G1oraz g0⊆ G2) dla którego |g0| > |g|

W oryginalnej pracy, przez rozmiar grafu (|g|), rozumiano zwykle |V |, czyli ilość wszystkich węzłów. Należy zwrócić uwagę na fakt, iż największy wspólny podgraf nie musi być spójny (innymi słowy, mogą istnieć w nim węzły, między którymi nie ma żad-nej ścieżki). Kwestia rozmiaru grafu jest zależna od przyjętego modelu i może brać pod uwagę nie tylko węzły, ale również krawędzie oraz ich atrybuty.

Definicja 12. Przez odległość dM CS rozumieć będziemy:

dM CS(G1, G2) = 1 − |mcs(G1, G2)|

max(|G1|, |G2|) (3.5)

Wallis et al. [Wallis 2001] proponują metrykę opartą o ideę części wspólnej grafów (def.13), w sensie użycia jej rozmiaru w mianowniku (sumując wielkość obu grafów i odejmując ich część wspólną). Zachowuje się ona w sposób podobny do dM CS(def.12), lecz lepiej oddaje wpływ małych grafów w przypadku porównywania grafów o istotnie różnych wielkościach.

Definicja 13. Przez odległość dW GU rozumieć będziemy:

dW GU(G1, G2) = 1 − |mcs(G1, G2)|

|G1| + |G2| − |mcs(G1, G2)| (3.6) Zwrócić należy uwagę, iż w niniejszej pracy, rozpatrywane są grafy, które cechuje unikalność występowania węzłów o tej samej etykiecie. Złożoność obliczeniowa znale-zienia największego wspólnego podgrafu wynosi O(|V |2) [Dickinson 2003] (co zostało przedstawione w2.1.4.3).

Węzłom i krawędziom w rozważanych grafach mogą być przypisane liczby okre-ślające ilość bądź częstość ich wystąpień. Schenker et al. zaproponowali kilka strategii uwzględnienia tych informacji:

3.1. Metody sztucznej inteligencji do kategoryzacji modeli grafowych 44

• przypisywania za każdym razem wartości 1 (reprezentacja standardowa),

• przypisywania absolutnej wartości wystąpień (reprezentacja absolutnej częstości), • przypisywania częstości wystąpień, poprzez podzielenie ilości wystąpień w

da-nym węźle przez ilość wszystkich węzłów w grafie (reprezentacja relatywnej

często-ści).

W przypadku dwóch ostatnich reprezentacji, rozmiar grafu można zdefiniować jako (def.14):

Definicja 14. Rozmiar grafu reprezentującego ilość bądź częstość wystąpień zdefiniowana zo-staje jako: |G|0 = 1 − n X i=1 v(i) + m X j=1 e(i) (3.7)

Przy czym, n to liczba węzłów, m - liczba krawędzi, v(i) reprezentuje częstość przypisaną do węzła i, a e(j) reprezentuje częstość przypisaną do krawędzi j.

Wśród innych podejść do mierzenia podobieństwa grafów należy wymienić me-tody oparte o najmniejszy wspólny nadgraf [Fernández 2001], metody przybliżone

[Wang 1995], probabilistyczne [Wilson 1997], zachowania odległości [Chartrand 1998]

czy też z wykorzystaniem sieci Kohonena [Neuhaus 2003]. W tym ostatnim podejściu, system uczy się na podstawie przykładów, jak ustalić koszt operacji edycyjnych (przy przedstawionej powyżej mierze odmienności grafów), tak aby odległość między gra-fami znanymi jako podobne była jak najmniejsza (innymi słowy, optymalizuje automa-tycznie parametry miary odmienności).

W niniejszej pracy proponowana jest dodatkowa miara (def.15), która jest wariacją odległości dW GU (def.13), uwzględniającą jedynie węzły:

Definicja 15. Przez odległość dW GU −V rozumieć będziemy: dW GU −V(G1, G2) = 1 − |mcs(V1, V2)|

|V1| + |V2| − mcs(V1, V2) (3.8)

Przy czym, V1 to zbiór węzłów grafu G1, a V2 jest zbiorem węzłów grafu G2.

3.1.3 Klasyfikacja

Grafy (i jego odmiany  np. drzewa) są bardzo popularną strukturą w

informaty-ce[Cormen 2001], także w zagadnieniach sztucznej inteligencji (np. w metodach

roz-poznawania obrazu albo analizie struktur chemicznych [Riesen 2010]). Mimo tego, re-latywnie rzadko wykorzystuje się je jako modele reprezentujące cechy w różnych meto-dach maszynowego uczenia. Będąc w istocie tworem zdecydowanie bardziej skompli-kowanym od prostego wektora cech, ich praktyczne wykorzystanie jest również trud-niejsze. Większość istniejących algorytmów klasyfikacji nie jest w stanie bezpośrednio operować na grafach. Jeden z najbardziej popularnych algorytmów – SVM (maszyny wektorów nośnych) [Joachims 1998,Noble 2006]) – może zostać do nich dostosowany

3.1. Metody sztucznej inteligencji do kategoryzacji modeli grafowych 45

poprzez przygotowanie odpowiedniej funkcji jądra. Jednak w przypadku przestrzeni grafowych mamy w ogólności do czynienia z problemem NP-zupełnym [Gärtner 2003]. Zatem praktyczne implementacje są (póki co) budowane głównie dla konkrentych pod-problemów [Kashima 2003,Vert 2002], upraszczając je do konkretnego zastosowania. W rzeczywistych rozwiązaniach, stosuje się w efekcie wydobywanie cech grafu i zapi-sywanie ich w postaci wektora cech (por.2.1.4.5).

Jednym z niewielu algorytmów klasyfikacji, w którym można w łatwy sposób bez-pośrednio stosować graf jako sposób zapisu cech, jest algorytm k-najbliższych sąsiadów (kNN) [Cover 1991]. W swojej podstawowej postaci, jego realizacja polega na znalezie-niu dla każdego grafu, zbioru k najmniej odległych grafów ze zbioru uczącego i przy-pisanie najczęściej reprezentowanej przez nie klasy.

Złożoność takiego algorytmu w przypadku grafów wynosi O(nm2) + O(n log n), przy czym m to liczba węzłów w grafie, zaś n to liczba przykładów w zbiorze uczącycm

[Schenker 2005]. Biorąc jednak pod uwagę koszt obliczeniowy znalezienia odległości

między dwoma grafami, przy użyciu metryki opartej o największy wspólny podgraf, algorytm ten może być uznany za mało efektywny, zwłaszcza w sytuacji, gdy mamy do czynienia z licznymi zbiorami grafów.

Ze względu na dostępność i efektywność wielu algorytmów maszynowego ucze-nia opartych o modele wektorowe, dobrym rozwiązaniem jest dokonanie transformacji modelu grafowego do modelu wektorowego. Dzięki temu, można będzie wykorzystać algorytmy uczenia takie jak SVM, Naive Bayes, drzewa decyzyjne, etc., które indukują mo-del klasyfikatora, uzyskując w ten sposób nie tylko lepszą dokładność wyników, ale przede wszystkim poprawiając, w stosunku do kNN, złożoność obliczeniową metody klasyfikacji.

Istnieje kilka strategii, które mogą być zastosowane do transformacji modelu grafo-wego na wektor:

• proste wydobycie cech z węzłów i krawędzi  cechami wektora stają się wystą-pienia pojedyńczych węzłów oraz krawędzi łączących dane węzły,

• sprytne wydobycie podgrafów [Markov 2005b, Markov 2005a, Markov 2008,

Jiang 2009]  cechy ustalone są na podstawie wybranych podgrafów

znalezio-nych w zbiorze uczącym; metody te wykorzystują różne heurystyki do oceny któ-re podgrafy należy wybrać jako pojedyńcze cechy, por.2.1.4.4oraz2.1.4.5,

• stworzenie wektora odległości do prototypowych podgrafów [Riesen 2010,

Yan 2007]  ze zbioru uczącego wydobyte są prototypy (będące zalążkami klas),

dla których znalezione są odległości (korzystając z miary edycyjnej), stanowiące cechy danego wektora; innymi słowy, przy transformacji danego grafu w wektor, znajdowane są odległości tego grafu od grafów prototypowych, które stanowić będą cechy wektora wynikowego; podejście to jest uniwersalne dla wielu rodza-jów grafów, jednak w przypadku grafów reprezentujących dokumenty dawało relatywnie niedużą (choć statystycznie istotną) poprawę wyników [Bunke 2011]. Uznano iż bardziej złożone podejścia (sprytne wydobycie podgrafów, wektor od-ległości do grafów prototypowych) posiadać będą istotny wpływ na osiągane rezulta-ty. Jako że intencją prowadzonych prac badawczych jest sprawdzenie wpływu różnych

3.1. Metody sztucznej inteligencji do kategoryzacji modeli grafowych 46

metod kształtowania reprezentacji treści na uzyskane rezultaty, pożądana będzie taka ekstrakcja wektora, która dobrze zachowa cechy i charakterystykę oryginalnego grafu, w istocie lepiej odzwierciedlając charakterystykę danego wariantu. Dodatkowo, pro-ponowane wariantu budują strukturę zawierającą słowosensy jako etykiety niektórych krawędzi, co musi zostać odpowiednio uwzględnione podczas budowania wektora.

Ostatecznie, w trakcie prowadzonych badań zaproponowano wariację prostego wy-dobycia cech (def.16), która była później zawsze stosowana przy budowie wektora na podstawie grafu:

Definicja 16. Ekstrakcja wektora cech z reprezentacji grafu G = (V, E, α, β) odbywać się będzie z użyciem następującego schematu:

• każdy węzeł A będzie reprezentowany przez cechę etykietowaną przez jego nazwę, tj. VA, • każde połączenie X między węzłami A oraz B będzie reprezentowane przez dwie cechy, etykietowane jako EA+X+Boraz EX; dodatkowo, jeśli zawierało ono informacje o

słowo-sensie Y, wówczas dokładana będzie cecha etykietowana jako EA+Y +B,

• każda uzyskana cecha posiadać będzie przypisaną wagę w danym grafie (opartą o względną częstość bądź TFIDF).

Przykład ekstrakcji obrazuje rys.3.1. Jako osobne cechy reprezentowane są zarówno dystynktywne elementy grafu, jak i trójki węzeł-połączenie-węzeł.

smutek*

siła* rozwija

+1 słowosens NN NEG

Vsmutek Vsiła Erozwija

ENN ENEG Esmutek+rozwija+siła

Esmutek+słowosens-123+siła Esmutek+NN+siła Esmutek+NEG+siła

Rysunek 3.1: Przykładowy fragment grafu oraz wydobyte z niego cechy

3.1.4 Klastrowanie

W przypadku nienadzorowanych algorytmów uczących, do czynienia mamy z takimi samymi bolączkami związanymi ze stosowaniem grafów jak w przypadku algorytmów nadzorowanych.

Korzystając z odmiany algorytmu centroid (k-means) [Mitchell 1997], zwaną algo-rytmem medoid [Kaufman 1990], dość łatwe jest zastąpienie pojęcia centroidy klastru w modelu wektorowym, centroidą klastru w modelu grafowym, przy zastosowaniu

W dokumencie Index of /rozprawy2/10905 (Stron 48-57)

Powiązane dokumenty