Modelowanie i analiza sieci złożonych V. Statyczne grafy przypadkowe

55  Download (0)

Full text

(1)

Modelowanie i analiza sieci złożonych

V. Statyczne grafy przypadkowe

Grzegorz Siudem

Politechnika Warszawska

(2)

MASZ 1

(3)

Przed zajęciami

(4)

Do przypomnienia

• rozkład BernoulliegoP(X = k) =(N

k

)pk(1− p)N−k,

• rozkład PiossonaP(X = k) =e−λk!λk,

• zbieżność jednego do drugiego (w jakim sensie?)

• lemat o uściskach dłoni∑

iki=2E (alternatywnie:⟨k⟩ = 2NE.).

Pytanie

Dlaczego we wzorze pojawia sie czynnik 2?

MASZ 2

(5)

Wykład

(6)

Przypomnienie czym jest sieciologia

sieciologia = dane + metryki + modele + . . .

Po co nam modele?

• do generowania sieci w kontrolowanych warunkach,

• pozwalają ekstrahować istotne z danego punktu widzenia cechy sieci,

• dają szansę na budowę dobrych statystyk przy analizie dynamiki na sieciach (zajęcia 11. i 12.),

• dają nam wgląd w mechanizmy stojące za rzeczywistymi procesami (patrz kolejne zajęcia i sieci BA),

• to bardzo wdzięczna dziedzina matematyki stosowanej.

MASZ 3

(7)

Przypomnienie czym jest sieciologia

sieciologia = dane + metryki + modele + . . .

Po co nam modele?

• do generowania sieci w kontrolowanych warunkach,

• pozwalają ekstrahować istotne z danego punktu widzenia cechy sieci,

• dają szansę na budowę dobrych statystyk przy analizie dynamiki na sieciach (zajęcia 11. i 12.),

• dają nam wgląd w mechanizmy stojące za rzeczywistymi procesami (patrz kolejne zajęcia i sieci BA),

• to bardzo wdzięczna dziedzina matematyki stosowanej.

(8)

Przypomnienie czym jest sieciologia

sieciologia = dane + metryki + modele + . . .

Po co nam modele?

• do generowania sieci w kontrolowanych warunkach,

• pozwalają ekstrahować istotne z danego punktu widzenia cechy sieci,

• dają szansę na budowę dobrych statystyk przy analizie dynamiki na sieciach (zajęcia 11. i 12.),

• dają nam wgląd w mechanizmy stojące za rzeczywistymi procesami (patrz kolejne zajęcia i sieci BA),

• to bardzo wdzięczna dziedzina matematyki stosowanej.

MASZ 3

(9)

Przypomnienie czym jest sieciologia

sieciologia = dane + metryki + modele + . . .

Po co nam modele?

• do generowania sieci w kontrolowanych warunkach,

• pozwalają ekstrahować istotne z danego punktu widzenia cechy sieci,

• dają szansę na budowę dobrych statystyk przy analizie dynamiki na sieciach (zajęcia 11. i 12.),

• dają nam wgląd w mechanizmy stojące za rzeczywistymi procesami (patrz kolejne zajęcia i sieci BA),

• to bardzo wdzięczna dziedzina matematyki stosowanej.

(10)

Przypomnienie czym jest sieciologia

sieciologia = dane + metryki + modele + . . .

Po co nam modele?

• do generowania sieci w kontrolowanych warunkach,

• pozwalają ekstrahować istotne z danego punktu widzenia cechy sieci,

• dają szansę na budowę dobrych statystyk przy analizie dynamiki na sieciach (zajęcia 11. i 12.),

• dają nam wgląd w mechanizmy stojące za rzeczywistymi procesami (patrz kolejne zajęcia i sieci BA),

• to bardzo wdzięczna dziedzina matematyki stosowanej.

MASZ 3

(11)

Przypomnienie czym jest sieciologia

sieciologia = dane + metryki + modele + . . .

Po co nam modele?

• do generowania sieci w kontrolowanych warunkach,

• pozwalają ekstrahować istotne z danego punktu widzenia cechy sieci,

• dają szansę na budowę dobrych statystyk przy analizie dynamiki na sieciach (zajęcia 11. i 12.),

• dają nam wgląd w mechanizmy stojące za rzeczywistymi procesami (patrz kolejne zajęcia i sieci BA),

• to bardzo wdzięczna dziedzina matematyki stosowanej.

(12)

Uwaga! Grafy ER są normalne

2 4 6 8

0 2 4 6 8 10 12

5 10 15 20 25

0 5 10 15 20 25

A tak naprawdę poissonowskie, jak przekonamy się za chwilę...

MASZ 4

(13)

Model Erdősa-Rényiego

Dwa warianty modelu

• GN,E(Erdős-Rényi),

• GN,p(E. Gilbert)

(14)

Model Erdősa-Rényiego w wersji G

N,E

MASZ 6

(15)

Model Erdősa-Rényiego w wersji G

N,E

(16)

Model Erdősa-Rényiego w wersji G

N,E

MASZ 6

(17)

Model Erdősa-Rényiego w wersji G

N,p

(18)

Model Erdősa-Rényiego w wersji G

N,p

MASZ 7

(19)

Model Erdősa-Rényiego w wersji G

N,p

(20)

Skupmy się na modelu G

N,p

Założenia

Analizujemy ansambl opisany dwoma parametrami:

• N liczba wierzchołków,

• p prawdopodobieństwo, że dwa wierzchołki będą połączone.

MASZ 8

(21)

Przypadek graniczny: p = 0

Wniosek:

p = 0 to przypadek trywialny.

(22)

Przypadek graniczny – p = 1

Wniosek 1:

To bardzo nieudana wizualizacja...

Wniosek 2:

p = 1 to graf pełny.

MASZ 10

(23)

Przypadek graniczny – p = 1

Wniosek 1:

To bardzo nieudana wizualizacja...

Wniosek 2:

p = 1 to graf pełny.

(24)

Grafy ER – zależność od parametru p

MASZ 11

(25)

Rozwiązanie modelu G

N,p

Pytanie

Ile przeciętnie pojawi się krawędzi w jednym układzie?

Policzmy

⟨E⟩ = p ×N(N− 1)

2 ,

co z lematu o uścisku dłoni daje

⟨k⟩ = pN(N− 1) 2

2

N =p(N− 1) ≈ pN.

Znamy zatem średni stopień

A co z rozkładem stopni wierzchołków?

(26)

Rozwiązanie modelu G

N,p

Pytanie

Ile przeciętnie pojawi się krawędzi w jednym układzie?

Policzmy

⟨E⟩ = p ×N(N− 1)

2 ,

co z lematu o uścisku dłoni daje

⟨k⟩ = pN(N− 1) 2

2

N =p(N− 1) ≈ pN.

Znamy zatem średni stopień

A co z rozkładem stopni wierzchołków?

MASZ 12

(27)

Rozwiązanie modelu G

N,p

Pytanie

Ile przeciętnie pojawi się krawędzi w jednym układzie?

Policzmy

⟨E⟩ = p ×N(N− 1)

2 ,

co z lematu o uścisku dłoni daje

⟨k⟩ = pN(N− 1) 2

2

N =p(N− 1) ≈ pN.

Znamy zatem średni stopień

A co z rozkładem stopni wierzchołków?

(28)

Rozwiązanie modelu G

N,p

Zmienna losowa opisująca stopień wierzchołka K K =

N−1

i=1

Xk,

gdzie Xksą zmiennymi iid oP(Xk=1) = pP(Xk =0) = 1− p.

K ma rozkład Bernoulliego P(k) = P(K = k) =

(N− 1 k

)

pk(1− p)N−1−k

Przybliżenie rozkładem Poissona

P(k) ≈ e−⟨k⟩⟨k⟩k k! , bo⟨k⟩ ≈ Np.

MASZ 13

(29)

Rozwiązanie modelu G

N,p

Zmienna losowa opisująca stopień wierzchołka K K =

N−1

i=1

Xk,

gdzie Xksą zmiennymi iid oP(Xk=1) = pP(Xk =0) = 1− p.

K ma rozkład Bernoulliego P(k) = P(K = k) =

(N− 1 k

)

pk(1− p)N−1−k

Przybliżenie rozkładem Poissona

P(k) ≈ e−⟨k⟩⟨k⟩k k! , bo⟨k⟩ ≈ Np.

(30)

Rozwiązanie modelu G

N,p

Zmienna losowa opisująca stopień wierzchołka K K =

N−1

i=1

Xk,

gdzie Xksą zmiennymi iid oP(Xk=1) = pP(Xk =0) = 1− p.

K ma rozkład Bernoulliego P(k) = P(K = k) =

(N− 1 k

)

pk(1− p)N−1−k

Przybliżenie rozkładem Poissona

P(k) ≈ e−⟨k⟩⟨k⟩k k! , bo⟨k⟩ ≈ Np.

MASZ 13

(31)

Niefizyczność grafów ER

Przyjmując przybliżenie poissonowskie wyznaczmy wariancję E(K) =

k=0

ke−⟨k⟩⟨k⟩k

k! =· · · = ⟨k⟩,

E(K2) =

k=0

k2e−⟨k⟩⟨k⟩k

k! =· · · = ⟨k⟩ + ⟨k⟩2. Var(K) =E(K2)− [E(K)]2=⟨k⟩2

A szczegóły rachunków? W części projektowej.

Tak mała wariancja nie pojawia się w danych rzeczywistych...

(32)

Niefizyczność grafów ER

Przyjmując przybliżenie poissonowskie wyznaczmy wariancję E(K) =

k=0

ke−⟨k⟩⟨k⟩k

k! =· · · = ⟨k⟩,

E(K2) =

k=0

k2e−⟨k⟩⟨k⟩k

k! =· · · = ⟨k⟩ + ⟨k⟩2. Var(K) =E(K2)− [E(K)]2=⟨k⟩2

A szczegóły rachunków?

W części projektowej.

Tak mała wariancja nie pojawia się w danych rzeczywistych...

MASZ 14

(33)

Niefizyczność grafów ER

Przyjmując przybliżenie poissonowskie wyznaczmy wariancję E(K) =

k=0

ke−⟨k⟩⟨k⟩k

k! =· · · = ⟨k⟩,

E(K2) =

k=0

k2e−⟨k⟩⟨k⟩k

k! =· · · = ⟨k⟩ + ⟨k⟩2. Var(K) =E(K2)− [E(K)]2=⟨k⟩2

A szczegóły rachunków?

W części projektowej.

Tak mała wariancja nie pojawia się w danych rzeczywistych...

(34)

Niefizyczność grafów ER

Przypomnijmy współczynnik gronowania

Wyznaczymy wartość współczynnika gronowania dla grafów ER Ci= 2Ei

ki(ki− 1).

Odpowiedź:

⟨C⟩ = p⟨k⟩(⟨k⟩ − 1)

⟨k⟩(⟨k⟩ − 1) =p.

Tak mały współczynnik gronowania raczej nie pojawia się w danych rzeczywistych...

MASZ 15

(35)

Niefizyczność grafów ER

Przypomnijmy współczynnik gronowania

Wyznaczymy wartość współczynnika gronowania dla grafów ER Ci= 2Ei

ki(ki− 1).

Odpowiedź:

⟨C⟩ = p⟨k⟩(⟨k⟩ − 1)

⟨k⟩(⟨k⟩ − 1) =p.

Tak mały współczynnik gronowania raczej nie pojawia się w danych rzeczywistych...

(36)

Niefizyczność grafów ER

2 4 6 8

0 2 4 6 8 10 12

5 10 15 20 25

0 5 10 15 20 25

Na kolejnych zajęciach bardziej rzeczywisty model BA.

MASZ 16

(37)

Model konfiguracyjny

Pomysł:

Zbudujmy graf z klocków, jakie mamy.

A gdyby zastąpić rzeczywiste klocki dobranymi a priori?

(38)

Model konfiguracyjny

Pomysł:

Zbudujmy graf z klocków, jakie mamy.

A gdyby zastąpić rzeczywiste klocki dobranymi a priori?

MASZ 17

(39)

Model konfiguracyjny

Pomysł:

Zbudujmy graf z klocków, jakie mamy.

A gdyby zastąpić rzeczywiste klocki dobranymi a priori?

(40)

Model konfiguracyjny

Pomysł:

Zbudujmy graf z klocków, jakie mamy.

A gdyby zastąpić rzeczywiste klocki dobranymi a priori?

MASZ 17

(41)

Model konfiguracyjny

Wybierzmy konfigurację stopni zgodnie z oczekiwanym rozkładem:

Na przykład:

{1, 1, 1, 2, 2, 3}

Pozostaje tylko poskładać te klocki w sieć... Tylko czy to zawsze jest wykonalne?

Pytanie:

Znajdź (mały) kontrprzykład na to, że proponowanej procedury nie zawsze uda się ukończyć.

(42)

Model konfiguracyjny

Wybierzmy konfigurację stopni zgodnie z oczekiwanym rozkładem:

Na przykład:

{1, 1, 1, 2, 2, 3}

Pozostaje tylko poskładać te klocki w sieć...

Tylko czy to zawsze jest wykonalne?

Pytanie:

Znajdź (mały) kontrprzykład na to, że proponowanej procedury nie zawsze uda się ukończyć.

MASZ 18

(43)

Model konfiguracyjny

Wybierzmy konfigurację stopni zgodnie z oczekiwanym rozkładem:

Na przykład:

{1, 1, 1, 2, 2, 3}

Pozostaje tylko poskładać te klocki w sieć...

Tylko czy to zawsze jest wykonalne?

Pytanie:

Znajdź (mały) kontrprzykład na to, że proponowanej procedury nie zawsze uda się ukończyć.

(44)

Model blokowy

Uogólnienie grafów ER





[p11] [p12] . . . [p1N] [p21] [p22] . . . [p2N] . . . . . . . .. . . . [pN1] [pN2] . . . [pNN]





MASZ 19

(45)

Model blokowy

Uogólnienie grafów ER





[p11] [p12] . . . [p1N] [p21] [p22] . . . [p2N] . . . . . . . .. . . . [pN1] [pN2] . . . [pNN]





(46)

Model Wattsa-Strogatza

1

2

3

4 5

6 7 8 9 10

1

2

3

4 5

6 7 8 9 10

1

2

3

4 5

6 7 8 9 10

MASZ 20

(47)

Sieci o zadanym hamiltonianie

Rozważmy przestrzeń wszystkich grafów o N wierzchołkach czyli zbiór MN=MN×N({0, 1}). Chcemy zdefiniować na nim rozkład prawdopodobieństwa.

Maksymalizujemy entropię

G∈MN

P(G) ln P(G),

Pod pewnym warunkiem f(P(G)) = 0,

Co prowadzi do metody mnożników Lagrange’a L[P(G)] = −

G∈MN

P(G) ln P(G) + λf(P(G))

Pozostaje tylko rozwiązać

∂L

∂P(G) =0.

(48)

Sieci o zadanym hamiltonianie

Rozważmy przestrzeń wszystkich grafów o N wierzchołkach czyli zbiór MN=MN×N({0, 1}). Chcemy zdefiniować na nim rozkład prawdopodobieństwa.

Maksymalizujemy entropię

G∈MN

P(G) ln P(G),

Pod pewnym warunkiem f(P(G)) = 0,

Co prowadzi do metody mnożników Lagrange’a L[P(G)] = −

G∈MN

P(G) ln P(G) + λf(P(G))

Pozostaje tylko rozwiązać

∂L

∂P(G) =0.

MASZ 21

(49)

Sieci o zadanym hamiltonianie

Rozważmy przestrzeń wszystkich grafów o N wierzchołkach czyli zbiór MN=MN×N({0, 1}). Chcemy zdefiniować na nim rozkład prawdopodobieństwa.

Maksymalizujemy entropię

G∈MN

P(G) ln P(G),

Pod pewnym warunkiem f(P(G)) = 0,

Co prowadzi do metody mnożników Lagrange’a L[P(G)] = −

G∈MN

P(G) ln P(G) + λf(P(G))

Pozostaje tylko rozwiązać

∂L

∂P(G) =0.

(50)

Sieci o zadanym hamiltonianie

Rozważmy przestrzeń wszystkich grafów o N wierzchołkach czyli zbiór MN=MN×N({0, 1}). Chcemy zdefiniować na nim rozkład prawdopodobieństwa.

Maksymalizujemy entropię

G∈MN

P(G) ln P(G),

Pod pewnym warunkiem f(P(G)) = 0,

Co prowadzi do metody mnożników Lagrange’a L[P(G)] = −

G∈MN

P(G) ln P(G) + λf(P(G))

Pozostaje tylko rozwiązać

∂L

∂P(G) =0.

MASZ 21

(51)

Sieci o zadanym hamiltonianie

Rozważmy przestrzeń wszystkich grafów o N wierzchołkach czyli zbiór MN=MN×N({0, 1}). Chcemy zdefiniować na nim rozkład prawdopodobieństwa.

Maksymalizujemy entropię

G∈MN

P(G) ln P(G),

Pod pewnym warunkiem f(P(G)) = 0,

Co prowadzi do metody mnożników Lagrange’a L[P(G)] = −

G∈MN

P(G) ln P(G) + λf(P(G))

Pozostaje tylko rozwiązać

∂L

∂P(G) =0.

MASZ 21

(52)

Podsumowanie

(53)

Na następne zajęcia proponuję:

Poczytać o

• Zasadzie Dulbecco,

• Regule św. Mateusza,

• zasadzie rich get richer,

• procesach Yule’a.

Albo przeczytać:

• M. Perc, Journal of The Royal Society Interface 11 (2014)

(54)

MASZ 23

(55)

Dziękuję za uwagę!

Figure

Updating...

References

Related subjects :