• Nie Znaleziono Wyników

Entropia i jej własno´sci

N/A
N/A
Protected

Academic year: 2021

Share "Entropia i jej własno´sci"

Copied!
51
0
0

Pełen tekst

(1)

Entropia i jej własno´sci

Jacek Jurkowski, Fizyka Statystyczna

Instytut Fizyki

2015

Jacek Jurkowski, Fizyka Statystyczna Entropia

(2)

Entropia termodynamiczna

dS = dQ

T dla procesów odwracalnych

i wówczas

∆S = Z

A→B

dQ T

gdzie powy˙zsza całka nie zale˙zy od procesu A → B, a tylko od stanu pocza˛tkowego A i ko´ncowego B

Ogólnie dS ­ dQ

T , bowiem ma miejsce produkcja entropii diS, dS = dQ

T + diS

Jacek Jurkowski, Fizyka Statystyczna Entropia

(3)

Entropia termodynamiczna

dS = dQ

T dla procesów odwracalnych

i wówczas

∆S = Z

A→B

dQ T

gdzie powy˙zsza całka nie zale˙zy od procesu A → B, a tylko od stanu pocza˛tkowego A i ko´ncowego B

Ogólnie dS ­ dQ

T , bowiem ma miejsce produkcja entropii diS, dS = dQ

T + diS

Jacek Jurkowski, Fizyka Statystyczna Entropia

(4)

Entropia termodynamiczna

dS = dQ

T dla procesów odwracalnych

i wówczas

∆S = Z

A→B

dQ T

gdzie powy˙zsza całka nie zale˙zy od procesu A → B, a tylko od stanu pocza˛tkowego A i ko´ncowego B

Ogólnie dS ­ dQ

T , bowiem ma miejsce produkcja entropii diS, dS = dQ

T + diS

Jacek Jurkowski, Fizyka Statystyczna Entropia

(5)

Entropia termodynamiczna

dS = dQ

T dla procesów odwracalnych

i wówczas

∆S = Z

A→B

dQ T

gdzie powy˙zsza całka nie zale˙zy od procesu A → B, a tylko od stanu pocza˛tkowego A i ko´ncowego B

Ogólnie dS ­ dQ

T , bowiem ma miejsce produkcja entropii diS, dS = dQ

T + diS

Jacek Jurkowski, Fizyka Statystyczna Entropia

(6)

Entropia statystyczna

Niech P = (p1, . . . , pN) be˛dzie prawdopodobie´nstwem (N mo˙ze by´c niesko´nczone!)

Definicja

Entropie˛ definiuje sie˛ jako

S(P ) = −k

N

X

i=1

piln pi albo S(P ) = −

N

X

i=1

pilog2pi,

gdzie przyjmujemy 0 · ln 0 = 0 , a k jest stała˛ Boltzmanna.

N = 2

S(p) = −k[p ln p + (1 − p) ln(1 − p)] , 0 ¬ p ¬ 1

N = 3

S(p1, p2) = −k[p1ln p1+p2ln p2+(1−p1−p2) ln(1−p1−p2)] , 0 ¬ p1, p2¬ 1

Jacek Jurkowski, Fizyka Statystyczna Entropia

(7)

Entropia statystyczna

Niech P = (p1, . . . , pN) be˛dzie prawdopodobie´nstwem (N mo˙ze by´c niesko´nczone!)

Definicja

Entropie˛ definiuje sie˛ jako

S(P ) = −k

N

X

i=1

piln pi albo S(P ) = −

N

X

i=1

pilog2pi,

gdzie przyjmujemy 0 · ln 0 = 0 , a k jest stała˛ Boltzmanna.

N = 2

S(p) = −k[p ln p + (1 − p) ln(1 − p)] , 0 ¬ p ¬ 1

N = 3

S(p1, p2) = −k[p1ln p1+p2ln p2+(1−p1−p2) ln(1−p1−p2)] , 0 ¬ p1, p2¬ 1

Jacek Jurkowski, Fizyka Statystyczna Entropia

(8)

Entropia statystyczna

Niech P = (p1, . . . , pN) be˛dzie prawdopodobie´nstwem (N mo˙ze by´c niesko´nczone!)

Definicja

Entropie˛ definiuje sie˛ jako

S(P ) = −k

N

X

i=1

piln pi albo S(P ) = −

N

X

i=1

pilog2pi,

gdzie przyjmujemy 0 · ln 0 = 0 , a k jest stała˛ Boltzmanna.

N = 2

S(p) = −k[p ln p + (1 − p) ln(1 − p)] , 0 ¬ p ¬ 1

N = 3

S(p1, p2) = −k[p1ln p1+p2ln p2+(1−p1−p2) ln(1−p1−p2)] , 0 ¬ p1, p2¬ 1

Jacek Jurkowski, Fizyka Statystyczna Entropia

(9)

Entropia statystyczna

Niech P = (p1, . . . , pN) be˛dzie prawdopodobie´nstwem (N mo˙ze by´c niesko´nczone!)

Definicja

Entropie˛ definiuje sie˛ jako

S(P ) = −k

N

X

i=1

piln pi albo S(P ) = −

N

X

i=1

pilog2pi,

gdzie przyjmujemy 0 · ln 0 = 0 , a k jest stała˛ Boltzmanna.

N = 2

S(p) = −k[p ln p + (1 − p) ln(1 − p)] , 0 ¬ p ¬ 1

N = 3

S(p1, p2) = −k[p1ln p1+p2ln p2+(1−p1−p2) ln(1−p1−p2)] , 0 ¬ p1, p2¬ 1

Jacek Jurkowski, Fizyka Statystyczna Entropia

(10)

Entropia statystyczna

Niech P = (p1, . . . , pN) be˛dzie prawdopodobie´nstwem (N mo˙ze by´c niesko´nczone!)

Definicja

Entropie˛ definiuje sie˛ jako

S(P ) = −k

N

X

i=1

piln pi albo S(P ) = −

N

X

i=1

pilog2pi,

gdzie przyjmujemy 0 · ln 0 = 0 , a k jest stała˛ Boltzmanna.

N = 2

S(p) = −k[p ln p + (1 − p) ln(1 − p)] , 0 ¬ p ¬ 1

N = 3

S(p1, p2) = −k[p1ln p1+p2ln p2+(1−p1−p2) ln(1−p1−p2)] , 0 ¬ p1, p2¬ 1

Jacek Jurkowski, Fizyka Statystyczna Entropia

(11)

Wykresy entropii

Jacek Jurkowski, Fizyka Statystyczna Entropia

(12)

Własno´sci entropii

Własno´sci entropii:

1 0 ¬ S(P ) ¬ k ln N

S(P ) = 0 ⇐⇒ P = (0, . . . , 1, . . . , 0) S(P ) = k ln N ⇐⇒ P = (N1, . . . ,N1) (dowód w oparciu o tw. Lagrange’a)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(13)

Własno´sci entropii

Własno´sci entropii:

1 0 ¬ S(P ) ¬ k ln N

S(P ) = 0 ⇐⇒ P = (0, . . . , 1, . . . , 0) S(P ) = k ln N ⇐⇒ P = (N1, . . . ,N1) (dowód w oparciu o tw. Lagrange’a)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(14)

Własno´sci entropii

Własno´sci entropii:

1 0 ¬ S(P ) ¬ k ln N

S(P ) = 0 ⇐⇒ P = (0, . . . , 1, . . . , 0) S(P ) = k ln N ⇐⇒ P = (N1, . . . ,N1) (dowód w oparciu o tw. Lagrange’a)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(15)

Własno´sci entropii

Własno´sci entropii:

1 0 ¬ S(P ) ¬ k ln N

S(P ) = 0 ⇐⇒ P = (0, . . . , 1, . . . , 0) S(P ) = k ln N ⇐⇒ P = (N1, . . . ,N1) (dowód w oparciu o tw. Lagrange’a)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(16)

Tw. Lagrange’a

Tw. Lagrange’a

Je´sli funkcja f (x1, . . . , xn) ma w pewnym punkcie ekstremum warunkowe przy wa- runkach Wi(x1, . . . , xn) = 0, i = 1, . . . , r < n, to funkcja

g(x1, . . . , xn) = f (x1, . . . , xn) −

r

X

i=1

λiWi(x1, . . . , xn)

ma w tym punkcie ekstremum lokalne przy pewnych warto´sciach mno˙zników Lagran- ge’a λi.

Jacek Jurkowski, Fizyka Statystyczna Entropia

(17)

Tw. Lagrange’a

Tw. Lagrange’a

Je´sli funkcja f (x1, . . . , xn) ma w pewnym punkcie ekstremum warunkowe przy wa- runkach Wi(x1, . . . , xn) = 0, i = 1, . . . , r < n, to funkcja

g(x1, . . . , xn) = f (x1, . . . , xn) −

r

X

i=1

λiWi(x1, . . . , xn)

ma w tym punkcie ekstremum lokalne przy pewnych warto´sciach mno˙zników Lagran- ge’a λi.

Jacek Jurkowski, Fizyka Statystyczna Entropia

(18)

Sympleks

Zbiór wszystkich rozkładów prawdopodobie´nstw PN =

n

(p1, . . . , pN) ; 0 ¬ pi¬ 1 ,

N

X

i=1

pi= 1 o

tworzysympleks

Sympleks PNjest zbiorem wypukłym, tzn.

∀ P, Q ∈ PN ∀ α ∈ [0, 1] αP + (1 − α)Q ∈ PN

Sympleks przy N = 3

Jacek Jurkowski, Fizyka Statystyczna Entropia

(19)

Sympleks

Zbiór wszystkich rozkładów prawdopodobie´nstw PN = n

(p1, . . . , pN) ; 0 ¬ pi¬ 1 ,

N

X

i=1

pi= 1o

tworzysympleks

Sympleks PNjest zbiorem wypukłym, tzn.

∀ P, Q ∈ PN ∀ α ∈ [0, 1] αP + (1 − α)Q ∈ PN

Sympleks przy N = 3

Jacek Jurkowski, Fizyka Statystyczna Entropia

(20)

Sympleks

Zbiór wszystkich rozkładów prawdopodobie´nstw PN = n

(p1, . . . , pN) ; 0 ¬ pi¬ 1 ,

N

X

i=1

pi= 1o

tworzysympleks

Sympleks PNjest zbiorem wypukłym, tzn.

∀ P, Q ∈ PN ∀ α ∈ [0, 1] αP + (1 − α)Q ∈ PN

Sympleks przy N = 3

Jacek Jurkowski, Fizyka Statystyczna Entropia

(21)

Własno´sci entropii

3 Entropia S(P ) jest funkcja˛ wkle˛sła˛ (wypukła˛ w góre˛) na dowolnym wypukłym podzbiorze P ⊂ PN, tzn.

∀ α ∈ [0, 1] S(αP + (1 − α)Q) ­ αS(P ) + (1 − α)S(Q) . Równo´s´c zachodzi wtedy i tylko wtedy gdy P = Q.

4 Je´sli na zbiorze wypukłym P ⊂ PN entropia jest ograniczona z góry, to osia˛ga maksimum na dokładnie jednym rozkładzie prawdopodobie´nstwa

P= (p1, . . . , pN),

S(P) = sup

P ∈P

S(P ) .

Definicja

Rozkładem reprezentatywnym P zbioru P nazywamy jedyny rozkład prawdopo- dobie´nstwa maksymalizuja˛cy entropie˛.

Jacek Jurkowski, Fizyka Statystyczna Entropia

(22)

Własno´sci entropii

3 Entropia S(P ) jest funkcja˛ wkle˛sła˛ (wypukła˛ w góre˛) na dowolnym wypukłym podzbiorze P ⊂ PN, tzn.

∀ α ∈ [0, 1] S(αP + (1 − α)Q) ­ αS(P ) + (1 − α)S(Q) . Równo´s´c zachodzi wtedy i tylko wtedy gdy P = Q.

4 Je´sli na zbiorze wypukłym P ⊂ PN entropia jest ograniczona z góry, to osia˛ga maksimum na dokładnie jednym rozkładzie prawdopodobie´nstwa

P= (p1, . . . , pN),

S(P) = sup

P ∈P

S(P ) .

Definicja

Rozkładem reprezentatywnym P zbioru P nazywamy jedyny rozkład prawdopo- dobie´nstwa maksymalizuja˛cy entropie˛.

Jacek Jurkowski, Fizyka Statystyczna Entropia

(23)

Własno´sci entropii

3 Entropia S(P ) jest funkcja˛ wkle˛sła˛ (wypukła˛ w góre˛) na dowolnym wypukłym podzbiorze P ⊂ PN, tzn.

∀ α ∈ [0, 1] S(αP + (1 − α)Q) ­ αS(P ) + (1 − α)S(Q) . Równo´s´c zachodzi wtedy i tylko wtedy gdy P = Q.

4 Je´sli na zbiorze wypukłym P ⊂ PN entropia jest ograniczona z góry, to osia˛ga maksimum na dokładnie jednym rozkładzie prawdopodobie´nstwa

P= (p1, . . . , pN),

S(P) = sup

P ∈P

S(P ) .

Definicja

Rozkładem reprezentatywnym P zbioru P nazywamy jedyny rozkład prawdopo- dobie´nstwa maksymalizuja˛cy entropie˛.

Jacek Jurkowski, Fizyka Statystyczna Entropia

(24)

Własno´sci entropii

3 Entropia S(P ) jest funkcja˛ wkle˛sła˛ (wypukła˛ w góre˛) na dowolnym wypukłym podzbiorze P ⊂ PN, tzn.

∀ α ∈ [0, 1] S(αP + (1 − α)Q) ­ αS(P ) + (1 − α)S(Q) . Równo´s´c zachodzi wtedy i tylko wtedy gdy P = Q.

4 Je´sli na zbiorze wypukłym P ⊂ PN entropia jest ograniczona z góry, to osia˛ga maksimum na dokładnie jednym rozkładzie prawdopodobie´nstwa

P= (p1, . . . , pN),

S(P) = sup

P ∈P

S(P ) .

Definicja

Rozkładem reprezentatywnym P zbioru P nazywamy jedyny rozkład prawdopo- dobie´nstwa maksymalizuja˛cy entropie˛.

Jacek Jurkowski, Fizyka Statystyczna Entropia

(25)

Makrostan ze wzgle˛du na zmienna˛ losowa˛

Makrostan

Makrostanem ze wzgle˛du na dyskretna˛ zmienna˛ losowa˛ f nazywamy naste˛puja˛cy wypukły podzbiór sympleksu PN

PN ⊃ Kf = n

P = (p1, . . . , pN) ; pi­ 0 ,

N

X

i=1

pi= 1 , hf i = mo ,

Tw. o postaci rozkładu reprezentatywnego dla makrostanu

Rozkład reprezentatywny P= (p1, . . . , pN) makrostanu Kf ma posta´c: pi = Z−1(λ)e−λfi,

gdzie funkcje˛ Z(λ) =

N

X

i=1

e−λfinazywamysuma˛ statystyczna˛oraz równo´s´c

−∂ ln Z(λ)

∂λ = m

jednoznacznie okre´sla funkcje˛ λ(m).

Jacek Jurkowski, Fizyka Statystyczna Entropia

(26)

Makrostan ze wzgle˛du na zmienna˛ losowa˛

Makrostan

Makrostanem ze wzgle˛du na dyskretna˛ zmienna˛ losowa˛ f nazywamy naste˛puja˛cy wypukły podzbiór sympleksu PN

PN ⊃ Kf = n

P = (p1, . . . , pN) ; pi­ 0 ,

N

X

i=1

pi= 1 , hf i = mo ,

Tw. o postaci rozkładu reprezentatywnego dla makrostanu

Rozkład reprezentatywny P= (p1, . . . , pN) makrostanu Kf ma posta´c: pi = Z−1(λ)e−λfi,

gdzie funkcje˛ Z(λ) =

N

X

i=1

e−λfinazywamysuma˛ statystyczna˛oraz równo´s´c

−∂ ln Z(λ)

∂λ = m

jednoznacznie okre´sla funkcje˛ λ(m).

Jacek Jurkowski, Fizyka Statystyczna Entropia

(27)

Makrostan ze wzgle˛du na zmienna˛ losowa˛

Makrostan

Makrostanem ze wzgle˛du na dyskretna˛ zmienna˛ losowa˛ f nazywamy naste˛puja˛cy wypukły podzbiór sympleksu PN

PN ⊃ Kf = n

P = (p1, . . . , pN) ; pi­ 0 ,

N

X

i=1

pi= 1 , hf i = mo ,

Tw. o postaci rozkładu reprezentatywnego dla makrostanu

Rozkład reprezentatywny P= (p1, . . . , pN) makrostanu Kf ma posta´c:

pi = Z−1(λ)e−λfi,

gdzie funkcje˛ Z(λ) =

N

X

i=1

e−λfinazywamysuma˛ statystyczna˛oraz równo´s´c

−∂ ln Z(λ)

∂λ = m

jednoznacznie okre´sla funkcje˛ λ(m).

Jacek Jurkowski, Fizyka Statystyczna Entropia

(28)

Makrostan ze wzgle˛du na kilka zmiennych losowych

Przykład: Znale´z´c rozkład reprezentatywny dla makrostanu

Kf = n

P = (p1, p2, . . .); pi­ 0 ,

X

i=1

pi= 1 , hf i = m o

je´sli warto´sciami zmiennej losowej f sa˛ kolejne liczby naturalne, tzn. fi= i, i = 1, 2, . . ..

Definicja

Makrostanem ze wzgle˛du na dyskretne zmienne losowe f1, . . . , fr nazywamy naste˛puja˛cy wypukły podzbiór sympleksu PN

PN⊃ Kf1,...,fr = n

(p1, . . . , pN) ; pi­ 0 ,

N

X

i=1

pi= 1 , hfji = mj,

j = 1, . . . , ro

, fij := fji) ,

Jacek Jurkowski, Fizyka Statystyczna Entropia

(29)

Makrostan ze wzgle˛du na kilka zmiennych losowych

Przykład: Znale´z´c rozkład reprezentatywny dla makrostanu

Kf = n

P = (p1, p2, . . .); pi­ 0 ,

X

i=1

pi= 1 , hf i = m o

je´sli warto´sciami zmiennej losowej f sa˛ kolejne liczby naturalne, tzn. fi= i, i = 1, 2, . . ..

Definicja

Makrostanem ze wzgle˛du na dyskretne zmienne losowe f1, . . . , fr nazywamy naste˛puja˛cy wypukły podzbiór sympleksu PN

PN⊃ Kf1,...,fr = n

(p1, . . . , pN) ; pi­ 0 ,

N

X

i=1

pi= 1 , hfji = mj,

j = 1, . . . , ro

, fij := fji) ,

Jacek Jurkowski, Fizyka Statystyczna Entropia

(30)

Twierdzenie o rozkładzie reprezentatywnym

Twierdzenie

Rozkład reprezentatywny P= (p1, . . . , pN) makrostanu Kf1,...,fr ma posta´c:

pi = Z−11, . . . , λr) exp h

r

X

j=1

λjfij i

,

gdzie funkcje˛ Z(λ1, . . . , λr) =

N

X

i=1

exph

r

X

j=1

λjfiji

nazywamy suma˛ statystyczna˛

oraz

−∂ ln Z(λ1, . . . , λr)

∂λj

= mj, j = 1, . . . , r .

Jacek Jurkowski, Fizyka Statystyczna Entropia

(31)

Twierdzenie o rozkładzie reprezentatywnym

Twierdzenie

Rozkład reprezentatywny P= (p1, . . . , pN) makrostanu Kf1,...,fr ma posta´c:

pi = Z−11, . . . , λr) exp h

r

X

j=1

λjfij i

,

gdzie funkcje˛ Z(λ1, . . . , λr) =

N

X

i=1

exph

r

X

j=1

λjfiji

nazywamy suma˛

statystyczna˛

oraz

−∂ ln Z(λ1, . . . , λr)

∂λj

= mj, j = 1, . . . , r .

Jacek Jurkowski, Fizyka Statystyczna Entropia

(32)

Znaczenie entropii

Informacja — zaj´scie zdarzenia ωkdostarcza informacji Ik(P ) = log2 1

p(ωk) = − log2pk

Zdarzenia mniej prawdopodobne dostarczaja˛ wie˛cej informacji!

Entropia okre´sla ´srednia˛ informacje˛ jaka mo˙ze by´c uzyskana w wyniku jakiego´s do´swiadczenia losowego

S(P ) = hI(P )i = −X

k

pklog2pk

Je´sli P jest rozkładem zmiennej losowej f , to S(P ) okre´sla (´srednia˛) ilo´s´c informacji zawarta˛ w f .

Jacek Jurkowski, Fizyka Statystyczna Entropia

(33)

Znaczenie entropii

Informacja — zaj´scie zdarzenia ωkdostarcza informacji Ik(P ) = log2 1

p(ωk) = − log2pk

Zdarzenia mniej prawdopodobne dostarczaja˛ wie˛cej informacji!

Entropia okre´sla ´srednia˛ informacje˛ jaka mo˙ze by´c uzyskana w wyniku jakiego´s do´swiadczenia losowego

S(P ) = hI(P )i = −X

k

pklog2pk

Je´sli P jest rozkładem zmiennej losowej f , to S(P ) okre´sla (´srednia˛) ilo´s´c informacji zawarta˛ w f .

Jacek Jurkowski, Fizyka Statystyczna Entropia

(34)

Znaczenie entropii

Informacja — zaj´scie zdarzenia ωkdostarcza informacji Ik(P ) = log2 1

p(ωk) = − log2pk

Zdarzenia mniej prawdopodobne dostarczaja˛ wie˛cej informacji!

Entropia okre´sla ´srednia˛ informacje˛ jaka mo˙ze by´c uzyskana w wyniku jakiego´s do´swiadczenia losowego

S(P ) = hI(P )i = −X

k

pklog2pk

Je´sli P jest rozkładem zmiennej losowej f , to S(P ) okre´sla (´srednia˛) ilo´s´c informacji zawarta˛ w f .

Jacek Jurkowski, Fizyka Statystyczna Entropia

(35)

Znaczenie entropii

Informacja — zaj´scie zdarzenia ωkdostarcza informacji Ik(P ) = log2 1

p(ωk) = − log2pk

Zdarzenia mniej prawdopodobne dostarczaja˛ wie˛cej informacji!

Entropia okre´sla ´srednia˛ informacje˛ jaka mo˙ze by´c uzyskana w wyniku jakiego´s do´swiadczenia losowego

S(P ) = hI(P )i = −X

k

pklog2pk

Je´sli P jest rozkładem zmiennej losowej f , to S(P ) okre´sla (´srednia˛) ilo´s´c informacji zawarta˛ w f .

Jacek Jurkowski, Fizyka Statystyczna Entropia

(36)

Znaczenie entropii

Informacja — zaj´scie zdarzenia ωkdostarcza informacji Ik(P ) = log2 1

p(ωk) = − log2pk

Zdarzenia mniej prawdopodobne dostarczaja˛ wie˛cej informacji!

Entropia okre´sla ´srednia˛ informacje˛ jaka mo˙ze by´c uzyskana w wyniku jakiego´s do´swiadczenia losowego

S(P ) = hI(P )i = −X

k

pklog2pk

Je´sli P jest rozkładem zmiennej losowej f , to S(P ) okre´sla (´srednia˛) ilo´s´c informacji zawarta˛ w f .

Jacek Jurkowski, Fizyka Statystyczna Entropia

(37)

Inne rodzaje entropii

Miara podobie´nstwa dwóch rozkładów P i Q (Q absolutnie cia˛gły wzgle˛dem P ) — entropia wzajemna

S(P ||Q) =X

k

pklog2pk

qk

= −S(P ) −X

k

pklog2qk

Entropia wzajemna jest nieujemna, przy czym warto´s´c 0 przyjmuje tylko dla identycznych rozkładów P = Q

S(P ||Q) ­ 0

Entropia rozkładu ła˛cznego uk`= (P × Q)(ωk, η`) S(P × Q) = −X

k,`

uk`log2uk`

Entropia warunkowa — ilo´s´c informacji o P × Q jaka mo˙ze by´c uzyskana na podstawie znajomo´sci rozkładu Q

S(P |Q) = S(P × Q) − S(Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(38)

Inne rodzaje entropii

Miara podobie´nstwa dwóch rozkładów P i Q (Q absolutnie cia˛gły wzgle˛dem P ) — entropia wzajemna

S(P ||Q) =X

k

pklog2pk

qk

= −S(P ) −X

k

pklog2qk

Entropia wzajemna jest nieujemna, przy czym warto´s´c 0 przyjmuje tylko dla identycznych rozkładów P = Q

S(P ||Q) ­ 0

Entropia rozkładu ła˛cznego uk`= (P × Q)(ωk, η`) S(P × Q) = −X

k,`

uk`log2uk`

Entropia warunkowa — ilo´s´c informacji o P × Q jaka mo˙ze by´c uzyskana na podstawie znajomo´sci rozkładu Q

S(P |Q) = S(P × Q) − S(Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(39)

Inne rodzaje entropii

Miara podobie´nstwa dwóch rozkładów P i Q (Q absolutnie cia˛gły wzgle˛dem P ) — entropia wzajemna

S(P ||Q) =X

k

pklog2pk

qk

= −S(P ) −X

k

pklog2qk

Entropia wzajemna jest nieujemna, przy czym warto´s´c 0 przyjmuje tylko dla identycznych rozkładów P = Q

S(P ||Q) ­ 0

Entropia rozkładu ła˛cznego uk`= (P × Q)(ωk, η`) S(P × Q) = −X

k,`

uk`log2uk`

Entropia warunkowa — ilo´s´c informacji o P × Q jaka mo˙ze by´c uzyskana na podstawie znajomo´sci rozkładu Q

S(P |Q) = S(P × Q) − S(Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(40)

Inne rodzaje entropii

Miara podobie´nstwa dwóch rozkładów P i Q (Q absolutnie cia˛gły wzgle˛dem P ) — entropia wzajemna

S(P ||Q) =X

k

pklog2pk

qk

= −S(P ) −X

k

pklog2qk

Entropia wzajemna jest nieujemna, przy czym warto´s´c 0 przyjmuje tylko dla identycznych rozkładów P = Q

S(P ||Q) ­ 0

Entropia rozkładu ła˛cznego uk`= (P × Q)(ωk, η`) S(P × Q) = −X

k,`

uk`log2uk`

Entropia warunkowa — ilo´s´c informacji o P × Q jaka mo˙ze by´c uzyskana na podstawie znajomo´sci rozkładu Q

S(P |Q) = S(P × Q) − S(Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(41)

Inne rodzaje entropii

Miara podobie´nstwa dwóch rozkładów P i Q (Q absolutnie cia˛gły wzgle˛dem P ) — entropia wzajemna

S(P ||Q) =X

k

pklog2pk

qk

= −S(P ) −X

k

pklog2qk

Entropia wzajemna jest nieujemna, przy czym warto´s´c 0 przyjmuje tylko dla identycznych rozkładów P = Q

S(P ||Q) ­ 0

Entropia rozkładu ła˛cznego uk`= (P × Q)(ωk, η`) S(P × Q) = −X

k,`

uk`log2uk`

Entropia warunkowa — ilo´s´c informacji o P × Q jaka mo˙ze by´c uzyskana na podstawie znajomo´sci rozkładu Q

S(P |Q) = S(P × Q) − S(Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(42)

Entropia wzajemna

Wspólna informacja zawarta w P i Q

S(P : Q) = S(P ) + S(Q) − S(P × Q)

Własno´sci

S(P : Q) = S(P ) − S(P |Q)

S(P : Q) = S(P × Q||P Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(43)

Entropia wzajemna

Wspólna informacja zawarta w P i Q

S(P : Q) = S(P ) + S(Q) − S(P × Q)

Własno´sci

S(P : Q) = S(P ) − S(P |Q)

S(P : Q) = S(P × Q||P Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(44)

Entropia wzajemna

Wspólna informacja zawarta w P i Q

S(P : Q) = S(P ) + S(Q) − S(P × Q)

Własno´sci

S(P : Q) = S(P ) − S(P |Q)

S(P : Q) = S(P × Q||P Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(45)

Entropia wzajemna

Wspólna informacja zawarta w P i Q

S(P : Q) = S(P ) + S(Q) − S(P × Q)

Własno´sci

S(P : Q) = S(P ) − S(P |Q)

S(P : Q) = S(P × Q||P Q)

Jacek Jurkowski, Fizyka Statystyczna Entropia

(46)

Entropia w przypadku cia˛głej zmiennej losowej

Cia˛głej zmiennej losowej f okre´slonej na podzbiorach Ω ⊂ Rn odpowiada ge˛sto´s´c rozkładu ρ(x1, . . . , xn) ≡ ρ(x)

Entropia

Entropie˛ definiujemy w tym przypadku jako S(ρ) = −k

Z

ρ(x) ln ρ(x)dx ,

Makrostan

Makrostanem ze wzgle˛du na cia˛głe zmienne losowe f1, . . . , fr nazywamy naste˛puja˛cy zbiór:

Kf1,...,fr = n

ρ : Ω → R+; Z

ρ(x)dx = 1 , E(fj) = mj, j = 1, . . . , r o

,

Jacek Jurkowski, Fizyka Statystyczna Entropia

(47)

Entropia w przypadku cia˛głej zmiennej losowej

Cia˛głej zmiennej losowej f okre´slonej na podzbiorach Ω ⊂ Rn odpowiada ge˛sto´s´c rozkładu ρ(x1, . . . , xn) ≡ ρ(x)

Entropia

Entropie˛ definiujemy w tym przypadku jako S(ρ) = −k

Z

ρ(x) ln ρ(x)dx ,

Makrostan

Makrostanem ze wzgle˛du na cia˛głe zmienne losowe f1, . . . , fr nazywamy naste˛puja˛cy zbiór:

Kf1,...,fr = n

ρ : Ω → R+; Z

ρ(x)dx = 1 , E(fj) = mj, j = 1, . . . , r o

,

Jacek Jurkowski, Fizyka Statystyczna Entropia

(48)

Entropia w przypadku cia˛głej zmiennej losowej

Cia˛głej zmiennej losowej f okre´slonej na podzbiorach Ω ⊂ Rn odpowiada ge˛sto´s´c rozkładu ρ(x1, . . . , xn) ≡ ρ(x)

Entropia

Entropie˛ definiujemy w tym przypadku jako S(ρ) = −k

Z

ρ(x) ln ρ(x)dx ,

Makrostan

Makrostanem ze wzgle˛du na cia˛głe zmienne losowe f1, . . . , fr nazywamy naste˛puja˛cy zbiór:

Kf1,...,fr = n

ρ : Ω → R+; Z

ρ(x)dx = 1 , E(fj) = mj, j = 1, . . . , r o

,

Jacek Jurkowski, Fizyka Statystyczna Entropia

(49)

Entropia w przypadku cia˛głej zmiennej losowej

Cia˛głej zmiennej losowej f okre´slonej na podzbiorach Ω ⊂ Rn odpowiada ge˛sto´s´c rozkładu ρ(x1, . . . , xn) ≡ ρ(x)

Entropia

Entropie˛ definiujemy w tym przypadku jako S(ρ) = −k

Z

ρ(x) ln ρ(x)dx ,

Makrostan

Makrostanem ze wzgle˛du na cia˛głe zmienne losowe f1, . . . , fr nazywamy naste˛puja˛cy zbiór:

Kf1,...,fr = n

ρ : Ω → R+; Z

ρ(x)dx = 1 , E(fj) = mj, j = 1, . . . , r o

,

Jacek Jurkowski, Fizyka Statystyczna Entropia

(50)

Twierdzenie o rozkładzie reprezentatywnym

Twierdzenie

Ge˛sto´s´c rozkładu reprezentatywnego ρ(x) makrostanu Kf1,...,fr ma posta´c:

ρ(x) = Z−11, . . . , λr) exp h

r

X

j=1

λjfj(x) i

,

gdzie suma statystyczna ma posta´c Z(λ1, . . . , λr) =

Z

exp h

r

X

j=1

λjfj(x) i

dx

oraz

−∂ ln Z(λ1, . . . , λr)

∂λj

= mj, j = 1, . . . , r .

gdzie mj = Z

fj(x)ρ(x)dx.

Jacek Jurkowski, Fizyka Statystyczna Entropia

(51)

Twierdzenie o rozkładzie reprezentatywnym

Twierdzenie

Ge˛sto´s´c rozkładu reprezentatywnego ρ(x) makrostanu Kf1,...,fr ma posta´c:

ρ(x) = Z−11, . . . , λr) exp h

r

X

j=1

λjfj(x) i

,

gdzie suma statystyczna ma posta´c Z(λ1, . . . , λr) =

Z

exp h

r

X

j=1

λjfj(x) i

dx

oraz

−∂ ln Z(λ1, . . . , λr)

∂λj

= mj, j = 1, . . . , r .

gdzie mj = Z

fj(x)ρ(x)dx.

Jacek Jurkowski, Fizyka Statystyczna Entropia

Cytaty

Powiązane dokumenty

Okazuje się że właśnie entropia może być przydatnym narzędziem do przewidywania momentu wystąpienia napadu migotania przedsionków jeszcze w trakcie normalnego, to znaczy zatoko-

Z definicji wartości regularnych dobrze widać, że deg f = 2 (tu jest drobne oszustwo, bo stopień definiowaliśmy dla przekształceń gładkich, ale można pokazać, że jest

Jacek Jurkowski, Fizyka Statystyczna.

Wielki rozkład kanoniczny, granica termodynamiczna i przej´scia fazowe. Jacek Jurkowski,

Dwie poziome linie na rysunku 21.9 to dwie przemiany izotermiczne występujące w cy- klu Carnota (temperatura jest stała).. Podobnie w wyniku izotermicznego sprężania cd,

Pojęcie entropii pozwoli nam zrozumieć jakim ograniczeniom podlegają takie przemiany.. Pochylimy się także nad pojęciem strzałki czasu (dlaczego przeszłość różni

Inny glos: „No tak, jeśli się myśli tak jak pani, to nic dziwnego, że kiedy mówię znajomym, że moja córka jest w szko­?. le społecznej, to pytają z lekceważeniem, czy tam

liwość obliczenia poszukiwanych prawdopodobieństw posiadania określonego stażu pracy w stanie ustalonym. Obliczenia zostały wykonane na m.c.. rozkład stażu pracy stawał się