Testowanie jakości dopasowania.
Test
χ
2 jakości dopasowaniaMetoda najmniejszych kwadratów opiera się na założeniu, że najlepszą funkcją opisującą zależność między wielkościami jest taka, która
minimalizuje ważoną sumę kwadratów odchyleń wartości
y
i od dopasowywanej funkcjiy
(
x
i)
. Tę sumę można scharakteryzować wielkością wariancji dopasowanias
2, która jest estymatorem wariancji danychσ
2. Dla funkcjiy
(
x
i)
, liniowo zależnej odm
parametrów i dopasowanej don
punktów, mamy:( )
[
]
{
}
( )
∑
( )
∑
[
]
∑
= = ==
−
−
−
=
n i i i i n i i n i i i ix
y
y
w
n
x
y
y
m
n
s
1 2 1 2 1 2 2 21
(
)
1
1
)
(
1
1
ν
σ
σ
gdzie czynnik
ν
=
n
−
m
jest liczbą stopni swobody dopasowania funkcji om
parametrach don
punktów, a czynniki wagowe dla każdego punktu wynoszą( )
∑
==
n i i i in
w
1 2 21
1
1
σ
σ
i są równe odwrotnościom wariancji
1
σ
i2 opisującym niepewności pomiarowe dla tego punktu unormowanych do średniej z wszystkich czynników wagowych(
∑
w
i=
n
)
.Wariancja dopasowania jest również scharakteryzowana przez samą wartość
χ
2:[
]
∑
=
−
≡
n i i i ix
y
y
1 2 2 21
(
)
σ
χ
gdzie)
(
)
(
1∑
==
m j i j j ia
f
x
x
y
Związek między
s
2 aχ
2 najwyraźniej widać, jeżeli porównaćs
2 ze zredukowanaχ
ν2:2 2 2 2 ν i
s
σ
ν
χ
χ
=
=
albo 2 2 2 is
σ
ν
χ
=
gdzie
σ
i2 jest ważoną średnią indywidualnych wariancji:1 2 2 2 2 2
1
1
1
1
1
1
−
=
=
∑
∑
∑
i i i i in
n
n
σ
σ
σ
σ
σ
i jest równe
σ
2 w przypadku gdy wszystkie niepewności są jednakoweσ
σ
i=
.Wariancja
σ
2 charakteryzuje rozkład jakiemu podlegają wartości wielkości mierzonej – jest miarą rozrzutu wartości mierzonych – i nie może być miarą jakości dopasowania. Z drugiej strony estymator wariancji dopasowanias
2 względem dopasowanej funkcji jest miarą rozrzutu zarówno samych danych jak i jakości dopasowania. Zatem określenieχ
2 jako stosunku wariancji dopasowanias
2 do wariancji samych danychσ
2 pomnożonego przez liczbę stopni swobody robi z niej wygodną miarę jakości dopasowania.Jeżeli dopasowana funkcja jest dobrym przybliżeniem rzeczywistej zależności, to wartość
s
2 powinna zgadzać się z wartościąσ
2, awartość zredukowana
χ
ν2 powinna być około jedności, 21
ν
≈
χ
. Jeżeli dopasowana funkcja nie jest właściwa dla danych punktów, to różnice)
(
ii
y
x
y
−
będą większe i większa będzie wariancja dopasowania dając wartośćχ
ν2 większa od jedności. Wartośćχ
ν2 mniejsza od 1 nieoznacza koniecznie lepszego dopasowania – jest prostym
odzwierciedleniem faktu, że wartości
s
2 iχ
ν2 są też zmiennymi losowymi i fluktuują od jednej serii pomiarowej do drugiej. Bardzo mała wartość2 ν
χ
może oznaczać pomyłkę przy ustalaniu niepewności wartości wielkości mierzonej.W tablicach statystycznych można znaleźć wartości dystrybuanty rozkładu
χ
2 i obliczyć prawdopodobieństwo:2 2 2
;
)
(
;
)
(
2dx
x
p
P
∫
∞=
χ χ χχ
ν
ν
,że przypadkowy zestaw danych wylosowanych z rozkładu wyjściowego da wartość
χ
2 równą lub większą od danej.W przypadku właściwego doboru funkcji i dobrego dopasowania doświadczalna wartość
χ
ν2 powinna być bliska oczekiwaneji prawdopodobieństwo
(
χ
2;
ν
)
χ
P
powinno wynosić około 0,5. Gorsze dopasowanie da powiększoną wartośćχ
ν2, a odpowiednieprawdopodobieństwo będzie mniejsze.
Trzeba pamiętać o pewnej dwuznaczności
χ
ν2, która jest zależna zarówno od danych pomiarowych i od wybranej funkcji, a zatem nawet właściwie dobrana funkcja może dać czasami dużą wartośćχ
ν2.Współczynnik korelacji liniowej
Dane pomiarowe składają się z par zmierzonych wartości wielkości fizycznych
{
x ,
iy
i}
. Zanim dopasujemy do nich funkcje liniową (lub jakąkolwiek inną), powinniśmy zapytać, czy między mierzonymi wielkościami w ogóle występuje jakaś zależność fizyczna.Jeżeli założymy, że wielkość
Y
jest wielkością zależną, to chcielibyśmy wiedzieć, czy dane dają się przedstawić przy pomocy funkcji liniowejb
x
a
y
=
+
Poprzednio otrzymaliśmy analityczne rozwiązanie dla najlepszej (w sensie metody minimalizacji
χ
2) parametrua
, który jestwspółczynnikiem kierunkowym dopasowanej funkcji
( )
2 2∑
∑
∑
∑
∑
−
−
=
i i i i i ix
x
n
y
x
y
x
n
a
(czynniki wagowe zostały opuszczone dla lepszej przejrzystości wzoru). Jeżeli wielkości
X
iY
są niezależne od siebie, to również niezależne i nieskorelowane są wyniki pomiarów. Nie powinniśmy obserwować żadnej tendencji wzrostu (lub zmniejszania się) wartościy
wraz ze wzrostemx
, a współczynnik kierunkowya
wyniesie 0.Ponieważ interesuje nas wzajemna relacja między wielkościami
X
iY
, to równie dobrze możemy zapytać o zależność'
'
y
b
a
x
=
+
.W tym wypadku parametry
a
'
ib
'
będą miały inne wartości (i wymiary), ale jeżeli dane są skorelowane, to powinien między nimi zachodzić jakiś związek. Dla parametrua
'
można otrzymać rozwiązanie w postaci(
)
2 2'
∑
∑
∑
∑
∑
−
−
=
i i i i i iy
y
n
y
x
y
x
n
a
i jeśli dane nie są skorelowane, to znowu współczynnik kierunkowy odwróconej zależności powinien wynosić
a
'
=
0
.Jeżeli dane są zależne w sposób całkowicie jednoznaczny (całkowicie skorelowane), to powinien zachodzić związek
b
x
a
a
b
x
a
y
=
−
=
+
'
'
'
1
oraz równość współczynników
a
a
'
=
1
b
a
b
=
−
'
'
.W przypadku całkowitej korelacji
a
a
'
=
1
. Jeżeli nie ma żadnej korelacji, to oba współczynniki są zerami i związek powyżej w ogóle nie zachodzi. Jeżeli zdefiniujemy, jako miarę korelacji liniowej, wielkośćr
'
2a
a
r
≡
albo( )
2 2(
)
2 2∑
∑
∑
∑
−
∑
∑
∑
−
−
≡
i i i i i i i iy
y
n
x
x
n
y
x
y
x
n
r
.Współczynnik korelacji
r
przyjmuje wartości od 0, w przypadku braku korelacji, do ±1 przy całkowitej korelacji. Znak nie jest istotny dla istnienia korelacji, ważna jest natomiast wartość bezwzględna współczynnika.Najczęściej istnienie korelacji testujemy porównując otrzymaną wartość
r
z rozkładem prawdopodobieństwa dla populacji, która jest całkowicie nieskorelowana. Porównanie daje nam informację, czy jestprawdopodobne, że analizowane dane mogły zostać wylosowane z populacji nieskorelowanej. Jeżeli prawdopodobieństwo przypadkowego otrzymania wartości równej lub większej od
r
(lub równej lub mniejszej od−
r
) jest niewielkie, to mamy prawo sądzić, że nasze dane sąskorelowane.
Współczynnik korelacji liniowej (w przypadku braku korelacji między zmiennymi) ma następujący symetryczny rozkład prawdopodobieństwa:
(
)
[
]
( )
2
(
1
2)
( 2) 22
1
1
)
;
(
−
−Γ
+
Γ
=
νν
ν
π
ν
x
x
p
rTablice statystyczne podają wartości prawdopodobieństwa dla
n
nieskorelowanych par wartości
(
) (
)
[
>
∪
<
−
]
=
∫
−
=
2
1(
;
2
)
)
;
(
r r cr
n
P
x
r
x
r
p
x
n
dx
P
Przykład
1.
Dla danych liczbowych z przykładu pomiarów spadku napięcia wzdłuż drutu oporowego otrzymujemy
( )
2 2(
)
2 2∑
∑
∑
∑
−
∑
∑
∑
−
−
=
i i i i i i i iy
y
n
x
x
n
y
x
y
x
n
r
(
)
2(
)
244
,
12
32
,
21
9
0
,
450
28500
9
44
,
12
0
,
450
3
,
779
9
−
×
−
×
×
−
×
=
=
0
,
9994
W tablicach znajdujemy dla
n
=
9
wartośćP
c(0,898; 9) = 0,001
.Oznacza to, że.
P
c(0,9994; 9) < 0,001
2.
Dla danych liczbowych z pomiarów liczby impulsów licznika G-M w funkcji odległości preparatu otrzymujemy:
(
)
2 2(
)
2 2∑
∑
∑
∑
∑
∑
∑
−
∑
×
∑
∑
−
−
=
i i i i i i i i i i i i i i i i i iy
w
y
w
w
x
w
x
w
w
y
w
x
w
y
x
w
w
r
( )
(
2)
(
( )
2)
y yy w x xx w y x xy wS
S
S
S
S
S
S
S
S
S
−
×
−
−
=
(
)
(
2)
(
( )
2)
0
,
10
0
,
3693
03570
,
0
1868
,
0
912
,
1
03570
,
0
0
,
10
1868
,
0
02
,
81
03570
,
0
−
×
×
−
×
×
−
×
=
=
0
,
9938
Dla
n
=
10
w tablicach znajdujemy001
,
0
)
10
;
872
,
0
(
)
10
;
9938
,
0
(
<
c=
cP
P
.W obu przykładach odpowiednie prawdopodobieństwa są na tyle małe, że z dużą pewnością możemy uznać istnienie korelacji między
Współczynniki korelacji liniowej między wieloma zmiennymi
Jeżeli zmienna zależna jest liniową funkcją więcej niż jednej zmiennej niezależnej,
!
+
+
+
+
=
0 1 i1 2 i2 3 i3 ia
a
x
a
x
a
x
y
to możemy sprawdzać korelacje między
{ }
y
i a każdą ze zmiennych niezależnych{ }
x
ij (pierwszy indeks oznacza numer pomiaru, a drugi zmiennej niezależnej). Nie ma znaczenia, czyx
ij są oddzielnymi zmiennymi, potęgamix
i, czy dowolnymi funkcjamif
j( )
x
i .Wprowadzimy pojęcie kowariancji z próby
s
jk:(
)
(
)
[
]
∑
=−
−
−
≡
n i k ik j ij jkx
x
x
x
n
s
11
1
gdzie odpowiednie średnie wynoszą oczywiście:∑
==
n i ij jx
n
x
11
∑
==
n i ik kx
n
x
11
(wagi są pominięte, żeby nie komplikować formy wzorów).
Przy takim podejściu estymatorem wariancji z próby
j
-tej zmiennej jest(
)
∑
=−
−
=
≡
n i j ij jj jx
x
n
s
s
1 2 21
1
Trzeba zwrócić uwagę, że wariancje z prób są miarą szerokości przedziałów zmienności odpowiednich zmiennych i nie maja nic wspólnego z niepewnościami, z jakimi mierzymy ich wartości.
Zauważmy, że
(
)
(
)
[
]
∑
=−
−
−
≡
n i k ik j ij jkx
x
x
x
n
s
11
1
(
)
∑
=+
−
−
−
=
n i k j k ij ik j ik ijx
x
x
x
x
x
x
x
n
1
11
(
)
∑
=+
−
−
−
=
n i k j k ij ik j ik ijx
x
x
x
x
x
x
x
n
1
11
−
−
+
−
=
∑
∑
∑
∑
= = = = n i k j n i k ij n i ik j n i ik ijx
x
x
x
x
x
x
x
n
1
1 1 1 11
−
−
+
−
=
∑
∑
∑
∑
= = = = n i k j n i ij k n i ik j n i ik ijx
x
x
x
x
x
x
x
n
1 1 1 11
1
1
−
−
+
−
=
∑
=n
x
x
x
n
x
x
n
x
x
x
n
j k k j j k n i ik ij1
1
1
−
−
=
−
−
=
∑
∑
∑ ∑
= = = = n i n i ik ij n i ik ij k j n i ik ijx
x
n
x
x
n
x
x
n
x
x
n
1 1 1 11
1
1
1
1
Porównując to z wzorem definiującym współczynnik korelacji
( )
(
2 2)
(
2(
)
2)
∑
∑
∑
∑
−
∑
∑
∑
−
−
=
i i i i i i i iy
y
n
x
x
n
y
x
y
x
n
r
,który po podzieleniu licznika i mianownika przez
n
przyjmuje postać( )
(
2 1 2)
(
2 1(
)
2)
1∑
∑
∑
∑
−
∑
∑
∑
−
−
=
i n i i n i i i n i iy
y
x
x
y
x
y
x
r
możemy przez analogię zapisać
k j jk jk
s
s
s
r
⋅
=
. jkr
jest współczynnikiem korelacji liniowej z próby między dwoma dowolnymi zmiennymix
j ix
k. Podobnie współczynnikiem korelacji międzyj
-tą zmiennąx
j a zmienną zależnąy
jesty j jy jy
s
s
s
r
⋅
=
.W szczególnym przypadku dopasowania wielomianu
∑
==
m k k kx
a
x
y
0)
(
,kolejne zmienne
x
j są potęgami zmiennej niezależnejx
ji ij
x
x
=
i współczynnik korelacji między zmienną zależną i
j
-tym składnikiem wielomianu wynosi y j jy jys
s
s
r
⋅
=
gdzie
−
−
=
∑
∑
= = 2 1 1 2 21
1
1
n i j i n i j i jx
n
x
n
s
−
−
=
∑
∑
= = 2 1 1 2 21
1
1
n i i n i i yy
n
y
n
s
−
−
=
∑
∑ ∑
= = = n i n i i j i n i i j i jyx
y
n
y
x
n
s
1 1 11
1
1
Jeżeli niepewności punktów pomiarowych nie są wszystkie jednakowe, to musimy uwzględnić odpowiednie wagi statystyczne w definicjach wariancji, kowariancji i współczynnika korelacji z próby. Wzory na wartości współczynników korelacji w formie
k j jk jk
s
s
s
r
⋅
=
pozostają niezmienione. Wzory na wariancje i kowariancje z próby muszą 9natomiast być zmodyfikowane:
(
)
(
)
∑
∑
= =
−
−
−
≡
n i i n i k ik j ij i jkn
x
x
x
x
n
s
1 2 1 21
1
1
1
1
σ
σ
(
)
∑
∑
= =
−
−
≡
n i i n i j ij i jj jn
x
x
n
s
s
1 2 1 2 2 21
1
1
1
1
σ
σ
.Średnie
x
j ix
k są też ważone∑
∑
∑
= = ==
=
n i i n i i ij n i i ij jx
w
x
n
x
1 2 1 2 11
1
σ
σ
unormowanymi czynnikami wagowymi równymi