REGRESJA LINIOWA
Jeżeli zmierzono obarczone tylko błędami przypadkowymi wartości ( x
i, y
i), i = 1, 2, ..., n dwóch różnych wielkości fizycznych X i Y, o których wiadomo, że są związane ze sobą zależnością liniową y = f(x), to najlepszym przybliżeniem współczynników A i B w równaniu y = Ax + B jest
A n x yi i x y
i n
i i n
i i n
= ⎛
⎝⎜ ⎞
⎠⎟ −⎛
⎝⎜ ⎞
⎠⎟⎛
⎝⎜ ⎞
⎠⎟
⎡
⎣⎢ ⎤
⎦⎥ ⋅
= = =
∑ ∑ ∑
1 1 1
1
Γ,
B xi y x x y
i n
i i n
i i n
i i
i n
= ⎛
⎝⎜ ⎞
⎠⎟⎛
⎝⎜ ⎞
⎠⎟ −⎛
⎝⎜ ⎞
⎠⎟⎛
⎝⎜ ⎞
⎠⎟
⎡
⎣⎢ ⎤
⎦⎥ ⋅
= = = =
∑
2∑ ∑ ∑
1 1 1 1
1 Γ,
gdzie
Γ = ⎛
⎝⎜ ⎞
⎠⎟ −⎛
⎝⎜ ⎞
⎠⎟
= =
∑ ∑
n xi x
i n
i i
n 2
1 1
2
Wielkości charakteryzujące zależność liniową zostały obliczone w oparciu o punkty doświadczalne, a te obarczone są niepewnościami związanymi z wykonywanymi pomiarami. Dlatego współczynniki A i B też są wyznaczane z pewną dokładnością. Niepewności wielkości A i B obliczamy następująco:
δ
Aσ
n= y
Γ,
δ B σ
y ix
in
= ∑= 2
1
Γ ,
gdzie
( )
σ
ε
y
i i
i n
i i
y Ax B
n n
=
− −
− =
−
∑
= 2∑
1
2
2 2
UWAGA:
1. Aby narysować „prostą regresji liniowej” na papierze milimetrowym wybieramy dowolne ( względnie odległe od siebie) współrzędne x
pi x
k( nie współrzędne punktów pomiarowych ! ), obliczymy odpowiadające im współrzędne y
pi y
kwedług równania y = Ax + B ( A i B już są znane ), nanosimy punkty o współrzędnych (x
p, y
p) oraz ( x
k, y
k) i przez te punkty przeprowadzamy prostą. Punkty odpowiadające wynikom naszych pomiarów wraz z ich niepewnościami powinny rozkładać się równomiernie w pobliżu tej prostej i może się okazać, że żaden z naszych punktów pomiarowych nie
leży na niej !Znaczne odstępstwa ( ponad 30 % ) punktów pomiarowych od linii teoretycznej pozwalają
przypuszczać, że mierzone wielkości nie są liniowo zależne. Wtedy też współczynnik korelacji
znacznie różni się od jedności. Jeśli te odstępstwa dotyczą małej ilości punktów pomiarowych
usytuowanych w różnych częściach wykresu to przyjmujemy, że punkty te obarczone są tzw. błędem
grubym. Takie punkty odrzucamy, a dla pozostałych ponownie obliczmy wszystkie parametry prostej
najlepszego dopasowania tzn. A, δ A, B, δ B oraz współczynnik korelacji R.
2. Wszystkie kalkulatory typu „ SCIENTIFIC”, które wykonują obliczenia statystyczne jednej zmiennej, automatycznie obliczają sumy typu ∑ ∑
i i
2 i
i
, x
x , gdzie i = 1,2,3,...n . Kalkulatory pozwalające wykonywać obliczenia statystyczne na dwóch zmiennych, obliczają także sumy typu
y
iy
ix y
i
i i i
i
, ∑ 2,
∑ ∑ . Możliwe więc jest wyznaczenie wszystkich parametrów prostej najlepszego dopasowania metodą regresji liniowej zwanej również metodą najmniejszych kwadratów. Przed obliczeniami sprawdzić w instrukcji dołączonej do kalkulatora, czy regresja jest liczona dla równania y = Ax + B czy dla y = A + Bx. Aby wyznaczyć niepewności współczynników A i B przy pomocy kalkulatora wygodniej jest zastosować następujące przybliżenie
ε
i ii
i i
i i i
i
y A x y B y
2
≅ ∑ 2 − −
∑ ∑ ∑
zamiast
ε
i ii
i 2
= ∑ y − Ax
i− B
2∑ ( )
Procedura ta może wpłynąć na zmianę wartości σ
y, która zależna jest od ε
ii
∑
2. W konsekwencji może to spowodować zmianę wartości δA i δB choć wyrażenia pozostają takie same
δ
ε
A n
i
n
=
i−
∑
22 Γ δ
ε
B n
i
x
i i
=
i−
∑
2∑
22 Γ
W rozważanym przykładzie y
1= f(x) z wzorów „wygodnych” mamyε
ii
∑
2≅ 469,8796 – 344,0643 – 124,6749 = 1,140437 ε
ii
n
2
2
1140437
3 0 6165595
∑
− = , =
,
δA = 0,1992366 δB = 0,6618653 Na podstawie wzorów „dokładnych” otrzymano
( )
, ,
y Ax B
n
i i
i
− −
− = =
∑
22
11404299
3 0 6165576
δA = 0,1992360 δB = 0,6618633
Widać, że zgodność otrzymanych wielkości liczbowych jest bardzo dobra. Celowo zaniechano zaokrągleń.
Równanie prostej najlepszego dopasowania będzie y
1 = ( 2,1541 ± 0,1993)x + ( 2,707 ± 0,662 )Ten sposób obliczania niepewności δA i δB jest o wiele prostszy i szybszy lecz mniej dokładny. Może
na przykład zawyżać wartości poszukiwanych wielkości δA i δB niezależnie od zaokrągleń różnych wielkości
ε
i ii
i i
i i i
i
y A x y B y
2
≅ ∑ 2 − −
∑ ∑ ∑ może prowadzić do bezsensownych wartości liczbowych wielkości εi
i
∑
2( np. wartości ujemne !!! ) nawet przy dużej dokładności pomiarów i obliczeń. W przypadku, gdy przy obliczaniu wyrażenia przybliżonego ε
ii
∑
2występuje różnica dwóch dużych, prawie jednakowych liczb, należy koniecznie posłużyć się zależnością definicyjną ε
i ii
i 2
= ∑ y − Ax
i− B
2∑ ( ) .
WSPÓŁCZYNNIK KORELACJI
Współczynnik korelacji R jest miarą liczbową korelacji (związku, współzależności) zmiennych x
ii y
i(i = 1, 2, 3,...n) tworzących serie pomiarów wielkości X i Y. Z jednej strony służy do upewnienia się, czy mamy wystarczającą ilość n pomiarów wielkości x
ii y
iby twierdzić, że zachodzi między nimi korelacja czyli zależność np. liniowa, wykładnicza, logarytmiczna. Z drugiej strony R jest miarą prawdopodobieństwa istnienia przyjętej (postulowanej) współzależności zmiennych x
ii y
i. Jeżeli związek między zmiennymi x
ii y
ijest liniowy, y = f(x), to R nazywamy współczynnikiem korelacji liniowej, a współzależność między dwiema seriami pomiarów - korelacją liniową. Korelacja jest tym silniejsza, im większą wartość z przedziału [-1, +1 ] osiąga ⎢R ⎢. Duża wartość współczynnika ⏐R⏐ świadczy o dużym prawdopodobieństwie postulowanego związku zmiennych x
ii y
i. W szczególności R = ±0,95 oznacza prawdopodobieństwo równe 95% dla badanej współzależności. Tak więc, może zachodzić korelacja liniowa pomiędzy punktami doświadczalnymi (x
i, y
i), lecz obarczona jest niepewnością względną wynoszącą 5%. Jeżeli R = ± 1 mówimy o korelacji zupełnej, jeżeli R = 0 to mówimy o braku korelacji. Mała wartość współczynnika korelacji R może wskazywać na zbyt krótką serię pomiarów lub na inną, niż przyjęto, współzależność między wielkościami x
ii y
i. W pierwszym przypadku przeprowadzamy pomiary uzupełniające, a w drugim, o ile nie przeczy to prawom rządzącym badanym związkiem między seriami pomiarów, sprawdzamy inną korelację, np. krzywoliniową zamiast liniowej.
Informacje dotyczące regresji nieliniowej zawarte są w § 4.2. skryptu „Ćwiczenia laboratoryjne z fizyki, cz.I.
Podstawy opracowania wyników pomiarów” OWPWr., Wrocław 1999 - P
OPRAWSKIR., S
ALEJDAW
.Jeżeli natomiast wiadomo, że związek między wielkościami x
ii y
ima charakter wykładniczy, to warto najpierw dokonać tzw. linearyzacji badanej zależności a następnie skorzystać z metody regresji liniowej. Więcej na ten temat można znaleźć w §3.3. wspomnianego skryptu.
Graniczne wartości ⎢R ⎢w zależności od liczby pomiarów n, od których wzwyż można wnioskować o istnieniu współzależności, przedstawia poniższa tabela.
n
5 10 20 30 40 50 75 100 500 1000 10000
⎢R ⎢ 0,99 0,84 0,64 0,53 0,47 0,42 0,35 0,30 0,14 0,10 0,03
Rozumiemy ją następująco: jeżeli np. dla n = 10 otrzymano wartość współczynnika korelacji | R | nie mniej niż
0,84, to przyjęty związek między wielkościami x
ii y
ijest poprawny, ale tylko w 84%. W związku z tym, nie
można spodziewać się ułożenia wszystkich punktów pomiarowych na linii najlepszego dopasowania.
Wartości średnie x i y zmiennych x
ii y
i, standardowe odchylenia pojedynczego pomiaru S
xi S
y, współczynnik korelacji R i parametry prostej y = Ax + B spełniają następujące relacje:
A RS S
y x
=
B = − y Ax
( )
S
x
x
n
i i
= −
∑ Δ 2
1
( )
S
y
y n
i i
= −
∑
Δ 21
gdzie: S
xi S
y– odchylenia standardowe pojedynczej wartości z serii pomiarów x
ii y
i,
Δx = x
i- x , Δy
i= y
i- y ,
x i y – wartości średnie serii x
ii y
i, n – ilość pomiarów w seriach x
ii y
i.
W programie użytkowym Excel przy wykonywaniu wykresów można określić współczynnik korelacji, jednak niepewności współczynników A i B liczymy korzystając ze wzorów regresji liniowej, lub korzystając z programów „regresja”. Należy pamiętać, że w przypadku mianowanych wielkości zmiennych x
ii y
irównież współczynniki A, δA, B i δB są wielkościami mianowanymi – należy podawać wartości tych współczynników
wraz z jednostkami !!!. Wskazane jest także podanie faktycznej zależności, dla której zastosowana będziemetoda regresji liniowej. Przykładowo rozważmy odkształcenia jednoosiowe (np. rozciąganie drutu), które w wąskim zakresie naprężeń podlegają prawu Hooke’a:
S F L E L
0
Δ =
,
Jeśli ta zależność zostanie przybliżona funkcją liniową y = Ax + B to x ≡ L
0Δ L
, y ≡ S
F , A ≡ E oraz δA ≡ ΔE.
Jeśli natomiast funkcją liniową przybliży się wyrażenie E L m g
L S
0
Δ ≡ to x ≡ ΔL, y ≡ m oraz A ≡ g L
ES
0
. W tym przypadku moduł Younga, E, należy obliczyć na podstawie wartości liczbowych A, S, L
0i g, a jego niepewność ΔE - na podstawie niepewności δA, ΔS, ΔL
0i Δg. Obie metody są poprawne, jednak pierwsza pozwala bezpośrednio wyznaczyć szukany parametr E i niepewność ΔE. Wymiary współczynników prostej regresji ( A, B ) w każdym z prezentowanych przykładów będą oczywiście różne.
gdzie: L
Oi S - wielkości stałe dla danego drutu ( długość początkowa i pole przekroju poprzecznego) F – siła powodująca naprężenie ( F = mg ),
ΔL – wydłużenie drutu pod wpływem siły F,
E – moduł Younga, poszukiwany parametr drutu.
Przykład:
Dokonano pomiarów o różnej precyzji. Wyniki pomiarów wielkości x
ii y
izebrano w tabeli.
a) tabela i wykres wykonane za pomocą programu Excel
Lp
.
x y = f ( x ) x y1 = f ( x ) 1 1,12 5,25 1,12 5,25 2 2,02 6,80 2,02 6,40 3 2,95 8,99 2,95 9,494 3,98 11,03 3,98 11,83
5 5,03 13,09 5,03 13,09
Jak widać, dla funkcji y
1 = f (x) czyli y = 2,154 x + 2,707 współczynnik korelacji R = 0,987 jest za mały(dla n = 5, współczynnik R ≥ 0,99) czyli nie można powiedzieć ,że występuje liniowa zależność
y (x ).Należy więc wykonać dodatkowe pomiary w innych , lub w tych samych punktach (zagęścić pomiary, powtórzyć wątpliwe lub/i rozszerzyć zakres pomiarowy).
b) obliczenia wykonane na podstawie pomiarów y = f(x) ujętych w tabeli powyżej za pomocą programu