• Nie Znaleziono Wyników

6. ANALIZA SYMULACYJNA DZIAŁANIA INTERAKTYWNEGO REGULATORA W

7.2. KORELA CJA

Wg [102] korelacja jest to współwystępowanie cech i określa wzajemne powiązania pomiędzy wybranymi zmiennymi. Często wyróżniane korelacje to:

 prosta,

 cząstkowa,

 wieloraka.

W pierwszym etapie analizy związku korelacyjnego pomiędzy zmiennymi parametrami wejściowymi a odpowiedzią rozważanego układu, dokonuje się procesu generowania korelacyjnego wykresu rozrzutu. Na podstawie rozrzutu punktów na wykresach można wnioskować o rodzaju współzależności. W związku z tym, wyróżnia się następujące rodzaje korelacji wg [103]:

 dodatnią – występuje wtedy, gdy wzrostowi wartości jednej cechy odpowiada wzrost średnich wartości drugiej cechy,

 ujemną – występuje wtedy, gdy wzrostowi wartości jednej cechy odpowiada spadek średnich wartości drugiej cechy,

 pełną – występuje wtedy gdy, zbiór punktów leży dokładnie wzdłuż linii prostej, przy czym jest to rzadko spotykane,

 krzywoliniową,

 brak korelacji – występuje wtedy, gdy układ punktów jest rozproszony, tworząc ich bezkształtną chmurę o niezauważalnej współzależności.

Możliwe jest łączne występowanie korelacji, np. dodatniej i pełnej dla danego zbioru wyników.

Wg [103] korelacja między zmiennymi X i Y jest miarą siły liniowego związku między tymi zmiennymi. Zatem, w kolejnym etapie analizy korelacji konieczne jest określenie miary współzależności, ujmującej siłę oraz kierunek. Siłę współzależności analizowanych zmiennych wyraża się liczbowo przy wykorzystaniu wielu mierników (współczynników korelacji). Wg [105] współczynnik korelacji to liczba określająca w jakim stopniu zmienne są współzależne. Jest to miara korelacji dwóch lub więcej zmiennych. Większość z tych współczynników jest znormalizowana tak, aby przybierała wartości od -1 (korelacja ujemna), przez 0 (brak korelacji) do +1 (korelacja dodatnia). Przy interpretacji wyników, zgodnie z [103,111], zwykle korzysta się z klasyfikacji według J. Guilford’a, gdzie:

r 0 brak korelacji,

 0 r 0,1 korelacja nikła,

Należy zaznaczyć, że znak współczynnika korelacji oznacza kierunek współzależności, natomiast wartość bezwzględna współczynnika jest informacją o sile związku korelacyjnego (siła współzależności).

W literaturze spotyka się m.in. współczynniki korelacji [104] Pearsona, Spearmana, τ-Kendalla, T-Czuprowa, Lambda, z serii gamma oraz współczynniki korelacji dwuseryjnej, punktowo-dwuseryjnej, punktowo-czteropolowej Ø, częściowej Kendalla. Najbardziej popularne współczynniki korelacji opisano poniżej.

7.2.1. Współczynnik korelacji liniowej Pearsona

Współczynnik Pearsona odnosi się do układów liniowych [103], przy czym stosowany jest, gdy obie zmienne są mierzalne i mają rozkład zbliżony do normalnego. Jeżeli założenia te nie są spełnione, należy skorzystać z nieparametrycznego odpowiednika (współczynnika korelacji rang Spearmana).

Współczynnik Pearsona przyjmuje wartości z przedziału [-1,1], lecz, jeśli współczynnik jest bliski zeru nie zawsze oznacza to, że zaistniał brak korelacji. Może świadczyć to o braku zależności liniowej. Współczynnik korelacji liniowej Pearsona [106] został opisany wzorem:

    

cov(x,y)- kowariancja (współzmienność pomiędzy x i y) sx, sy- odchylenia standardowe zmiennej x i y.

Wartość współczynnika korelacji mówi o sile zależności pomiędzy rozważanymi cechami, natomiast znak wskazuje kierunek korelacji, przykładowo rxy= -0,78 świadczy o silnej korelacji ujemnej.

7.2.2. Korelacja rangowa. Współczynnik korelacji rang Spearmana

Korelacja rang Spearmana jest to jedna z nieparametrycznych miar monotonicznej zależności statystycznej między zmiennymi losowymi. Idea korelowania rang została zaproponowana przez Bineta i Henriego [107] w XIX wieku. Jednak dopiero w 1904 roku metoda rangowa została zbadana i rozpowszechniona przez angielskiego psychologa Charlesa Spearmana. Spearman spostrzegł, że w wielu badaniach nie da się zastosować klasycznego współczynnika korelacji Pearsona dlatego, że współczynnik ten przeznaczony jest tylko dla zależności liniowych. Problemy te jednak znikają po zastosowaniu metod rangowych, gdzie korelacja rangowa pokazuje dowolną monotoniczną zależność, także nieliniową [103,107].

Współczynnik ten został przekształcony ze współczynnika korelacji Pearsona i jest rozszerzeniem możliwości współczynnika korelacji Pearsona [108].

Współczynnik korelacji rang Spearmana zwany jest również współczynnikiem korelacji kolejnościowej [109]. W związku z tym, że jest to nieparametryczna miara korelacji, to stosowana jest do oceny kierunku i siły korelacji w przypadku gdy:

 cechy są niemierzalne i istnieje możliwość uporządkowania wariantów cechy.

Wówczas cechy te wyrażone są w skali porządkowej,

 cechy są mierzalne, lecz liczba wariantów przyjmowanych przez te cechy musi być skończona.

Podsumowując, współczynnik korelacji rang Spearmana stosuje się wówczas, gdy możliwie jest uszeregowanie wariantów obu cech według kryterium porządkującego. Przy obliczaniu tego współczynnika nadaje się rangi poszczególnym wariantom ob u cech, czyli kolejne numery od 1 do n, które pozwalają uporządkować ciąg obserwacji (rosnąco lub malejąco).

Współczynnik korelacji rang Spearmana został opisany wzorem [109]:

1

6 1 21

2

 

n n

d r

n

i i

s , (7.2)

gdzie:

n – liczba obserwacji jednej z cech,

di – różnica między rangami, które są przypisane i-tej obserwacji pierwszej i drugiej cechy.

W pracy [109] zasada obliczania tego współczynnika została opisana w następujących krokach:

 krok 1 – rangowanie, czyli porządkowanie (w kolejności rosnącej lub malejącej) wartości (wariantów) jednej cechy poprzez nadanie im kolejnych numerów od 1 do n, tzw. rang;

 krok 2 – rangowanie wartości (wariantów) drugiej cechy. Sposób rangowania musi być taki sam dla obu cech (dla obu cech w kolejności rosnącej lub malejącej). W przypadku, gdy dana wartość występuje wielokrotnie, to wartościom tym nadaje się tę samą rangę równą średniej arytmetycznej kolejnych numerów pozycji, na których stoją te jednakowe wartości, tzw. rangi związane. Przykładowo, gdy wartości na pozycji drugiej i trzeciej są takie same, to zamiast rang będących numerami 2 i 3 nadajemy oby tym wartościom jednakowe rangi: 2,5 i 2,5, gdyż średnia arytmetyczna liczb 2 i 3 wynosi 2,5;

 krok 3 – obliczanie różnicy rang di odpowiadających sobie wariantów obu cech, czyli różnic rang stojących na tej samej pozycji. Otrzymuje się wówczas n różnic;

 krok 4 – podniesienie do kwadratu uzyskanych różnic rang di oraz ich zsumowanie;

 krok 5 – obliczenie wartości współczynnika korelacji rang rs Spearmana, poprzez podstawienie obliczonej sumy do przedstawionego wcześniej wzoru.

Współczynnik korelacji rang Spearmana przyjmuje wartości z przedziału [-1,1], i im bliższy jest on wartości 1 lub -1, tym silniejsza jest współzależność (korelacja). Zatem, jego interpretacja jest analogiczna jak w przypadku współczynnika Pearsona [103,109]:

1 1 

rs

Współczynniki ten jest również miarą symetryczną, więc nie ma znaczenia, czy określana jest korelacja między cechami X i Y, czy też między Y i X.

7.2.3. Współczynnik korelacji τ-Kendalla

Współczynnik τ-Kendalla jest to kolejny współczynnik korelacji będący miarą monotonicznej zależności dwóch zmiennych losowych X i Y. Jest to rangowa miara zależności, podobnie jak współczynnik korelacji Spearmana, przy czym próbkowy współczynnik Kendalla [110] (τ-Kendalla z próby) jest równy:

       

n j i

j j i

i Y X Y

X n J

n 1 , , ,

1 ˆ 2

 , (7.3)

gdzie J((x1,y1),(x2,y2))=1, gdy para (x1,y1) jest zgodna z parą (x2,y2), tzn. gdy (x1-x2)(y1-y2)>0 oraz J((x1,y1),(x2,y2))=-1 w przeciwnym przypadku. Zatem, jest to różnica między liczbą zgodnych i niezgodnych par w próbie, podzieloną przez liczbę wszystkich nieuporządkowanych par n(n-1)/2. Próbkowy współczynnik Kendalla jest statystyką rangową, gdyż:

   

Xi Yi Xj Yj

J

 

Ri Qi

 

Rj Qj

 

J , , ,  , , , . (7.4)

Zatem, wartością oczekiwaną współczynnika ˆ jest:

  

0

    

0

2

   

0

1

ˆP X1X2 Y1Y2  P X1X2 Y1Y2   P X1X2 Y1Y2  

 . (7.5)

Zgodnie z [110], gdy zmienne X i Y są niezależne, wówczas τ=0.

Z kolei, według [103], współczynnik τ-Kendalla odnosi się do różnicy między prawdopodobieństwem tego, że dwie zmienne układają się w tym samym porządku a prawdopodobieństwem, że ich uporządkowanie się różni. Współczynnik ten przyjmuje wartości z przedziału [-1,1], gdzie:

 wartość 1 oznacza pełną zgodność uporządkowań,

 wartość 0 oznacza brak zgodności uporządkowań,

 wartość -1 oznacza przeciwne uporządkowanie obu zmiennych.

Przedstawione powyżej współczynniki korelacji mogą być określane analitycznie zgodnie z podanymi wzorami (7.1), (7.2), (7.3). Bardziej wydajne jest jednak stosowanie dedykowanego oprogramowania umożliwiającego określanie tych współczynników na podstawie danych wejściowych i wyjściowych analizowanego układu dynamicznego.

7.3. Oprogramowanie do analizy wrażliwości oraz postać

Powiązane dokumenty