Za pomocą zmiennych opisujemy interesujący nas parametr badanych pacjentów (lub też innych obiektów – niekoniecznie musimy badać ludzi). Na potrzeby tego opracowania możemy podzielić je na dwie grupy – zmienne ilościowe i jakościowe. Zmienne ilościowe to takie zmienne, które można opisać wartością liczbową (najczęściej mają też jednostkę), np. wiek, skurczowe ciśnienie tętnicze, wzrost czy ilość kroków w ciągu doby. Zmienne jakościowe opisujemy za pomocą kategorii – nie można ich policzyć, np. płeć, wykształcenie, wystąpienie zgonu, wystąpienie choroby czy noszenie okularów. Znajomość rozróżnienia dwóch rodzajów zmiennych ma istotne implikacje praktyczne. Po pierwsze, zmienne ilościowe przedstawiamy jako średnia ± odchylenie standardowe (lub mediana z pierwszym i trzecim kwartylem), a zmienne jakościowe jako ilość przypadków i procent. Po drugie, będziemy używać różnych testów do ich oceny.
Konieczny jest wybór ilości porównywanych zmiennych. Dwie zmienne oznaczają, że porównujemy na przykład płeć pomiędzy grupą badawczą w kontrolną (w tym przypadku mamy dwie zmienne – płeć oraz grupę – w każdej zmiennej po dwie kategorie). W zmiennej tych kategorii może być więcej, np. porównujemy wystąpienie zgonu między grupą z blond włosami, czarnymi włosami oraz niebieskimi włosami (w tym przypadku mamy nadal dwie zmienne, ale kolor włosów ma już 3 kategorie). O więcej niż 2 zmiennych mówimy, jeśli chcielibyśmy analizować wspólnie płeć oraz wystąpienie zgonu w grupie badawczej i kontrolnej (wówczas mamy 3 zmienne – taka sytuacja zdarza się zdecydowanie rzadziej).
W tym miejscu istotne jest zastanowienie czy porównywane zmienne są ze sobą związane. Wyróżniamy zmienne zależne (powiązane) i zmienne niezależne (niepowiązane). Rozróżnienie jest dosyć proste. Z zmiennymi niezależnymi mamy do czynienia, jeśli porównujemy dane pochodzące z niezależnych obserwacji, np. występowanie cukrzycy w grupie badawczej i kontrolnej. Zmienne zależne pochodzą z obserwacji powiązanych ze sobą, np. porównujemy występowanie cukrzycy u osób przed i po operacji bariatrycznej. W takiej sytuacji każda osoba jest dla siebie samego kontrolą (wynik po operacji porównujemy do wyniku przed operacją dla każdej osoby).
Analiza log-liniowa służy do oceny interakcji między wieloma zmiennymi jakościowymi, np. wpływ cukrzycy i otyłości na wystąpienie zgonu. Zauważmy, że ta analiza różni się od najpopularniejszego testu Chi-kwadrat, ponieważ bierze pod uwagę wpływ wielu zmiennych. Możemy ją traktować jako model regresji, w którym wszystkie zmienne są jakościowe. Analiza pozwala na rozpatrywanie wpływu pojedynczych czynników, jak i interakcji między nimi.
Założenia analizy:
1. Zmienne są niezależne.
2. Wszystkie wartości oczekiwane są większe niż 1 oraz jest mniej niż 20% wartości oczekiwanych mniejszych niż 5.
Analiza log-liniowa różni się od pozostałych testów przedstawionych w tym opracowaniu, ponieważ nie można wyodrębnić jednej hipotezy, którą testuje. Podczas analizy z modelu usuwane są kolejne zmienne równocześnie oceniając, czy istotnie wpływa to na model w poszukiwaniu najprostszej interakcji.
Na potrzeby analizy istotne jest zrozumienie z jakimi efektami możemy mieć do czynienia. Po pierwsze – efekty główne, czyli wpływ pojedynczych zmiennych na model. Po drugie – interakcje 2-rzędu, czyli wpływ interakcji między dwoma zmiennymi na model (w naszym przypadku, np. otyłość*cukrzyca). Po trzecie – interakcje wyższego rzędu (w zależności od tego, ile zmiennych użyjemy do analizy). Każdy z tych efektów wpływa na model, który jest analizowany a naszym celem jest zidentyfikowanie tych interakcji i efektów, których wpływ jest istotny statystycznie (p< 0.05).
Test McNemary służy do porównania powiązanych zmiennych kategorycznych pomiędzy dwoma grupami. Jest odpowiednikiem dla testu chi-kwadrat tylko dla zmiennych powiązanych. Przed wykonaniem testu, jak zwykle musimy się zastanowić, czy nasze dane spełniają jego założenia:
1. Porównujemy dwie zmienne (w przeciwieństwie do testu chi-kwadrat, każda zmienna może mieć maksymalnie dwie kategorie, np. występowanie cukrzycy przed i po operacji bariatrycznej). Jeżeli chcemy porównać zmienną o dwóch kategoriach pomiędzy większą liczbą grup – możemy użyć do tego testu Q-Cochrana (np. występowanie cukrzycy przed, po i rok po operacji).
2. Zmienne są powiązane.
Test posiada dwie hipotezy, zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = proporcja zmiennej zależnej w populacji generalnej jest taka sama niezależnie od zmiennej niezależnej (np. odsetek ludzi z cukrzycą nie zmienił się po operacji).
H1 = proporcja zmiennej zależnej w populacji generalnej jest różna w zależności od zmiennej niezależnej (np. odsetek ludzi z cukrzycą zmienił się po operacji).
Test Chi-kwadrat pozwala na porównanie proporcji między grupami. Wykonując test, konstruuje się tabelę krzyżową (najczęściej 2x2), gdzie w kolumnach umieszczamy grupy porównywane, a w wierszach parametr, który porównujemy pomiędzy grupami (oczywiście mogą to być inne dowolne zmienne jakościowe).
Aby wykonać test Chi-kwadrat należy spełnić następujące warunki:
1. Porównujemy dwie zmienne kategoryczne (jedna zmienna może mieć więcej niż dwie kategorie, ale nie może mieć mniej niż dwóch).
2. Zmienne są niepowiązane.
Test posiada dwie hipotezy, zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma związku między zmiennymi w populacji generalnej (nie ma różnicy w proporcji między grupami)
H1 = jest związek między zmiennymi w populacji generalnej (jest różnica w proporcji między grupami).
Przy stosowaniu testu bardzo często konieczne jest stosowanie odpowiednich poprawek.
1. Jeżeli którakolwiek z liczebności obserwowanych jest mniejsza niż 10 należy użyć poprawki na ciągłość Yatesa.
2. Jeżeli całkowita liczebność próby jest mniejsza niż 20 należy użyć dokładnego testu Fishera.
3. Jeżeli całkowita liczebność próby jest pomiędzy 20 a 40, a najmniejsza z liczebności obserwowanych jest mniejsza niż 5 należy użyć dokładnego testu Fishera.
4. Dokładnego testu Fishera użyjemy również, gdy co najmniej jedna wartość oczekiwana jest mniejsza niż 1 lub ponad 20% wartości oczekiwanych jest mniejsza niż 5.
W tym miejscu istotne jest zastanowienie czy porównywane zmienne są ze sobą związane. Wyróżniamy zmienne zależne (powiązane) i zmienne niezależne (niepowiązane). Rozróżnienie jest dosyć proste. Ze zmiennymi niezależnymi mamy do czynienia, jeśli porównujemy dane pochodzące z niezależnych obserwacji, np. skurczowe ciśnienie tętnicze w grupie badawczej i kontrolnej. Zmienne zależne pochodzą z obserwacji powiązanych ze sobą, np. porównujemy skurczowe ciśnienie tętnicze przed i po podaniu leku. W takiej sytuacji każda osobą jest dla siebie samej kontrolą (wynik po leczeniu porównujemy do wyniku przed leczeniem dla każdej osoby).
Jeżeli oceniamy dwie zmienne ilościowe zależne to nie interesuje nas rozkład samej zmiennej, ale rozkład różnic między jedną zmienną a drugą.
UWAGA! Jeżeli chcesz porównać więcej niż dwie grupy, wówczas nie licz różnicy między zmiennymi (jest to niewykonalne – które zmienne mielibyśmy wybrać?). Przy więcej niż 2 grupach, sprawdzamy normalność rozkładu dla każdej grupy.
Różnicę można obliczyć przed wprowadzeniem danych do programu, ale można też to zrobić w programie (jak – pokazuję w filmie dotyczącym testu t-studenta dla prób zależnych). Następnie dla różnic przeprowadzamy test Shapiro-Wilka, aby ocenić, czy rozkład jest normalny.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = badana próba pochodzi z populacji o rozkładzie normalnym
H1 = badana próba pochodzi z populacji o rozkładzie innym niż normalny
Dlatego, jeżeli p< 0.05 przyjmujemy, że rozkład zmiennej jest inny niż normalny i wykonujemy testy nieparametryczne. Natomiast jeżeli p jest większe przyjmujemy, że rozkład jest normalny i wykonujemy testy parametryczne.
Do wyboru testu konieczne jest wskazanie, ile grup chcemy porównać między sobą. Testy różnią się między sobą w zależności czy porównujemy dwie grupy lub więcej. Dwie grupy to np. ciśnienie skurczowe przed i po podaniu leku. Więcej niż dwie grupy to np. ciśnienie skurczowe przed, miesiąc po i dwa miesiące po podaniu leku.
Test umożliwia sprawdzenie, czy występuje różnica między średnimi w dwóch pomiarach zmiennej, np. dysponujemy próbą przed i po podaniu leku i chcemy sprawdzić czy średnie skurczowego ciśnienia tętniczego obniżyło się po podaniu. Aby móc go wykonać zmienne muszą spełnić następujące warunki:
1. Rozkład różnic między zmiennymi jest zbliżony do normalnego.
2. Zmienne są ze sobą powiązane.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = różnica średnich między pomiarami jest równa 0 w populacji generalnej
H1 = różnica średnich między pomiarami jest różna od 0 w populacji generalnej
Wobec tego, jeżeli p< 0.05 możemy stwierdzić, że występuje istotna statystycznie różnica między średnimi uzyskanymi w dwóch pomiarach.
Test umożliwia sprawdzenie jednego z założeń koniecznych do przeprowadzenia analizy wariancji z powtarzanymi pomiarami – sferyczności wariancji. Jego wynik jest wyświetlany razem z wynikami analizy wariancji z powtarzanymi pomiarami.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = warunek sferyczności wariancji jest spełniony
H1 = warunek sferyczności wariancji nie jest spełniony
Wobec tego, jeżeli p< 0.05 nie możemy przeprowadzić analizy wariancji z powtarzanymi pomiarami – musimy skorzystać z poprawek lub z innego testu. Jeżeli p≥0.05 możemy kontynuować analizę wariancji z powtarzanymi pomiarami.
Test umożliwia zbadanie, czy średnie różnią się pomiędzy powiązanymi ze sobą grupami (których jest więcej niż 2), np. pomiar poziomu CRP u tych samych osób w dniu rozpoznania choroby, tydzień później i pół roku później. Żeby móc przeprowadzić analizę zmienne muszą spełnić następujące warunki:
1. Rozkład zmiennej w każdej grupie jest zbliżony do normalnego (sprawdziliście to we wcześniejszym kroku za pomocą testu Shapiro-Wilka)
2. Zmienne są ze sobą powiązane.
3. Jest spełniony warunek sferyczności wariancji (sprawdzony za pomocą testu Mauchley’a).
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między średnimi w populacji generalnej.
H1 = jest różnica między średnimi w populacji generalnej (przynajmniej jedna średnia odstaje od pozostałych).
Warto zauważyć, że ten test nie zwraca informacji na temat tego, która średnia jest inna. Dlatego, jeżeli ANOVA umożliwi odrzucenie hipotezy zerowej, należy wykonać test post hoc, który odpowie na pytanie: „które średnie różnią się między sobą?”.
Program SPSS używa testu t-studenta dla zmiennych powiązanych, aby sprawdzić pomiędzy którymi średnimi z wcześniej badanych występuje różnica. Należy pamiętać, że przy takich zabiegach (wielokrotnych porównaniach) drastycznie wzrasta ryzyko błędu I rodzaju, dlatego zastosowano tutaj poprawkę Bonferroniego, która umożliwia utrzymanie ryzyka błędu na poziomie 0.05.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między średnimi w populacji generalnej.
H1 = jest różnica między średnimi w populacji generalnej.
Test sprawdza występowanie różnic między każda parą osobno, wobec tego niektóre porównania mogą wyjść istotne statystycznie, a inne nie.
Na tym kończy się analiza Twoich danych
Do wyboru testu konieczne jest wskazanie, ile grup chcemy porównać między sobą. Testy różnią się między sobą w zależności czy porównujemy dwie grupy lub więcej. Dwie grupy to np. ciśnienie skurczowe u kobiet i mężczyzn. Więcej niż dwie grupy to np. ciśnienie skurczowe osób przyjmujących 5mg lub 10mg, lub 15 mg kaptoprilu.
Test umożliwia zbadanie, czy mediany różnią się pomiędzy powiązanymi ze sobą grupami (których jest więcej niż 2), jeżeli warunki dla analizy wariancji z powtarzanymi pomiarami nie są spełnione. Warunkiem, który należy spełnić, aby móc wykonać test jest to, że zmienne muszą być ze sobą powiązane.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między medianami w populacji generalnej.
H1 = jest różnica między medianami w populacji generalnej (przynajmniej jedna mediana odstaje od pozostałych).
Warto zauważyć, że ten test nie zwraca informacji na temat tego, która mediana jest inna. Dlatego, jeżeli wynik testu Friedmana umożliwi odrzucenie hipotezy zerowej, należy wykonać test post hoc, który odpowie na pytanie: „które mediany różnią się między sobą?”.
Test post-hoc Dunna tak jak i inne testy post-hoc umożliwia sprawdzenie pomiędzy którymi grupami występują różnice, jeżeli test Kruskala-Wallisa wyszedł istotny statystycznie (informując nas o tym, że jest różnica, ale nie precyzując, gdzie).
Założenia do testu są takie same jak do testu Kruskala-Wallisa, jest on niejako dopełnieniem wcześniejszej analizy, umożliwiającym dokładne zbadanie różnic między parami.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między medianami w populacji generalnej.
H1 = jest różnica między medianami w populacji generalnej.
Test sprawdza występowanie różnic między każda parą osobno, wobec tego niektóre porównania mogą wyjść istotne statystycznie, a inne nie.
Na tym kończy się analiza Twoich danych
Test Wilcoxona umożliwia porównanie median między dwiema grupami, jeżeli badana zmienna nie spełnia warunków koniecznych do przeprowadzenia testu t-studenta dla prób zależnych (rozkład różnic nie jest zbliżony do normalnego) - jest to test nieparametryczny. Aby móc przeprowadzić test zmienne muszą być powiązane.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między medianami w populacji generalnej.
H1 = jest różnica między medianami w populacji generalnej.
Przed przystąpieniem do analizy zmiennych ilościowych bardzo istotne jest sprawdzenie czy zmienna ma rozkład zbliżony do normlanego czy też nie. Wiedza ta implikuje późniejszy wybór testu do porównywania różnic między grupami. Istnieją różne testy do oceny normalności rozkładu zmiennej, jednak najczęściej używanym jest test Shapiro-Wilka.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p < 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = badana próba pochodzi z populacji o rozkładzie normalnym
H1 = badana próba pochodzi z populacji o rozkładzie innym niż normalny
Dlatego, jeżeli p < 0.05 przyjmujemy, że rozkład zmiennej jest inny niż normalny i wykonujemy testy nieparametryczne przy porównywaniu grup. Natomiast jeżeli p jest większe przyjmujemy, że rozkład jest normalny i wykonujemy testy parametryczne przy porównywaniu grup.
Do wyboru testu konieczne jest wskazanie, ile grup chcemy porównać między sobą. Testy różnią się między sobą w zależności czy porównujemy dwie grupy lub więcej. Dwie grupy to np. ciśnienie skurczowe przed i po podaniu leku. Więcej niż dwie grupy to np. ciśnienie skurczowe przed, miesiąc po i dwa miesiące po podaniu leku.
Do wyboru testu konieczne jest wskazanie, ile grup chcemy porównać między sobą. Testy różnią się między sobą w zależności czy porównujemy dwie grupy lub więcej. Dwie grupy to np. ciśnienie skurczowe u kobiet i mężczyzn. Więcej niż dwie grupy to np. ciśnienie skurczowe osób przyjmujących 5mg lub 10mg, lub 15 mg kaptoprilu.
Przy wyborze testu musimy kierować się również warunkiem jednorodności wariancji, jednak w programie SPSS wynik testu sprawdzającego ten warunek wraz z poprawką wyświetla się równocześnie. Dlatego niezależnie od Waszego wyboru, zostaniecie przekierowani do tego samego filmu. W nim zobaczycie gdzie szukać testu sprawdzającego warunek jednorodności wariancji oraz jak interpretować wyniki odpowiednio testu t-studenta dla prób niezależnych (jeśli warunek jednorodności wariancji jest spełniony) lub test Cochrana i Coxa (jeśli warunek jednorodności wariancji nie jest spełniony). Podsumowując, ten krok ma Wam zobrazować, jak wygląda wybór testu, jednak niezależnie od Waszego wyboru, zobaczycie ten sam film, w którym wszystko będzie wyjaśnione.
Test t-studenta dla prób niezależnych służy do porównywania średnich między niezależnymi dwoma grupami, np. skurczowe ciśnienie tętnicze u kobiet i u mężczyzn. Jest to test parametryczny i żeby móc go wykonać zmienne muszą spełniać następujące warunki:
1. Rozkład zmiennej w obydwu grupach jest zbliżony do normalnego (sprawdziliście to w poprzednim kroku za pomocą testu Shapiro-Wilka).
2. Zmienne są niepowiązane i porównujemy dwie grupy.
3. Warunek jednorodności wariancji jest spełniony (sprawdzamy go testem Levenne’a już w trakcie przeprowadzania testu t-studenta).
Jeżeli w teście Levenne’a p< 0.05 to warunek równości wariancji nie jest spełniony. Wówczas musimy się cofnąć w algorytmie (a tak naprawdę w programie SPSS spojrzeć na wyniki przedstawione wiersz niżej).
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między średnimi w populacji generalnej.
H1 = jest różnica między średnimi w populacji generalnej.
Test Levenne’a (jednorodności wariancji) (trochę do decyzji czy osobny film – robi się to już przy samej analizie ANOVA, chociaż bardziej się skłaniam do osobnego filmu, żeby ładniej się wgrywało w nasz algorytm więc – film 7)
Test Levenne’a służy do sprawdzenia założenia jednorodności wariancji między porównywanymi grupami. Przeprowadzenie go jest niezbędne do późniejszego wyboru testu do ostatecznej analizy średnich między grupami.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa =0.05. Wobec tego przy p < 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między wariancjami w populacji generalnej.
H1 = jest różnica między wariancjami w populacji generalnej.
Wobec tego, jeżeli p < 0.05 warunek jednorodności wariancji nie jest spełniony.
ANOVA służy do porównywania średnich między niezależnymi grupami (których jest więcej niż 2), np. porównujemy skurczowe ciśnienie krwi u pracowników biurowych, budowalnych i zawodowych sportowców. Aby móc go wykonać zmienne muszą spełniać następujące warunki:
1. Rozkład zmiennej we wszystkich grupach jest zbliżony do normalnego (sprawdziliście to w poprzednim kroku za pomocą testu Shapiro-Wilka).
2. Zmienne są niepowiązane.
3. Spełniony warunek jednorodności wariancji (sprawdzony wcześniej za pomocą testu Levenne’a)
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między średnimi w populacji generalnej.
H1 = jest różnica między średnimi w populacji generalnej (przynajmniej jedna średnia odstaje od pozostałych).
Warto zauważyć, że ten test nie zwraca informacji na temat tego, która średnia jest inna. Dlatego, jeżeli ANOVA umożliwi odrzucenie hipotezy zerowej, należy wykonać test post hoc, który odpowie na pytanie: „które średnie różnią się między sobą?”.
Test post-hoc Tukeya tak jak i inne testy post-hoc umożliwia sprawdzenie pomiędzy którymi grupami występują różnice, jeżeli jednoczynnikowa analiza wariancji (ANOVA) wyszła istotna statystycznie (informując nas o tym, że jest różnica, ale nie precyzując, gdzie).
Założenie do testu są takie same jak do ANOVA, jest on niejako dopełnieniem wcześniejszej analizy, umożliwiającym dokładne zbadanie różnic między parami.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między średnimi w populacji generalnej.
H1 = jest różnica między średnimi w populacji generalnej.
Test sprawdza występowanie różnic między każda parą osobno, wobec tego niektóre porównania mogą wyjść istotne statystycznie, a inne nie.
Na tym kończy się analiza Twoich danych
Test a bardziej poprawka Cochrana i Coxa jest uzupełnieniem testu t-studenta przy braku spełnienia warunku o jednorodności wariancji. Pozostałe warunki testu są takie same, i nie musimy robić nic więcej niż przy wykonywaniu testu t-studenta. Wyniki testu Cochrana i Coxa wyświetlane są razem z testem t-studenta.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między średnimi w populacji generalnej.
H1 = jest różnica między średnimi w populacji generalnej.
Test Kruskala-Wallisa umożliwia porównywanie median między grupami, jeśli jest ich więcej niż 2 i zmienna nie spełnia warunków dla przeprowadzanie jednoczynnikowej analizy wariancji (ANOVA) – jest to test nieparametryczny. Jedynym założeniem koniecznym do spełnienia, aby móc przeprowadzić test jest brak powiązania między badanymi grupami.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między medianami w populacji generalnej.
H1 = jest różnica między medianami w populacji generalnej (przynajmniej jedna mediana odstaje od pozostałych).
Podobnie jak ANOVA informuje nas o tym, że mediana przynajmniej w jednej z grup istotnie różni się od pozostałych. Również w tym przypadku konieczne jest wykonanie testu post-hoc aby dowiedzieć się, pomiędzy którymi grupami występuje różnica.
Test post-hoc Dunna tak jak i inne testy post-hoc umożliwia sprawdzenie pomiędzy którymi grupami występują różnice, jeżeli test Kruskala-Wallisa wyszedł istotny statystycznie (informując nas o tym, że jest różnica, ale nie precyzując, gdzie).
Założenia do testu są takie same jak do testu Kruskala-Wallisa, jest on niejako dopełnieniem wcześniejszej analizy, umożliwiającym dokładne zbadanie różnic między parami.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między medianami w populacji generalnej.
H1 = jest różnica między medianami w populacji generalnej.
Test sprawdza występowanie różnic między każda parą osobno, wobec tego niektóre porównania mogą wyjść istotne statystycznie, a inne nie.
Na tym kończy się analiza Twoich danych, wynik nie jest istotny statystycznie.
Test Manna-Whitney’a umożliwia porównanie median między dwiema grupami, jeżeli badana zmienna nie spełnia warunków koniecznych do przeprowadzenia testu t-studenta dla prób niezależnych (rozkład nie jest zbliżony do normalnego) - jest to test nieparametryczny. Aby móc przeprowadzić test zmienne muszą być niepowiązane.
Test posiada dwie hipotezy: zerową i alternatywną. Zwykle przyjmujemy poziom istotności alfa=0.05. Wobec tego przy p< 0.05 odrzucamy hipotezę zerową i przyjmujemy hipotezę alternatywną.
H0 = nie ma różnicy między medianami w populacji generalnej.
H1 = jest różnica między medianami w populacji generalnej.