click below
click below
Normal Size Small Size show me how
Metodologia
Srelau Psych 1/2 R. 4.3.3 Sprawdzanie hipotez 228-246
Term | Definition |
---|---|
Jakie pytania badawcze stawiamy? Jakie hipotezy sprawdzamy? | O związkach między zmiennymi. O różnicach pomiędzy grupami. |
Kiedy stosujemy współczynnik kontyngencji? | Aby sprawdzić czy dwie różne cechy są ze sobą związane. Dla danych zmierzonych na skali nominalnej. |
Kiedy stosujemy współczynnik korelacji? | Aby sprawdzić czy dwie różne cechy są ze sobą związane. Dla danych zmierzonych co najmniej na skali porządkowej. |
Na jakie pytania musimy odpowiedzieć aby zinterpretować wartość współczynnika korelacji lub kontyngencji? | Pytania o istotność stat związku, siłę związku, kształt związku. |
Co nam daje test statystyczny? | Sprawdza czy współczynnik korelacji wyników z próby jest istotnie różny od zera dla populacji, z której pochodzi próba. Jeśli jest możemy mówić o związku (współzmienności) zmiennych. |
Na jakiej podstawie orzekamy o istnieniu korelacji i jej sile? | Na podstawie wartości współczynnika: zero - brak związku, -1 lub 1 oznacza związek doskonały, jedno-jednoznaczny. |
Współczynnik r Pearsona | Współczynnik korelacji liniowej. Współczynnik korelacji wg momentu iloczynowego. Product-moment correlation coefficiet. Kiedy obie zmienne są na skali ilościowej (inter, iloraz). |
Skala stenowa | Złożona z 10-ciu jednostek skala o średniej 5,5 i odchyleniu standardowym 2. |
Jak prezentuje się graficznie dane korelacyjne? Czym graficznie jest r Pearsona? | Diagram korelacyjny. Prostą najmniejszych kwadratów. |
Prosta najmniejszych kwadratów | Ze wszystkich możliwych prostych najlepiej dopasowana do punktów na wykresie, w taki sposób, że suma kwadratów odległości poszczególnych punktów od prostej jest najmniejsza. |
Kiedy związek korelacji liniowej jest najsilniejszy, a kiedy najsłabszy? | Najsil: r=1/r=-1, punkty na diagramie korelacyjnym leżą idealnie na prostej (wprost i odwrotnie proporcjonalny). Najsłab: r=0, nie daje się dopasować żadnej linii, nie ma związku liniowego, ale może być związek nieliniowy (parabola drugiego stopnia). |
Czym jest współczynik rs Spearmana i kiedy jest stosowany? | Nieparametryczna wersja współczynnika r Pearsona. Stosowany kiedy zmienne są na skali co najmniej porządkowej. Wylicza się z r Pearsona po zastąpieniu wartości cech rangami. |
Wariancja (def) | przeciętna suma kwadratów odcyleń poszczególnych wynikow od średniej |
Czego miarą jest wariancja? | matematyczna miara zmienności dla pojedyńczej cechy |
Czego miarą jest kowariancja? | matematyczna miara współzmienności dla dwóch cech (cov) |
Co interesuje nas kiedy analizujemy wariancję, a co kiedy analizujemy kowariancję? | Wariancja - zmienność analizowanej cechy, czy duża, czy mała. Kowariancja - czy jedna cecha zmienia się podobnie do drugiej. |
Po czym widzimy, że dwie cechy są silnie i wprost / odwrotnie proporcjonalnie powiązane? (cov) | Po tym, że odchylenia wyników dla obu zmiennych są podobne: wysokie = wysokie, niskie = niskie, średnie = średnie, wysokie = niskie, niskie = wysokie, średnie = średnie. Im wyższa wartość cov, tym zmienne bardziej podobne, + wprost prop, - odwrot prop. |
Znaki (+, -) przy obliczaniu wariancji i przy obliczaniu kowariancji. | Wariancja - bez znaczenia (podnosimy do kwadratu). Kowariancja - ma znaczenie (związek wprost/odwrot prop). |
Wynik liczbowy kowariancji | Bez interpretacji. Skala stenowa 10 jedn. Skala tenowa 100. Dopiero użycie kowariancji we wzorze dla r Pearsona i sprowadzenie do <-1, 1> pozwala na interpretację siły związku |
Wzór na r Pearsona | kowariancja (cov.xy) podzielona przez iloczyn odchylen standardowych obu korelowanych zmiennych (s.x*s.y). |
Wzór na kowariancję | E(Xi-Mx)(Yi-My)/N. Mnożymy odpowiadające sobie odchylenia wyników dla obu analizowanych zmiennych, sumujemy wszystkie iloczyny i dzielimy przez liczbę zsumowanych elementów. |
Czym są rangi? | Numer kolejny obserwacji statystycznej w próbie po uporządkowaniu obserwacji według wartości jednej ze zmiennych. Zwykle stosuje się uporządkowanie rosnące i numerowanie od 1. |
Czym jest rangowanie? | Zastąpienie zmiennej przez wyliczone według niej rangi. Dla kilku takich samych zmiennych - średnia arytmetyczna z dwóch sąsiednich rang. |
Po co stosuje się rangowanie? | W celu uniezależnienia się od rozkładu zmiennej oraz możliwych wystąpień obserwacji odstających. Pozwala ono również na stosowanie metod statystycznych w odniesieniu do zmiennych porządkowych, a nie tylko przedziałowych i ilorazowych. |
Czego i dlaczego nie robimy z rangami? | Nie wyliczamy średniej, nie wyliczamy i nie porównujemy odchyleń od średniej, bo ranga zastępuje wyniki, które nie były tak samo od siebie odległe (skala porządkowa). |
Jaki wskaźnik pozwala nam porownać rangi dwóch różnych zmiennych? | Inwersja rang Ed-kw (suma kwadratów róznic pomiędzy parami zmiennych). |
Kiedy Ed-kw jest najniższa, kiedy równa połowie max. wskaźnika, kiedy niajwyższa? | Jeśli szeregowi dla zmiennej X{1, 2, 3, 4, 5} odpowiada Y{1, 2, 3, 4, 5} to Ed-kw czyli inwersja rang jest najniższa. Jeśli X{1, 2, 3, 4, 5} -> Y{5, 4, 3, 2, 1} - inwersja najwyższa. Jeśli X odpowiada losowe Y - pół max. wskaźnika. |
Rangi wiązane | Gdy mamy powtarzające się wartości obserwacji. Do zbioru danych wprowadzamy rangi wiązane a do wzoru na r.s Spearmana poprawkę na rangi wiązane (r.ho Spearmana- r of hierarchical observations) |
Co się dzieje ze wskaźnikiem korelacji wraz ze wzrostem liczebności próby | Stabilizuje się, przy niskiej liczebności próby r dla różnych prób jest całkowicie niestabilna. |
Od czego zależy konkretna wartość współczynnika korelacji? | Grupy badanych, sposobu dokonania pomiaru, specyficznych warunków w jakich analizowane zmienne działają. Dlatego sprawozdania z badań korelacyjnych muszą zawierać staranny opis próby. |
Tablica kontyngencji | Prezentacja warunkowych rozkładów par cech dla zmiennych, z których co najmniej jedna jest na skali nominalnej. |
Rozkłady brzegowe, rozkłady warunkowe | Y-wiersze -> ostatnia kolumna RB-Y. X-kolumny -> ost. wiersz RB-X. W środku rozkłady warunkowe YiXj. |
Wartości/liczebności oczekiwane | Wartości teo które pojawiłyby się w tablicy kontyngencji, gdyby pomiędzy analizowanymi zmiennymi nie było związku. Wyliczamy proporcje udziału w próbie osób i odpowiedzi określonego rodzaju i mnożymy przez liczbę wszystkich osób/odpowiedzi. |
Liczebności obserwowane/empiryczne | Wartości, które mamy w tablicy kontyngencji po przeprowadzeniu badania. |
Miarą siły związku między zmiennymi, z których co najmniej jedna jest nominalna jest... Kiedy związek większy? Jaki to wskaźnik? | ... stopień rozbieżności między liczebnościami oczekiwanymi i liczebnościami empirycznymi. Im większa rozbieżność, tym większy związek. |
Jaka statystyka mierzy stopien rozbieżności między liczebnościami oczekiwanymi a liczebnościami empirycznymi? Kiedy mówi nam ona, że nie ma związku? Jakie może przyjmować wartości? | Chi kwadrat (X.kw). Brak związku to Chi kwadrat = 0, Przyjmuje wartości od 0 do +nieskończoność. |
Czym jest Fi Yula? Jakie przyjmuje wartości? | Wskaźnikiem kontyngencji opartym na statystyce Chi kwadrat. Mierzy siłę związku gdy obie korelowane zmienne sa nominalne i dychotomiczne. Przyjmuje wartości o 0 (brak zw) do 1 lub -1 (zw doskonały). |
Test istotności różnic | Pozwala sprawdzić hipotezę, czy dana cecha różnicuje wybrane populacje. |
Kryteria wyboru testu istotności różnic (4). | Skala na jakiej zmierzono cechę. Charakter porównywanych grup (zależne vs niezależne). Liczba porównywanych grup. Liczebność porównywanych grup. |
Testy parametryczne a testy nieparametryczne | Parametryczne: dla skal ilościowych (porównują parametry populacyjne: średnie i wariancje). Nieparametryczne: dla skal nominalnych (porównoują liczebności lub częstości) i porządkowych (porównnują rangi). |
Grupy zależne vs grupy niezależne | Czy każda z grup została wybrana w sposób niezalezny od innych, czy też wybór jednej z nich determinował to, kto się znalazł w pozostalych (dobór parami, pomiar powtarzany). |
Do czego służą testy post hoc? | Do wykonywania wielokrotnych porównań grup parami. |
Wielkość próby a wybór testu | duże n>30 statystyka z, małe n<=30 statystyka t, w testach dla danych nominalnych opartych na statystyce Chi kwadrat ważne są wartości oczekiwane w komórkach tablicy kontyngencji (>5). |
Co jeśli w w co najmniej jednej komórce tablicy kontyngencji wartość oczekiwana jest mniejsza lub równa 5? | Wprowadza się do testu poprawkę Yatesa na ciągłość lub zastępuje test Chi kwadrat testem dokładnego prawdopodobieństwa Fishera. |
Randomizacja | Losowe przydzielenie osób do gr. porównywczych. Zapewnia wyrównanie oddziaływania na zm.zal innych zm. niż zm.niezależ głowna, w tym zm. zakłócających. Brak zachowania zasady randomizacji czyni z badania eksperymentalnego badanie quasi-esperymentalne. |
Dodatkowe założenia przy parametrycznych testach istotności różnic | 1. Założenie o zgodności rozkładu zmiennej zależnej w porównywanych populacjach z rozkładem normalnym. 2. Założenie o homogeniczności wariancji w tych populacjach. |
Jak sprawdzamy zgodność rozkładu zmiennej zależnie w populacjach z rozkładem normalnym? | Testem Kołmogorowa-Smirnowa |
Jak sprawwdzamy homogeniczność (jednorodność) wariancji w populacjach? | Testem jednorodności wariancji Levene'a |
Etapy testowania istotności różnic | Zformułowanie hipotez statystycznych. Obliczenie statystyk testowych. Określenie obszaru odrzuceń dla hipotezy zerowej przy pomocy teoretycznego rozkładu prawdopodobieństwa. Podejmujemy decyzje. |
Hipoteza zerowa. Hipoteza robocza (alternatywna). | Brak różnicy między populacjami (ludzi ze wsi i ludzi z miasta). Jest różnica między populacjami. |
Hipoteza kierunkowa. Hipoteza bezkierunkowa | Ludzie ze wsi są wyżsi niż ludzie z miasta. Istnieje różnica we wzroście między ludźmi ze wsi a ludźmi z miasta. |
Jednostronna vs dwustronna hipoteza alternatywna | Kot jest większy od mysz. Kot jest innej wielkości niż mysz. |
Co sprawdzają: test t, test U Manna-Whitneya, test niezależności chi-kwadrat. | T - czy istnieje różnica pomiędzy śr wartością cechy w jednej i drugiej pop. U M-W - czy rozkład rang cechy w jednej pop jest przesunięty w stosunku do rozkładu rang tej samej cechy w drugiej. Chi - brak/istnienie różnic między licz. oczekiw a obser. |
Statystyki dla testów: T, U Manna-Whitneya, niezalezności chi-kwadrat. | T- rozkład statystyki t-Studenta, U - rozkład statystyki U, Chi - rozkład statystyki chi-kwadrat |
Cechy rozkładu chi-kwadrat | Od 0 do + nieskończoność. Rozkład niesymetryczny. Ma stopnie swobody df. |