Słownik
AGFI (Analiza SEM)
AGFI (Adjusted Goodness-of-Fit Index) to wskaźnik dopasowania modelu w analizie SEM (Modelowanie Równań Strukturalnych). Jest to poprawiona wersja GFI (Goodness-of-Fit Index), która uwzględnia liczbę zmiennych w modelu, co pozwala na bardziej rzetelną ocenę dopasowania. AGFI bierze pod uwagę stopień swobody modelu, dzięki czemu daje bardziej konserwatywną ocenę jego jakości w porównaniu do GFI. Wartości AGFI mieszczą się w przedziale od 0 do 1, gdzie wartości bliższe 1 oznaczają lepsze dopasowanie modelu do danych.
Alfa Cronbacha
Alfa Cronbacha to współczynnik używany do oceny rzetelności (wewnętrznej spójności) testu psychometrycznego. Jest to najczęściej stosowana miara określająca stopień zgodności między elementami skali mierzącej tę samą cechę. Wartości alfa Cronbacha mieszczą się w przedziale od 0 do 1, gdzie:
Wartość powyżej 0,9 oznacza bardzo wysoką rzetelność,
Wartość między 0,8 a 0,9 oznacza dobrą rzetelność,
Wartość między 0,7 a 0,8 jest akceptowalna,
Wartość poniżej 0,6 może wskazywać na słabą spójność wewnętrzną skali.
Niska alfa Cronbacha może sugerować, że test zawiera pytania niezwiązane ze sobą lub że liczba pytań jest zbyt mała.
AMOS
AMOS (Analysis of Moment Structures) to oprogramowanie statystyczne używane do analizy SEM (Modelowanie Równań Strukturalnych). Pozwala na budowanie i testowanie modeli równań strukturalnych, a także ocenę zależności między zmiennymi latentnymi (ukrytymi) i obserwowalnymi. AMOS jest szczególnie popularne w psychologii i naukach społecznych, ponieważ umożliwia łatwą wizualizację modeli za pomocą diagramów ścieżkowych.
Analiza częstości
Analiza częstości (frequency analysis) to technika statystyczna pozwalająca określić, jak często występują określone wartości danej zmiennej w zbiorze danych. Jest szczególnie przydatna przy analizie danych jakościowych i dyskretnych. Wyniki analizy często przedstawia się w postaci tabel częstości, wykresów słupkowych lub histogramów. Analiza częstości jest podstawowym narzędziem eksploracyjnej analizy danych (EDA), umożliwiającym szybkie wykrycie anomalii i wzorców w danych.
Analiza czynnikowa
Analiza czynnikowa to metoda statystyczna wykorzystywana do identyfikacji ukrytych zmiennych (czynników), które wyjaśniają zależności między wieloma obserwowanymi zmiennymi. Wyróżnia się dwa główne typy analizy czynnikowej:
Eksploracyjna analiza czynnikowa (EFA) – stosowana, gdy badacz nie ma wcześniejszych założeń co do liczby czynników i ich struktury.
Konfirmacyjna analiza czynnikowa (CFA) – stosowana, gdy badacz chce sprawdzić, czy dane pasują do wcześniej określonego modelu czynnikowego.
Analiza czynnikowa jest szeroko stosowana w psychometrii, naukach społecznych oraz w analizie danych rynkowych.
Analiza dyskryminacyjna
Analiza dyskryminacyjna (Discriminant Analysis) to technika statystyczna stosowana do klasyfikacji obiektów do jednej z wcześniej określonych grup na podstawie zbioru zmiennych predykcyjnych. Jest wykorzystywana do przewidywania przynależności do grupy w oparciu o wartości zmiennych niezależnych. Wyróżnia się dwie główne odmiany analizy dyskryminacyjnej:
Liniowa analiza dyskryminacyjna (LDA) – zakłada, że grupy mają jednakowe macierze kowariancji,
Kwadratowa analiza dyskryminacyjna (QDA) – pozwala na różne macierze kowariancji w różnych grupach.
Analiza dyskryminacyjna znajduje zastosowanie m.in. w medycynie (diagnozowanie chorób na podstawie zmiennych klinicznych), finansach (ocena zdolności kredytowej klientów) oraz naukach społecznych.
Analiza kontrastów
Analiza kontrastów to metoda statystyczna stosowana w analizie wariancji (ANOVA) do porównywania wybranych grup eksperymentalnych poprzez testowanie specyficznych hipotez. W przeciwieństwie do standardowego testu ANOVA, który bada jedynie ogólne różnice między grupami, analiza kontrastów umożliwia precyzyjne sprawdzenie różnic między konkretnymi parami grup lub określonymi kombinacjami grup. Najczęściej stosowane kontrasty to:
Kontrasty ortogonalne – niezależne od siebie, pozwalają na testowanie wielu hipotez jednocześnie,
Kontrasty zaplanowane – definiowane przed analizą danych,
Kontrasty post-hoc – stosowane po uzyskaniu istotnych wyników ANOVA.
Analiza kontrastów pozwala na bardziej szczegółową interpretację wyników badań eksperymentalnych.
Analiza kowariancji (ANCOVA)
Analiza kowariancji (ANCOVA) to metoda statystyczna łącząca analizę wariancji (ANOVA) i analizę regresji. Umożliwia porównywanie średnich wartości zmiennej zależnej między grupami, jednocześnie kontrolując wpływ jednej lub więcej zmiennych współzmiennych (kowariantów). ANCOVA pozwala na:
– eliminację wpływu zmiennych zakłócających,
– zwiększenie precyzji w porównywaniu grup,
– lepszą interpretację efektów eksperymentalnych.
Jest szeroko stosowana w badaniach eksperymentalnych i quasi-eksperymentalnych, zwłaszcza w psychologii, medycynie i naukach społecznych.
Analiza skupień
Analiza skupień (Cluster Analysis) to technika statystyczna stosowana do grupowania obiektów na podstawie podobieństwa ich cech. Metoda ta nie wymaga wcześniejszego przypisania obiektów do określonych grup, co czyni ją narzędziem eksploracyjnym. Wyróżnia się dwa główne podejścia:
Hierarchiczna analiza skupień – obiekty są łączone w coraz większe grupy lub dzielone na coraz mniejsze klastry,
Niehierarchiczna analiza skupień – np. metoda k-średnich, gdzie liczba klastrów jest ustalana z góry.
Analiza skupień jest wykorzystywana w marketingu (segmentacja klientów), biologii (klasyfikacja gatunków) oraz analizie danych (grupowanie podobnych rekordów).
ANOVA (Analiza wariancji)
ANOVA (Analysis of Variance) to metoda statystyczna stosowana do porównywania średnich wartości w więcej niż dwóch grupach. Analiza wariancji określa, czy istnieją istotne różnice między grupami, ale nie wskazuje, które grupy się różnią. Istnieją różne rodzaje ANOVA:
Jednoczynnikowa ANOVA – porównuje średnie między grupami jednej zmiennej niezależnej,
Dwuczynnikowa ANOVA – bada efekt dwóch zmiennych niezależnych oraz ich interakcję,
ANOVA z powtarzanymi pomiarami – stosowana, gdy te same jednostki są badane w różnych warunkach.
ANOVA znajduje zastosowanie w badaniach eksperymentalnych i klinicznych, analizach rynkowych oraz psychometrii.
APA (Amerykańskie Towarzystwo Psychologiczne)
APA (American Psychological Association) to organizacja naukowa zajmująca się standardami w psychologii. Znana jest przede wszystkim ze stworzenia systemu cytowania i formatowania prac naukowych – stylu APA. Wymogi stylu APA obejmują:
– sposób cytowania źródeł w tekście,
– formatowanie tabel i wykresów,
– standardy dotyczące struktury prac naukowych,
– reguły dotyczące rzetelności i etyki badań.
Styl APA jest szeroko stosowany w psychologii, naukach społecznych i medycynie.
Autokorelacja
Autokorelacja to zjawisko występujące w analizie szeregów czasowych, polegające na tym, że wartości zmiennej w określonym momencie są skorelowane z jej wcześniejszymi wartościami. Wysoka autokorelacja może prowadzić do błędnych wniosków w modelach regresyjnych. Do wykrywania autokorelacji stosuje się m.in. test Durbina-Watsona. Autokorelacja jest kluczowa w ekonomii, meteorologii i analizie finansowej.
AVE (Średnia wyjaśniona wariancja w SEM)
AVE (Average Variance Extracted) to wskaźnik stosowany w modelowaniu równań strukturalnych (SEM), który mierzy trafność konwergencyjną danego konstruktu. AVE oblicza, jaka część wariancji zmiennych obserwowanych jest wyjaśniana przez daną zmienną latentną. Wartości AVE powyżej 0,5 sugerują, że model dobrze wyjaśnia zmienność danej konstrukcji.
B (Niestandaryzowany współczynnik regresji)
B to niestandaryzowany współczynnik regresji w analizie regresji liniowej. Określa on, jak bardzo zmienia się wartość zmiennej zależnej przy jednostkowej zmianie zmiennej niezależnej, przy założeniu, że pozostałe zmienne w modelu są stałe. Współczynnik B prezentuje wpływ zmiennej w jednostkach oryginalnej skali, co oznacza, że wartości mogą być trudne do bezpośredniego porównania między różnymi modelami.
Beta (Standaryzowany współczynnik regresji)
Beta (β) to standaryzowany współczynnik regresji, który określa siłę i kierunek wpływu zmiennej niezależnej na zmienną zależną, ale w jednostkach standaryzowanych. Dzięki standaryzacji umożliwia porównywanie wpływu różnych predyktorów w ramach jednego modelu regresji. Im wyższa wartość beta (w wartościach bezwzględnych), tym większy wpływ danej zmiennej na zmienną zależną.
Big Data
Big Data odnosi się do ogromnych zbiorów danych o dużej objętości, szybkości generowania i różnorodności, których analiza wymaga zaawansowanych metod statystycznych i technologicznych. Big Data znajduje zastosowanie w biznesie, medycynie, finansach, naukach społecznych i wielu innych dziedzinach. Kluczowe technologie związane z Big Data obejmują algorytmy uczenia maszynowego, eksplorację danych (data mining) oraz przetwarzanie równoległe w chmurze obliczeniowej.
Biostatystyka
Biostatystyka to gałąź statystyki stosowanej w naukach biologicznych i medycznych. Służy do analizy danych pochodzących z badań klinicznych, epidemiologicznych i genetycznych. W biostatystyce stosuje się metody analizy przeżycia (np. analiza Kaplana-Meiera), testy statystyczne dla danych medycznych oraz modelowanie regresji logistycznej w celu przewidywania ryzyka chorób. Biostatystyka jest kluczowa dla podejmowania decyzji opartych na dowodach w medycynie i zdrowiu publicznym.
Błąd pierwszego rodzaju (α)
Błąd pierwszego rodzaju (Type I Error) polega na odrzuceniu hipotezy zerowej, gdy jest ona w rzeczywistości prawdziwa. Innymi słowy, jest to fałszywie pozytywny wynik testu statystycznego. Wartość błędu pierwszego rodzaju jest określana przez poziom istotności (α), który zazwyczaj wynosi 0,05, co oznacza, że istnieje 5% szans na popełnienie tego błędu.
Błąd drugiego rodzaju (β)
Błąd drugiego rodzaju (Type II Error) występuje, gdy badacz nie odrzuca hipotezy zerowej, mimo że jest ona fałszywa. Oznacza to, że test statystyczny nie wykrył efektu, który faktycznie istnieje. Prawdopodobieństwo popełnienia błędu drugiego rodzaju jest oznaczane jako β, a jego odwrotność (1 – β) to moc testu statystycznego, która wskazuje zdolność testu do wykrycia rzeczywistych efektów.
Bootstrap
Bootstrap to metoda statystyczna wykorzystywana do estymacji przedziałów ufności i testowania hipotez poprzez wielokrotne próbkowanie z zastępowaniem. Technika ta pozwala na uzyskanie rozkładu statystyki bez konieczności zakładania konkretnego kształtu rozkładu populacji. Bootstrap jest szczególnie użyteczny w przypadku małych zbiorów danych oraz w analizie niestandardowych miar statystycznych.
Brak danych (Missing Data)
Brak danychto sytuacja, w której niektóre wartości w zbiorze danych nie zostały zarejestrowane lub są niedostępne. Może to wynikać z błędów pomiarowych, problemów technicznych lub nieodpowiedzi respondentów. Wyróżnia się trzy główne mechanizmy braków danych:
MCAR (Missing Completely at Random) – brak danych całkowicie losowy,
MAR (Missing at Random) – brak danych losowy w zależności od zaobserwowanych zmiennych,
MNAR (Missing Not at Random) – brak danych zależny od wartości brakującej zmiennej.
Brakujące dane można obsługiwać poprzez imputację wartości, usunięcie obserwacji lub zastosowanie metod opartych na modelowaniu statystycznym.
Centracja
Centracja to operacja matematyczna polegająca na przekształceniu wartości zmiennej poprzez odjęcie jej średniej. Stosuje się ją w analizie statystycznej w celu zmniejszenia współliniowości między zmiennymi oraz ułatwienia interpretacji wyników, np. w analizie regresji. Centracja zmienia wartości zmiennej, ale nie wpływa na jej rozkład.
Centralne twierdzenie graniczne
Centralne twierdzenie graniczne (CTG) to fundamentalna zasada statystyki mówiąca, że suma (lub średnia) dużej liczby niezależnych zmiennych losowych o dowolnym rozkładzie dąży do rozkładu normalnego. Ma to kluczowe znaczenie dla estymacji i testowania hipotez, ponieważ pozwala na stosowanie metod opartych na rozkładzie normalnym nawet w sytuacjach, gdy populacja nie jest normalnie rozkładowa.
CFI (Comparative Fit Index)
CFI to wskaźnik dopasowania modelu w analizie SEM (Modelowanie Równań Strukturalnych). Porównuje on badany model z modelem bazowym, oceniając, jak dobrze model teoretyczny odzwierciedla dane empiryczne. Wartości CFI powyżej 0,90 uznaje się za wskazujące na dobre dopasowanie modelu.
Chi-kwadrat (Test niezależności)
Test chi-kwadrat to test statystyczny służący do oceny zależności między dwiema zmiennymi jakościowymi. Wykorzystuje się go w analizie tabel kontyngencji w celu sprawdzenia, czy istnieje statystycznie istotny związek między kategoriami zmiennych. Im wyższa wartość statystyki chi-kwadrat, tym większe prawdopodobieństwo, że zmienne są ze sobą powiązane.
Data Mining (Eksploracja Danych)
Data mining to proces analizy dużych zbiorów danych w celu odkrycia ukrytych wzorców, zależności i struktur. Wykorzystuje zaawansowane algorytmy statystyczne, uczenie maszynowe oraz techniki sztucznej inteligencji do ekstrakcji wartościowych informacji z surowych danych. Data mining stosuje się w finansach, medycynie, marketingu oraz e-commerce do przewidywania zachowań użytkowników, optymalizacji działań biznesowych i analizy ryzyka.
Dominanta (Moda)
Dominanta, inaczej moda, to wartość w zbiorze danych, która występuje najczęściej. Może być stosowana zarówno w analizie danych nominalnych, porządkowych, jak i ilościowych. W przypadku rozkładów wielomodalnych można mieć więcej niż jedną dominantę.
Dummy Coding (Kodowanie Zero-Jedynkowe)
Dummy coding to metoda kodowania zmiennych nominalnych na potrzeby analiz statystycznych, takich jak regresja liniowa. Polega na przypisaniu wartości 0 i 1 do różnych kategorii zmiennej, co pozwala na uwzględnienie jej w modelu regresji jako zbioru zmiennych binarnych.
Efekt bezpośredni (Analiza Mediacji)
Efekt bezpośredni odnosi się do wpływu zmiennej niezależnej na zmienną zależną, który nie jest pośredniczony przez żadną zmienną mediującą. W analizie mediacji mierzy się go jako wpływ resztkowy po uwzględnieniu efektu pośredniego.
Efekt całkowity (Analiza Mediacji)
Efekt całkowity w analizie mediacji to suma efektu bezpośredniego oraz efektu pośredniego (mediowanego przez inne zmienne). Pozwala na ocenę, jak duży wpływ ma zmienna niezależna na zmienną zależną zarówno bezpośrednio, jak i poprzez mediatory.
Efekt główny
Efekt główny w analizie wariancji (ANOVA) oznacza wpływ pojedynczej zmiennej niezależnej na zmienną zależną, niezależnie od innych zmiennych. Efekty główne analizuje się w badaniach eksperymentalnych i quasi-eksperymentalnych.
Efekt interakcji
Efekt interakcji oznacza sytuację, w której wpływ jednej zmiennej niezależnej na zmienną zależną zależy od wartości innej zmiennej niezależnej. Oznacza to, że efekt jednej zmiennej może różnić się w zależności od poziomu drugiej zmiennej.
Efekt pośredni (Analiza Mediacji)
Efekt pośredni odnosi się do sytuacji, w której zmienna niezależna wpływa na zmienną zależną poprzez inną zmienną mediującą. Jest to kluczowy element analizy mediacji, umożliwiający ocenę mechanizmu oddziaływania.
Efekt szuflady
Efekt szuflady to zjawisko polegające na tym, że wyniki badań, które nie wykazują istotnych statystycznie efektów, nie są publikowane, co prowadzi do stronniczości publikacyjnej. Może prowadzić do przeszacowania rzeczywistej siły efektów w metaanalizach.
FMIN (Minimalna Funkcja Dopasowania w SEM)
FMIN to miara stosowana w modelowaniu równań strukturalnych (SEM), określająca stopień dopasowania modelu do danych. Jest to minimalizowana funkcja dopasowania, której wartość powinna być jak najniższa, aby wskazywać na dobrą zgodność modelu teoretycznego z rzeczywistymi danymi.
GFI (Goodness-of-Fit Index)
GFI to jeden z klasycznych wskaźników dopasowania modelu w SEM. Mierzy, jak dobrze model odzwierciedla strukturę danych. Wartości GFI powyżej 0,90 są uznawane za akceptowalne, a wartości powyżej 0,95 sugerują bardzo dobre dopasowanie.
Heterogeniczność wariancji
Heterogeniczność wariancji występuje, gdy wariancja zmiennej zależnej różni się w różnych grupach badanych obserwacji. Narusza to jedno z podstawowych założeń wielu testów statystycznych, takich jak ANOVA i regresja liniowa, co może prowadzić do błędnych wniosków. Do testowania heterogeniczności wariancji stosuje się m.in. test Levene’a.
Hipoteza zerowa i alternatywna
Hipoteza zerowa (H₀) zakłada brak efektu lub związku między zmiennymi i stanowi punkt odniesienia dla testów statystycznych. Hipoteza alternatywna (H₁) to przeciwstawna hipoteza, wskazująca na istnienie efektu lub związku. W analizie statystycznej celem jest ocena, czy istnieją wystarczające dowody na odrzucenie hipotezy zerowej.
Histogram
Histogram to rodzaj wykresu przedstawiającego rozkład zmiennej ilościowej poprzez grupowanie wartości w przedziały (klasy) i przedstawianie ich częstości w postaci prostokątów. Jest powszechnie stosowany w statystyce opisowej do wizualizacji rozkładu danych.
Homogeniczność wariancji
Homogeniczność wariancji oznacza, że wariancja zmiennej zależnej jest stała w różnych grupach badanych. Jest to jedno z kluczowych założeń testów parametrycznych, takich jak ANOVA i regresja liniowa.
Indeksy modyfikacji (analiza SEM)
Indeksy modyfikacji to wartości używane w Modelowaniu Równań Strukturalnych (SEM) w celu wskazania, które poprawki do modelu mogą zwiększyć jego dopasowanie do danych. Indeks modyfikacji określa, jak bardzo wartość dopasowania (np. chi-kwadrat) zmieniłaby się, gdyby dany parametr został uwzględniony w modelu. Wysokie wartości indeksów modyfikacji mogą sugerować potrzebę dodania nowych ścieżek lub uwzględnienia korelacji między błędami pomiarowymi. Jednak ich stosowanie wymaga ostrożności, ponieważ nadmierne dopasowywanie modelu do konkretnego zestawu danych może prowadzić do jego nadmiernej specyficzności i utraty zdolności do generalizacji.
Interakcja zmiennych
Interakcja zmiennych to sytuacja, w której efekt jednej zmiennej na zmienną zależną zależy od wartości innej zmiennej. W modelach statystycznych, takich jak analiza regresji, interakcja między zmiennymi oznacza, że ich wpływ na wynik nie jest addytywny, lecz zależy od ich kombinacji. Przykładem może być sytuacja, gdy wpływ poziomu stresu na wydajność pracy zależy od poziomu wsparcia społecznego – jeśli wsparcie jest wysokie, stres może mieć mniejszy negatywny wpływ. Interakcje są modelowane poprzez dodanie do równania regresji iloczynu zmiennych predyktorowych.
Ipsatyzacja
Ipsatyzacja to technika normalizowania wyników testów psychometrycznych w taki sposób, aby wyniki różnych osób były porównywane względem ich własnych odpowiedzi, a nie względem odpowiedzi innych respondentów. Oznacza to, że sumaryczny wynik osoby w teście pozostaje stały, a zmiany zachodzą jedynie w relatywnym rozkładzie odpowiedzi między kategoriami. Ipsatyzacja jest stosowana w testach oceny kompetencji i osobowości, ale jej wadą jest brak możliwości porównywania wyników między różnymi osobami, co ogranicza jej zastosowanie w analizach statystycznych opartych na porównaniach grupowych.
Jamovi
Jamovi to darmowe oprogramowanie do analizy danych statystycznych oparte na języku R. Jest przeznaczone zarówno dla badaczy, jak i dla osób początkujących w analizie statystycznej, oferując intuicyjny interfejs graficzny oraz bogaty zestaw narzędzi statystycznych. Jamovi umożliwia przeprowadzanie analiz opisowych, testów istotności, analiz regresyjnych i modelowania równań strukturalnych. Jego zaletą jest otwartość na rozszerzenia (moduły) oraz możliwość bezpośredniej integracji z językiem R, co czyni go elastycznym narzędziem dla statystyków i naukowców.
JASP
JASP to darmowe oprogramowanie statystyczne, które oferuje szeroki zakres testów statystycznych i analiz, w tym podejście bayesowskie. Jest alternatywą dla SPSS i podobnych programów, oferując łatwy w obsłudze interfejs oraz integrację z językiem R. JASP jest szczególnie popularny wśród badaczy preferujących otwarte oprogramowanie, ponieważ umożliwia przeprowadzanie analiz zarówno w podejściu częstościowym, jak i bayesowskim, co daje użytkownikom większą elastyczność w interpretacji wyników.
K-M-O i test sferyczności Bartletta
Współczynnik Kaisera-Meyera-Olkina (KMO) i test sferyczności Bartletta to dwie metody oceny adekwatności analizy czynnikowej. Współczynnik KMO określa, czy dane nadają się do analizy czynnikowej, przy czym wartości powyżej 0,6 uznaje się za akceptowalne, a powyżej 0,8 za bardzo dobre. Test sferyczności Bartletta sprawdza, czy korelacje między zmiennymi są wystarczająco silne, aby uzasadniać zastosowanie analizy czynnikowej. Jeśli wynik testu jest istotny statystycznie, oznacza to, że zmienne nie są niezależne i analiza czynnikowa jest zasadna.
Kanon jednej różnicy
Kanon jednej różnicy to zasada wnioskowania przyczynowego, sformułowana jako metoda identyfikacji związków przyczynowo-skutkowych. Głosi, że jeśli dwa przypadki różnią się tylko jedną cechą, a skutek występuje w jednym, ale nie w drugim przypadku, to ta cecha może być uznana za przyczynę skutku. Metoda ta jest stosowana w badaniach eksperymentalnych do identyfikowania związków przyczynowo-skutkowych.
Korelacja
Korelacja to miara zależności między dwiema zmiennymi. Współczynnik korelacji określa stopień, w jakim zmiany jednej zmiennej są związane ze zmianami drugiej. Wartości bliskie 1 oznaczają silną korelację dodatnią, bliskie -1 silną korelację ujemną, a wartości bliskie 0 brak korelacji.
Korelacja cząstkowa
Korelacja cząstkowa to współczynnik korelacji obliczony po wyeliminowaniu wpływu jednej lub więcej zmiennych kontrolnych. Pokazuje, jaka jest rzeczywista zależność między dwiema zmiennymi po usunięciu efektów innych zmiennych zakłócających. Jest wykorzystywana w analizach regresji i statystyce wielowymiarowej.
Korelacja Pearsona
Korelacja Pearsona to miara liniowej zależności między dwiema zmiennymi ilościowymi. Przyjmuje wartości od -1 do 1, gdzie 1 oznacza idealną dodatnią zależność liniową, -1 idealną ujemną, a 0 brak korelacji. Jest szeroko stosowana w analizach statystycznych do oceny siły i kierunku związku między zmiennymi.
Korelacja pozorna
Korelacja pozorna to sytuacja, w której dwie zmienne wydają się być ze sobą skorelowane, ale ich związek wynika z wpływu trzeciej zmiennej. Przykładem może być pozorna zależność między spożyciem lodów a liczbą utonięć – w rzeczywistości obie zmienne są powiązane ze wspólnym czynnikiem, jakim jest temperatura.
Korelacja semicząstkowa
Korelacja semicząstkowa mierzy związek między dwiema zmiennymi po usunięciu wpływu trzeciej zmiennej tylko z jednej z nich. Jest stosowana w analizach regresyjnych do oceny unikalnego wpływu danej zmiennej na wynikową zmienną zależną.
Kowariancja
Kowariancja to miara zależności liniowej między dwiema zmiennymi. Określa, w jakim stopniu zmienne zmieniają się wspólnie. Wartość dodatnia oznacza, że wzrost jednej zmiennej wiąże się ze wzrostem drugiej, a wartość ujemna – że wzrost jednej zmiennej wiąże się ze spadkiem drugiej. Kowariancja jest używana w analizach statystycznych, ale jej interpretacja zależy od skali pomiarowej, dlatego często normalizuje się ją do postaci współczynnika korelacji.
Kryterium procenta wyjaśnianej wariancji
Kryterium procenta wyjaśnianej wariancji to metoda określania liczby istotnych czynników w analizie czynnikowej i analizie głównych składowych. Polega na wyborze takiej liczby czynników, które razem wyjaśniają ustalony procent całkowitej wariancji zmiennych. Typowe progi to 60% lub 70%, jednak wartości te zależą od dziedziny badawczej i akceptowanych standardów.
Krzywa ROC
Krzywa ROC (Receiver Operating Characteristic) to wykres przedstawiający skuteczność klasyfikatora binarnego. Na osi poziomej (X) znajduje się odsetek fałszywie pozytywnych wyników (1-specyficzność), a na osi pionowej (Y) czułość (True Positive Rate). Im bardziej krzywa zbliża się do górnego lewego rogu wykresu, tym lepszy jest model. Wartość pola pod krzywą ROC (AUC – Area Under Curve) określa jakość klasyfikatora – im wyższa wartość, tym lepsza skuteczność modelu.
Kurtoza
Kurtoza to miara opisująca kształt rozkładu zmiennej, określająca, czy wartości są skoncentrowane wokół średniej czy występują w większych odchyleniach. Rozróżnia się trzy typy kurtozy: leptokurtyczny (ostry szczyt, długi ogon), mezokurtyczny (kształt podobny do rozkładu normalnego) i platykurtyczny (spłaszczony rozkład). Wartość kurtozy ma znaczenie w analizie normalności rozkładu i może wpływać na wyniki testów statystycznych.
Kwartyle
Kwartyle to wartości dzielące uporządkowany zbiór danych na cztery równe części. Wyróżniamy:
– Pierwszy kwartyl (Q1) – wartość poniżej której znajduje się 25% obserwacji,
– Mediana (Q2) – środkowa wartość zbioru danych,
– Trzeci kwartyl (Q3) – wartość poniżej której znajduje się 75% obserwacji.
Kwartyle są stosowane w analizach opisowych do oceny rozkładu danych i wykrywania obserwacji odstających.
Ładunek czynnikowy
Ładunek czynnikowy to współczynnik określający, w jakim stopniu dana zmienna jest powiązana z czynnikiem w analizie czynnikowej. Wysoka wartość oznacza silny związek, natomiast niska sugeruje słabe powiązanie. Ładunki czynnikowe pomagają w interpretacji struktury czynnikowej i przypisaniu zmiennych do odpowiednich czynników.
Linia najlepszego dopasowania
Linia najlepszego dopasowania (linia regresji) to prosta, która najlepiej opisuje zależność między zmiennymi w analizie regresji. Jest wyznaczana metodą najmniejszych kwadratów, tak aby suma kwadratów odległości punktów danych od linii była minimalna. Linia ta umożliwia przewidywanie wartości zmiennej zależnej na podstawie wartości zmiennej niezależnej i pomaga analizować trend w danych.
Macierz modelowa
Macierz modelowa to reprezentacja danych używana w analizach statystycznych, szczególnie w modelowaniu regresyjnym i analizie wariancji. Zawiera wartości predyktorów oraz ich kombinacje, które są używane do estymacji parametrów modelu. Struktura macierzy zależy od wybranego modelu i jego składowych.
Macierz struktury
Macierz struktury to tablica przedstawiająca zależności między zmiennymi a czynnikami w analizie czynnikowej. Pokazuje korelacje między obserwowanymi zmiennymi a czynnikami, co pozwala określić, które zmienne są najbardziej powiązane z danym czynnikiem i pomaga w interpretacji wyników analizy czynnikowej.
Manipulacja eksperymentalna
Manipulacja eksperymentalna to celowe wprowadzanie zmian w warunkach eksperymentalnych w celu obserwacji wpływu tych zmian na zmienną zależną. Stosowana jest w badaniach eksperymentalnych, aby określić związki przyczynowo-skutkowe. Kluczowe jest, aby manipulacja była dobrze kontrolowana i losowa, aby uniknąć błędów wynikających z czynników zakłócających.
Mediacja (analiza mediacji)
Mediacja to analiza statystyczna służąca do badania, czy efekt jednej zmiennej na drugą jest pośredniczony przez trzecią zmienną (mediator). Jeśli zmienna niezależna wpływa na mediatora, a mediator na zmienną zależną, można mówić o mediacji. Wyróżnia się:
– Mediację całkowitą – gdy mediator całkowicie tłumaczy związek między zmiennymi,
– Mediację częściową – gdy mediator częściowo tłumaczy ten związek.
Analiza mediacji jest szeroko stosowana w psychologii, naukach społecznych i ekonomii.
Mediana
Mediana to wartość środkowa uporządkowanego zbioru danych. Dzieli zbiór na dwie równe części, w których znajduje się po 50% obserwacji. W przypadku zbioru z nieparzystą liczbą obserwacji mediana to środkowy element, a w przypadku parzystej liczby – średnia dwóch środkowych wartości. Jest bardziej odporna na wartości odstające niż średnia arytmetyczna i jest powszechnie stosowana w analizie statystycznej.
Metaanaliza
Metaanaliza to metoda statystyczna polegająca na łączeniu wyników wielu niezależnych badań na ten sam temat w celu uzyskania bardziej precyzyjnych i uogólnionych wniosków. Metaanaliza pozwala na ocenę efektu globalnego i identyfikację zmiennych moderujących.
Metoda asymptotycznie wolna od rozkładu (ADF)
Metoda asymptotycznie wolna od rozkładu (Asymptotically Distribution-Free, ADF) to technika estymacji w modelowaniu równań strukturalnych (SEM), która nie zakłada normalności rozkładu danych. Jest stosowana w sytuacjach, gdy dane wykazują znaczne odchylenia od normalności, co mogłoby wpłynąć na poprawność wyników standardowych metod estymacji.
Metoda Cattella
Metoda Cattella, znana również jako test osypiska (scree test), służy do określenia liczby istotnych czynników w analizie czynnikowej. Polega na analizie wykresu wartości własnych, gdzie nagły spadek wartości (punkt załamania) wskazuje liczbę czynników, które powinny być uwzględnione w modelu.
Metoda eliminacji wstecznej (analiza regresji)
Metoda eliminacji wstecznej to technika selekcji zmiennych w analizie regresji, polegająca na stopniowym usuwaniu najmniej istotnych predyktorów. Proces ten trwa do momentu, gdy pozostaną jedynie zmienne istotne statystycznie, co pozwala na uproszczenie modelu i zwiększenie jego interpretowalności.
Metoda głównych składowych (analiza czynnikowa)
Metoda głównych składowych (Principal Component Analysis, PCA) to technika redukcji wymiarowości danych, której celem jest transformacja oryginalnych zmiennych na nowy zestaw zmiennych (główne składowe), które wyjaśniają jak największą część wariancji w danych. Jest często stosowana w analizie eksploracyjnej i wizualizacji wielowymiarowych danych.
Metoda Kaisera
Metoda Kaisera to sposób określania liczby istotnych czynników w analizie czynnikowej, polegający na zachowaniu tylko tych czynników, których wartości własne są większe od 1. Kryterium to jest powszechnie stosowane, ale może prowadzić do zawyżenia liczby istotnych czynników.
Metoda krokowa (analiza regresji)
Metoda krokowa to technika selekcji zmiennych w analizie regresji, polegająca na stopniowym dodawaniu lub usuwaniu predyktorów na podstawie ich istotności statystycznej. Celem jest znalezienie najlepszego zestawu zmiennych wyjaśniających zależność między predyktorami a zmienną zależną.
Metoda najmniejszych kwadratów
Metoda najmniejszych kwadratów (OLS – Ordinary Least Squares) to podstawowa metoda estymacji parametrów w regresji liniowej. Polega na minimalizacji sumy kwadratów różnic między wartościami rzeczywistymi a przewidywanymi przez model, co pozwala na znalezienie najlepszej linii regresji dopasowanej do danych.
Metoda największej wiarygodności
Metoda największej wiarygodności (Maximum Likelihood Estimation, MLE) to technika estymacji parametrów modelu, polegająca na znalezieniu wartości parametrów, które maksymalizują prawdopodobieństwo uzyskania zaobserwowanych danych. Jest szeroko stosowana w modelowaniu równań strukturalnych, statystyce bayesowskiej i analizach regresyjnych.
Metoda osi głównych
Metoda osi głównych (Principal Axis Factoring, PAF) to technika analizy czynnikowej, której celem jest identyfikacja ukrytych czynników odpowiadających za wzorce korelacji między zmiennymi. W przeciwieństwie do PCA, metoda ta koncentruje się na wyodrębnieniu tylko wspólnej wariancji zmiennych.
Metoda selekcji postępującej (analiza regresji)
Metoda selekcji postępującej to technika w analizie regresji, polegająca na dodawaniu kolejnych predyktorów do modelu, jeśli są istotne statystycznie. Proces ten jest kontynuowany, dopóki dodanie nowej zmiennej poprawia dopasowanie modelu.
Metoda uogólnionych najmniejszych kwadratów (GLS)
Metoda uogólnionych najmniejszych kwadratów (Generalized Least Squares, GLS) to technika estymacji parametrów w modelach regresyjnych stosowana w przypadku, gdy wariancja składnika losowego nie jest stała (heteroskedastyczność) lub występuje autokorelacja reszt.
Metoda usuwania (analiza regresji)
Metoda usuwania to technika selekcji zmiennych w analizie regresji, w której usuwa się wszystkie predyktory jednocześnie, a następnie ponownie wprowadza istotne zmienne, aby znaleźć optymalny model predykcyjny.
Metoda wprowadzania
Metoda wprowadzania (Enter) to sposób budowy modelu regresyjnego, w którym wszystkie wybrane zmienne są jednocześnie uwzględniane w modelu, niezależnie od ich poziomu istotności. Jest stosowana głównie wtedy, gdy badacz ma silne teoretyczne podstawy do uwzględnienia określonych predyktorów.
Moc testu
Moc testu statystycznego to prawdopodobieństwo wykrycia rzeczywistego efektu (odrzucenia hipotezy zerowej, gdy jest ona fałszywa). Wyższa moc oznacza większą zdolność testu do wykrycia istotnych różnic. Na moc testu wpływają wielkość próby, poziom istotności oraz wielkość efektu.
Moderacja
Moderacja to analiza, w której sprawdza się, czy związek między zmienną niezależną a zależną zmienia się w zależności od poziomu trzeciej zmiennej (moderatora). Moderacja jest często analizowana za pomocą interakcji w modelach regresyjnych.
NFI (analiza SEM)
NFI (Normed Fit Index) to wskaźnik dopasowania modelu w analizie SEM, który mierzy, jak dobrze model pasuje do danych w porównaniu z modelem bazowym. Wartości bliskie 1 wskazują na dobre dopasowanie.
NHST (podejście częstościowe)
NHST (Null Hypothesis Significance Testing) to klasyczne podejście do testowania hipotez statystycznych, polegające na porównaniu wartości p z ustalonym poziomem istotności (np. 0,05). Jeśli wartość p jest mniejsza od poziomu istotności, hipoteza zerowa zostaje odrzucona na rzecz hipotezy alternatywnej.
Normalizacja (psychometria)
Normalizacja w psychometrii to proces przekształcania wyników surowych testu na standaryzowaną skalę, umożliwiającą ich porównywanie między różnymi grupami lub osobami. Normalizacja może obejmować konwersję wyników na skale stenowe, staninowe, tenowe lub inne. Celem normalizacji jest ujednolicenie interpretacji wyników oraz ich odniesienie do populacji normatywnej.
Obiektywność (psychometria)
Obiektywność to jedna z podstawowych cech jakości narzędzi psychometrycznych, oznaczająca, że wyniki testu nie zależą od subiektywnych czynników związanych z badaczem lub osobą oceniającą. Obiektywność można osiągnąć poprzez precyzyjne instrukcje dotyczące przeprowadzania testu i jednolite kryteria oceny odpowiedzi.
Obserwacja odstająca
Obserwacja odstająca (outlier) to wartość w zbiorze danych, która znacznie różni się od pozostałych. Może być wynikiem błędu pomiarowego, specyficznych cech badanego zjawiska lub naturalnej zmienności. Obserwacje odstające mogą wpływać na statystyki opisowe, regresję i inne analizy statystyczne, dlatego często poddaje się je dodatkowej analizie przed podjęciem decyzji o ich uwzględnieniu lub usunięciu.
Odchylenie standardowe
Odchylenie standardowe to miara rozproszenia danych wokół średniej. Wskazuje, jak bardzo poszczególne obserwacje różnią się od średniej wartości zbioru. Niska wartość odchylenia standardowego oznacza, że dane są bardziej skupione wokół średniej, natomiast wysoka sugeruje duże zróżnicowanie wyników.
Odległość Cooka
Odległość Cooka to statystyka wykorzystywana w analizie regresji do identyfikowania obserwacji mających duży wpływ na dopasowanie modelu. Wysokie wartości odległości Cooka mogą sugerować, że dana obserwacja jest odstająca i znacząco zmienia parametry modelu.
Odległość Mahalanobisa
Odległość Mahalanobisa to miara odległości między punktem a centrum wielowymiarowego rozkładu, uwzględniająca kowariancję między zmiennymi. Jest stosowana do identyfikowania wartości odstających w zbiorach danych wielowymiarowych.
Open science
Open science (otwarta nauka) to ruch na rzecz transparentności i otwartości badań naukowych. Obejmuje praktyki takie jak otwarte udostępnianie danych, prerejestracja badań, otwarte recenzowanie i publikowanie wyników w wolnym dostępie. Celem open science jest zwiększenie wiarygodności badań oraz ułatwienie replikacji wyników.
Operacjonalizacja
Operacjonalizacja to proces definiowania pojęć teoretycznych w sposób umożliwiający ich empiryczne mierzenie. Polega na określeniu wskaźników, które mogą reprezentować abstrakcyjne konstrukty, np. poziom stresu mierzony za pomocą kwestionariusza czy poziom inteligencji poprzez test IQ.
P-hacking
P-hacking to praktyka manipulowania danymi i analizami statystycznymi w celu uzyskania istotnych statystycznie wyników (np. wartości p < 0,05). Może obejmować selektywne raportowanie wyników, testowanie wielu hipotez bez korekty błędu I rodzaju lub usuwanie obserwacji odstających bez uzasadnienia. P-hacking prowadzi do publikowania fałszywie pozytywnych wyników i obniża wiarygodność badań.[/et_pb_text][et_pb_text _builder_version="4.27.4" _module_preset="default" header_3_font="|700|||||||" header_3_line_height="1.4em" hover_enabled="0" global_colors_info="{}" sticky_enabled="0" custom_margin="||43px|||"]
PCFI (analiza SEM)
PCFI (Parsimony-Adjusted Comparative Fit Index) to wskaźnik dopasowania modelu w analizie SEM, który uwzględnia zarówno jakość dopasowania modelu, jak i jego prostotę. Jest modyfikacją CFI, biorącą pod uwagę liczbę swobód modelu, co sprawia, że modele o mniejszej liczbie parametrów są preferowane.
Percyntyl
Percyntyl to wartość dzieląca uporządkowany zbiór danych na części, określające procent obserwacji znajdujących się poniżej danej wartości. Na przykład 90. percentyl oznacza, że 90% wartości w zbiorze danych jest mniejszych lub równych tej wartości. Percyntyle są często stosowane w testach psychometrycznych i analizie wyników testów edukacyjnych.
PGFI (analiza SEM)
PGFI (Parsimony Goodness-of-Fit Index) to wskaźnik jakości dopasowania modelu w SEM, który uwzględnia jego złożoność. W odróżnieniu od innych indeksów dopasowania, PGFI karze modele o nadmiernej liczbie parametrów, preferując prostsze modele, które lepiej generalizują do nowych danych.
PNFI (analiza SEM)
PNFI (Parsimony-Adjusted Normed Fit Index) to wskaźnik dopasowania modelu strukturalnego, który podobnie jak PCFI i PGFI uwzględnia zarówno jakość dopasowania modelu, jak i jego prostotę. Wartości PNFI wahają się od 0 do 1, gdzie wyższe wartości wskazują na lepsze dopasowanie z uwzględnieniem parsymonii modelu.
Podejście Barona i Kenny’ego (analiza mediacji)
Podejście Barona i Kenny’ego to klasyczna metoda analizy mediacji, składająca się z trzech kroków: (1) sprawdzenia, czy zmienna niezależna wpływa na zależną, (2) czy zmienna niezależna wpływa na mediator, oraz (3) czy mediator wpływa na zmienną zależną przy kontroli zmiennej niezależnej. Jeśli związek między zmiennymi niezależną i zależną znika po uwzględnieniu mediatora, mamy do czynienia z mediacją pełną.
Podejście Cohen i Cohen (analiza mediacji)
Podejście Cohen i Cohen odnosi się do metod analizy mediacji i moderacji, wykorzystujących zaawansowane modele regresji wielokrotnej. Metody te pozwalają na testowanie interakcji między zmiennymi oraz na ocenę efektów pośredniczących w bardziej skomplikowanych układach zależności.
Podwójnie ślepa próba
Podwójnie ślepa próba to metoda eksperymentalna, w której ani badani, ani badacze nie wiedzą, kto otrzymuje rzeczywistą interwencję, a kto placebo. Taka procedura eliminuje wpływ oczekiwań uczestników i badaczy na wyniki eksperymentu, zwiększając jego wiarygodność.
Post-hoc
Analizy post-hoc to testy statystyczne wykonywane po przeprowadzeniu analizy wariancji (ANOVA), aby określić, między którymi grupami występują istotne różnice. Popularne testy post-hoc to m.in. test Tukeya, test Scheffégo i test Bonferroniego.
Poziom istotności (alfa)
Poziom istotności (alfa) to wartość graniczna, określająca prawdopodobieństwo popełnienia błędu I rodzaju (odrzucenie prawdziwej hipotezy zerowej). Najczęściej stosowane wartości alfa to 0,05 i 0,01. Im niższy poziom alfa, tym większa pewność wyników, ale jednocześnie większe ryzyko błędu II rodzaju (nieodrzucenie fałszywej hipotezy zerowej).
Pozycja odwrócona
Pozycja odwrócona to technika stosowana w kwestionariuszach psychometrycznych, polegająca na zadawaniu niektórych pytań w formie odwrotnej w celu wykrycia schematycznych odpowiedzi uczestników i poprawy rzetelności wyników.
Predyktor
Predyktor to zmienna niezależna używana do przewidywania wartości zmiennej zależnej w analizach statystycznych, takich jak regresja liniowa czy analiza dyskryminacyjna. Skuteczność predyktora ocenia się na podstawie siły jego związku ze zmienną zależną.
Prerejestracja badań
Prerejestracja badań to praktyka naukowa polegająca na wcześniejszym zgłoszeniu planu badania, hipotez i metod analizy, zanim zostaną zebrane dane. Ma na celu ograniczenie p-hackingu i zwiększenie transparentności badań naukowych.
Próba
Próba to podzbiór populacji, na podstawie którego dokonuje się wnioskowania statystycznego. Próba powinna być reprezentatywna, aby uzyskane wyniki mogły być generalizowane na całą populację.
Próba kwotowa
Próba kwotowa to metoda doboru próby w badaniach sondażowych, w której określone są kwoty dla poszczególnych kategorii badanych (np. według wieku, płci). Jest to metoda nielosowa, ale pozwala na uzyskanie próby odzwierciedlającej strukturę populacji.
Próba losowa
Próba losowa to metoda doboru uczestników badania, w której każdy element populacji ma równą szansę na wybór. Przykłady to losowanie prostego, warstwowe i losowanie zespołowe.
Przedział ufności
Przedział ufności to zakres wartości, w którym z określonym prawdopodobieństwem (np. 95%) znajduje się prawdziwa wartość parametru populacyjnego. Im szerszy przedział ufności, tym większa niepewność oszacowania.
PSPP
PSPP to darmowe oprogramowanie do analizy statystycznej, będące alternatywą dla SPSS. Obsługuje analizy opisowe, testy istotności, regresję i analizy wielowymiarowe. Jego zaletą jest otwartość, brak opłat licencyjnych oraz zgodność ze składnią SPSS.
Psychometria
Psychometria to dziedzina nauki zajmująca się pomiarem cech psychologicznych, takich jak inteligencja, osobowość czy zdolności. Obejmuje tworzenie testów psychologicznych, ich walidację oraz analizę rzetelności i trafności.
Pytanie kierunkowe
Pytanie kierunkowe to pytanie badawcze lub hipoteza, która zakłada określony kierunek zależności między zmiennymi (np. „Czy wyższy poziom stresu obniża wydajność w pracy?”). Stosowane w badaniach, gdy istnieją przesłanki teoretyczne sugerujące konkretną zależność.
Pytanie niekierunkowe
Pytanie niekierunkowe to pytanie badawcze, które nie zakłada konkretnego kierunku zależności między zmiennymi (np. „Czy istnieje związek między poziomem stresu a wydajnością w pracy?”). Używane w badaniach eksploracyjnych, gdy nie ma silnych podstaw teoretycznych do przewidzenia kierunku efektu.
R (język programowania)
R to język programowania i środowisko do analizy statystycznej oraz wizualizacji danych. Posiada szeroki zakres funkcji statystycznych, obsługuje modelowanie równań strukturalnych, regresję i analizy wielowymiarowe. Jest popularnym narzędziem wśród statystyków i analityków danych.
R-kwadrat (korelacja wielokrotna)
R-kwadrat to miara dopasowania modelu regresyjnego, określająca, jaka część wariancji zmiennej zależnej jest wyjaśniana przez zmienne niezależne. Wartości R² wahają się od 0 do 1, gdzie 1 oznacza, że model perfekcyjnie wyjaśnia wariancję zmiennej zależnej.
R-kwadrat skorygowany
R-kwadrat skorygowany to miara dopasowania modelu regresyjnego uwzględniająca liczbę predyktorów. Korekta eliminuje problem zawyżania wartości R² w modelach z wieloma zmiennymi, przez co jest bardziej wiarygodnym wskaźnikiem jakości modelu.
Rangowanie
Rangowanie to metoda porządkowania danych, w której wartości zmiennej przypisuje się numeryczne rangi w kolejności rosnącej lub malejącej. Stosowane w analizach nieparametrycznych, takich jak testy U Manna-Whitneya czy testy rangowane Wilcoxona.
Regresja hierarchiczna
Regresja hierarchiczna to metoda analizy regresji, w której zmienne niezależne są wprowadzane do modelu w określonych krokach, pozwalając na ocenę ich dodatkowego wkładu w wyjaśnienie wariancji zmiennej zależnej.
Regresja krzywoliniowa
Regresja krzywoliniowa to metoda regresji, która pozwala modelować nieliniowe zależności między zmiennymi. Wykorzystuje funkcje kwadratowe, sześcienne lub inne nieliniowe przekształcenia predyktorów.
Regresja liniowa
Regresja liniowa to metoda statystyczna służąca do modelowania zależności między zmienną zależną a jedną lub więcej zmiennymi niezależnymi. Jej celem jest znalezienie najlepszego dopasowania linii prostej do danych.
Regresja logistyczna
Regresja logistyczna to metoda analizy statystycznej stosowana do modelowania zależności między zmienną zależną o charakterze binarnym (np. tak/nie) a zestawem zmiennych niezależnych. Wynikiem modelu jest prawdopodobieństwo przynależności do jednej z dwóch kategorii.
Regresja prosta
Regresja prosta to podstawowa forma regresji liniowej, w której analizuje się zależność między jedną zmienną niezależną a jedną zmienną zależną. Model ma postać y = ax + b, gdzie x to predyktor, a y to zmienna zależna.
Regresja wieloraka
Regresja wieloraka to metoda regresji liniowej, w której analizuje się zależność zmiennej zależnej od dwóch lub więcej zmiennych niezależnych. Pozwala na uwzględnienie wielu predyktorów jednocześnie i ocenę ich wkładu w model.
Reguła trzech sigm
Reguła trzech sigm to zasada w statystyce mówiąca, że w rozkładzie normalnym około 99,7% obserwacji znajduje się w zakresie trzech odchyleń standardowych od średniej. Jest używana do identyfikacji wartości odstających w danych.
Rekodowanie
Rekodowanie to proces przekształcania danych, np. zmiany wartości zmiennych w celu ich dostosowania do analizy statystycznej. Może obejmować zmianę skali, grupowanie wartości lub kodowanie kategorii jako zmienne binarne.
Reprezentatywność próby
Reprezentatywność próby oznacza, że wybrana próba odzwierciedla cechy populacji, co pozwala na generalizację wyników badania. Kluczowe jest losowe dobieranie uczestników i uwzględnienie struktury demograficznej populacji.
Reszty regresji
Reszty regresji to różnice między wartościami obserwowanymi a przewidywanymi przez model regresyjny. Analiza reszt pomaga ocenić jakość modelu i wykryć potencjalne problemy, takie jak heteroskedastyczność czy autokorelacja.
RMSEA (analiza SEM)
RMSEA (Root Mean Square Error of Approximation) to wskaźnik dopasowania modelu w analizie SEM. Mierzy, jak dobrze model odzwierciedla strukturę danych. Niskie wartości (poniżej 0,05) wskazują na bardzo dobre dopasowanie, wartości między 0,05 a 0,08 są akceptowalne, natomiast wartości powyżej 0,10 sugerują słabe dopasowanie modelu.
Rotacja nieortogonalna (ukośna)
Rotacja nieortogonalna to metoda w analizie czynnikowej, która pozwala na korelację między czynnikami. W przeciwieństwie do rotacji ortogonalnej, umożliwia lepszą interpretację zmiennych w przypadku, gdy czynniki nie są od siebie niezależne. Popularne metody to Promax i Oblique.
Rotacja ortogonalna
Rotacja ortogonalna to technika w analizie czynnikowej, która zachowuje brak korelacji między czynnikami. Najczęściej stosowaną metodą jest rotacja VARIMAX, która maksymalizuje różnice między ładunkami czynnikowymi, ułatwiając interpretację czynników.
Rotacja VARIMAX
Rotacja VARIMAX to jedna z najczęściej używanych metod rotacji ortogonalnej w analizie czynnikowej. Minimalizuje liczbę wysokich i niskich ładunków czynnikowych dla każdej zmiennej, co prowadzi do prostszej interpretacji struktury czynnikowej.
Równoliczność grup
Równoliczność grup odnosi się do sytuacji w badaniach eksperymentalnych, gdzie grupy porównawcze mają zbliżoną liczebność. Jest istotna dla zachowania porównywalności wyników oraz poprawnej interpretacji testów statystycznych.
Rozkład normalny
Rozkład normalny (rozkład Gaussa) to jeden z najważniejszych rozkładów prawdopodobieństwa w statystyce. Charakteryzuje się symetrycznym kształtem dzwonu, gdzie większość obserwacji koncentruje się wokół średniej. Wiele testów statystycznych zakłada normalność rozkładu danych.
Rozstęp
Rozstęp to miara zmienności danych, określająca różnicę między największą a najmniejszą wartością w zbiorze. Jest jedną z najprostszych miar rozproszenia, ale może być wrażliwy na wartości odstające.
Rzetelność (psychometria)
Rzetelność to stopień, w jakim test lub narzędzie pomiarowe daje spójne i powtarzalne wyniki. Wysoka rzetelność oznacza, że wyniki testu są stabilne i niezależne od losowych błędów pomiaru. Rzetelność ocenia się m.in. poprzez współczynnik alfa Cronbacha.
IBM SPSS Statistics
IBM SPSS Statistics to jedno z najpopularniejszych narzędzi do analizy statystycznej. Umożliwia przeprowadzanie testów istotności, analiz regresyjnych, analiz czynnikowych i modelowania równań strukturalnych. Jego zaletą jest intuicyjny interfejs i szeroka gama dostępnych procedur analitycznych.
Schemat eksperymentalny
Schemat eksperymentalny to plan badania określający sposób manipulacji zmiennymi i kontrolowania warunków eksperymentalnych. Wyróżnia się różne schematy, np. eksperymenty z grupą kontrolną, schematy międzyobiektowe i wewnątrzobiektowe.
Schemat quasi-eksperymentalny
Schemat quasi-eksperymentalny to rodzaj badania, w którym nie ma pełnej losowej alokacji uczestników do grup, co odróżnia go od klasycznych eksperymentów. Stosowany jest w sytuacjach, gdy losowe przypisanie nie jest możliwe, np. w badaniach edukacyjnych czy społecznych.
SEM (Modelowanie Równań Strukturalnych)
SEM (Structural Equation Modeling) to zaawansowana technika statystyczna pozwalająca na testowanie złożonych modeli zależności między zmiennymi. Łączy analizę czynnikową i analizę ścieżek, umożliwiając modelowanie relacji przyczynowych.
Siła efektu
Siła efektu to miara wielkości różnicy lub związku między zmiennymi. Popularne miary siły efektu to współczynnik d Cohena, eta-kwadrat i współczynnik korelacji Pearsona. Siła efektu pozwala na ocenę praktycznej istotności wyników badania.
Skala dychotomiczna
Skala dychotomiczna to skala pomiarowa, w której zmienne przyjmują tylko dwie wartości (np. tak/nie, 0/1). Jest często stosowana w badaniach ankietowych i testach diagnostycznych.
Skala dyferencjału semantycznego
Skala dyferencjału semantycznego to technika pomiaru opinii i postaw, w której uczestnicy oceniają obiekty na przeciwstawnych biegunach cech (np. przyjazny – wrogi). Umożliwia analizę postrzegania różnych zjawisk i obiektów.
Skala ilościowa
Skala ilościowa to poziom pomiaru zmiennych liczbowych, które można porządkować i wykonywać na nich operacje matematyczne. Dzieli się na skale interwałowe i ilorazowe.
Skala IQ
Skala IQ (inteligencji) to standaryzowana skala stosowana w testach inteligencji, w której średnia wynosi 100, a odchylenie standardowe 15. Pozwala na porównanie wyników osób badanych z normą populacyjną.
Skala Likerta
Skala Likerta to popularna metoda pomiaru postaw i opinii, w której uczestnicy oceniają stwierdzenia na kilku stopniach (np. od „zdecydowanie się nie zgadzam” do „zdecydowanie się zgadzam”). Jest często stosowana w badaniach społecznych i psychologicznych.
Skala nominalna
Skala nominalna to najprostsza skala pomiaru, w której wartości zmiennych są kategoriami bez określonego porządku (np. płeć, kolor oczu). Dane nominalne można klasyfikować, ale nie można ich porządkować liczbowo.
Skala porządkowa
Skala porządkowa to poziom pomiaru, w którym wartości zmiennych można uporządkować według określonej hierarchii, ale różnice między nimi nie są dokładnie określone (np. oceny szkolne, stopnie wojskowe).
Skala standaryzowana
Skala standaryzowana to skala wyników, w której dane są przekształcane w celu umożliwienia porównań między różnymi próbami. Przykłady to skale IQ, stenowe, staninowe i tenowe.
Skala staninowa
Skala staninowa (standard nine) dzieli wyniki testu na dziewięć przedziałów o jednakowej szerokości. Jest stosowana w testach edukacyjnych i psychometrycznych do klasyfikowania wyników indywidualnych w odniesieniu do populacji.
Reszty regresji
Reszty regresji to różnice między wartościami obserwowanymi a przewidywanymi przez model regresyjny. Analiza reszt pomaga ocenić jakość modelu i wykryć potencjalne problemy, takie jak heteroskedastyczność czy autokorelacja.
RMSEA (analiza SEM)
RMSEA (Root Mean Square Error of Approximation) to wskaźnik dopasowania modelu w analizie SEM. Mierzy, jak dobrze model odzwierciedla strukturę danych. Niskie wartości (poniżej 0,05) wskazują na bardzo dobre dopasowanie, wartości między 0,05 a 0,08 są akceptowalne, natomiast wartości powyżej 0,10 sugerują słabe dopasowanie modelu.
Rotacja nieortogonalna (ukośna)
Rotacja nieortogonalna to metoda w analizie czynnikowej, która pozwala na korelację między czynnikami. W przeciwieństwie do rotacji ortogonalnej, umożliwia lepszą interpretację zmiennych w przypadku, gdy czynniki nie są od siebie niezależne. Popularne metody to Promax i Oblique.
Rotacja ortogonalna
Rotacja ortogonalna to technika w analizie czynnikowej, która zachowuje brak korelacji między czynnikami. Najczęściej stosowaną metodą jest rotacja VARIMAX, która maksymalizuje różnice między ładunkami czynnikowymi, ułatwiając interpretację czynników.
Rotacja VARIMAX
Rotacja VARIMAX to jedna z najczęściej używanych metod rotacji ortogonalnej w analizie czynnikowej. Minimalizuje liczbę wysokich i niskich ładunków czynnikowych dla każdej zmiennej, co prowadzi do prostszej interpretacji struktury czynnikowej.
Równoliczność grup
Równoliczność grup odnosi się do sytuacji w badaniach eksperymentalnych, gdzie grupy porównawcze mają zbliżoną liczebność. Jest istotna dla zachowania porównywalności wyników oraz poprawnej interpretacji testów statystycznych.
Rozkład normalny
Rozkład normalny (rozkład Gaussa) to jeden z najważniejszych rozkładów prawdopodobieństwa w statystyce. Charakteryzuje się symetrycznym kształtem dzwonu, gdzie większość obserwacji koncentruje się wokół średniej. Wiele testów statystycznych zakłada normalność rozkładu danych.
Rozstęp
Rozstęp to miara zmienności danych, określająca różnicę między największą a najmniejszą wartością w zbiorze. Jest jedną z najprostszych miar rozproszenia, ale może być wrażliwy na wartości odstające.
Rzetelność (psychometria)
Rzetelność to stopień, w jakim test lub narzędzie pomiarowe daje spójne i powtarzalne wyniki. Wysoka rzetelność oznacza, że wyniki testu są stabilne i niezależne od losowych błędów pomiaru. Rzetelność ocenia się m.in. poprzez współczynnik alfa Cronbacha.
Skala tenowa
Skala tenowa to skala standaryzowana, w której wyniki są przekształcane na zakres od 1 do 10, z wartościami średnimi w okolicach 5-6. Jest stosowana w testach psychometrycznych i edukacyjnych do porównywania wyników między różnymi grupami.
Skośność
Skośność to miara asymetrii rozkładu danych. Rozkład prawostronnie skośny ma wydłużony ogon po prawej stronie, a lewostronnie skośny – po lewej. Wartość skośności równa 0 oznacza symetryczny rozkład normalny.
SRMR (analiza SEM)
SRMR (Standardized Root Mean Square Residual) to wskaźnik dopasowania modelu w analizie SEM, mierzący średnie różnice między macierzą korelacji modelu a macierzą obserwowaną. Wartości poniżej 0,08 wskazują na dobre dopasowanie modelu.
Standaryzacja (psychometria)
Standaryzacja to proces ujednolicania procedury przeprowadzania testów psychometrycznych, aby zapewnić porównywalność wyników między różnymi osobami i próbami badawczymi.
Standaryzacja zmiennej
Standaryzacja zmiennej polega na przekształceniu jej wartości w taki sposób, aby miały średnią 0 i odchylenie standardowe 1. Jest często stosowana w analizach statystycznych, takich jak regresja i analiza czynnikowa.
Statystyka opisowa
Statystyka opisowa obejmuje metody podsumowywania i przedstawiania danych, takie jak miary tendencji centralnej (średnia, mediana, moda), miary zmienności (odchylenie standardowe, rozstęp) oraz wykresy i tabele.
Stopnie swobody
Stopnie swobody to liczba niezależnych wartości w próbie, które mogą się zmieniać bez wpływu na parametry statystyczne. W wielu testach statystycznych, takich jak test t Studenta, stopnie swobody wpływają na kształt rozkładu wyników.
Styl APA (standard APA)
Styl APA (American Psychological Association) to zbiór zasad dotyczących formatowania tekstów naukowych, cytowania źródeł i prezentowania wyników badań w psychologii i naukach społecznych.
Supresja
Supresja to sytuacja w analizie statystycznej, gdy dodanie nowej zmiennej do modelu regresyjnego zmienia kierunek lub siłę związku między innymi zmiennymi. Występuje w przypadku korelacji pośrednich i efektów ukrytych.
Syntax (język poleceń)
Syntax to język poleceń używany w programach statystycznych, takich jak SPSS, R czy Stata. Umożliwia automatyzację analiz i powtarzalność procedur badawczych.
Szereg czasowy
Szereg czasowy to zbiór danych uporządkowanych według czasu, np. miesięczne wartości sprzedaży czy dzienne temperatury. Analiza szeregów czasowych pozwala na wykrywanie trendów, sezonowości i prognozowanie przyszłych wartości.
Średnia
Średnia arytmetyczna to podstawowa miara tendencji centralnej, obliczana jako suma wszystkich wartości podzielona przez ich liczbę. Jest szeroko stosowana w analizach statystycznych, jednak wrażliwa na wartości odstające.
Test Aroiana
Test Aroiana to test statystyczny używany w analizach regresyjnych do oceny istotności pośrednich efektów mediacji. Jest alternatywą dla testu Sobela, często stosowaną w modelowaniu zależności pośrednich.
Test Durbina-Watsona
Test Durbina-Watsona to statystyczny test stosowany w analizie regresji do wykrywania autokorelacji reszt. Wartości bliskie 2 sugerują brak autokorelacji, natomiast wartości poniżej 1 lub powyżej 3 wskazują na jej obecność.
Test Friedmana
Test Friedmana to nieparametryczny odpowiednik analizy wariancji dla powtarzanych pomiarów (ANOVA z powtarzanymi pomiarami). Służy do porównywania median więcej niż dwóch zależnych grup, gdy nie można założyć normalności rozkładu danych.
Test Goodmana
Test Goodmana to metoda statystyczna stosowana do analizy tabel wielodzielczych, wykorzystywana m.in. do oceny istotności różnic między proporcjami w analizie kategorii nominalnych.
Test Kołmogorowa-Smirnowa
Test Kołmogorowa-Smirnowa to test statystyczny służący do sprawdzania, czy próbka pochodzi z określonego rozkładu. Jest często używany do testowania normalności rozkładu danych.
Test Kruskala-Wallisa
Test Kruskala-Wallisa to nieparametryczna alternatywa dla jednoczynnikowej analizy wariancji (ANOVA), stosowana do porównywania median w więcej niż dwóch grupach, gdy nie można założyć normalności rozkładu danych.
Test Levene’a
Test Levene’a to statystyczny test stosowany do sprawdzenia jednorodności wariancji między grupami. Jest wykorzystywany przed przeprowadzeniem testów parametrycznych, takich jak ANOVA.
Test Manna-Whitneya
Test Manna-Whitneya (test U Manna-Whitneya) to nieparametryczny test stosowany do porównywania dwóch niezależnych grup, gdy nie można założyć normalności rozkładu danych. Jest alternatywą dla testu t Studenta dla prób niezależnych.
Test McNemara
Test McNemara to test statystyczny służący do analizy zmian w parach powiązanych danych kategorycznych. Jest często stosowany w badaniach nad skutecznością interwencji, np. w analizie wyników przed i po zastosowaniu leczenia.
Test psychometryczny
Test psychometryczny to narzędzie służące do oceny cech psychologicznych, takich jak inteligencja, osobowość czy zdolności. Powinien cechować się wysoką rzetelnością i trafnością, aby zapewnić dokładność pomiaru.
Test sferyczności Bartletta
Test sferyczności Bartletta to test statystyczny wykorzystywany w analizie czynnikowej do sprawdzenia, czy macierz korelacji różni się od macierzy jednostkowej. Istotny wynik sugeruje, że analiza czynnikowa jest uzasadniona.
Test Shapiro-Wilka
Test Shapiro-Wilka to test statystyczny wykorzystywany do sprawdzania, czy zbiór danych pochodzi z rozkładu normalnego. Jest bardziej czuły niż test Kołmogorowa-Smirnowa w przypadku małych próbek.
Test Sobela
Test Sobela to metoda analizy statystycznej służąca do sprawdzania istotności efektów mediacyjnych w modelach regresji. Pozwala ocenić, czy wpływ zmiennej niezależnej na zależną jest pośredniczony przez mediatora.
Test statystyczny
Test statystyczny to metoda analizy danych wykorzystywana do podejmowania decyzji dotyczących hipotez statystycznych. Obejmuje testy parametryczne i nieparametryczne, które dobiera się w zależności od typu danych i spełnienia założeń statystycznych.
Test t Studenta
Test t Studenta to podstawowy test statystyczny wykorzystywany do porównywania średnich dwóch grup. Występuje w trzech wariantach: dla jednej próby, dla prób niezależnych oraz dla prób zależnych.
Test t Studenta dla jednej próby
Test t dla jednej próby porównuje średnią z próby do określonej wartości referencyjnej, np. średniej populacyjnej.
Test t Studenta dla prób niezależnych
Test t dla prób niezależnych porównuje średnie w dwóch niezależnych grupach, np. grupie kontrolnej i eksperymentalnej.
Test t Studenta dla prób zależnych
Test t dla prób zależnych (test dla par powiązanych) porównuje średnie w tych samych grupach badanych przed i po zastosowaniu interwencji.
Test Wilcoxona
Test Wilcoxona to nieparametryczna alternatywa dla testu t Studenta dla prób zależnych, stosowana, gdy nie można założyć normalności rozkładu różnic.
Testy nieparametryczne
Testy nieparametryczne to testy statystyczne, które nie wymagają spełnienia założeń o normalności rozkładu danych i homogeniczności wariancji. Przykłady to test U Manna-Whitneya, test Wilcoxona, test Kruskala-Wallisa.
Testy parametryczne
Testy parametryczne to testy statystyczne wymagające spełnienia określonych założeń dotyczących rozkładu danych (np. normalności). Przykłady to test t Studenta, analiza wariancji (ANOVA) czy regresja liniowa.
TLI (analiza SEM)
TLI (Tucker-Lewis Index) to wskaźnik dopasowania modelu w analizie SEM. Wartości powyżej 0,90 wskazują na dobre dopasowanie modelu do danych.
Trafność (psychometria)
Trafność to miara jakości testu psychometrycznego, określająca, w jakim stopniu test mierzy to, co ma mierzyć. Wyróżnia się różne typy trafności, takie jak trafność treściowa, trafność zbieżna i trafność różnicowa.
Trafność zbieżna
Trafność zbieżna odnosi się do stopnia, w jakim wyniki testu korelują z wynikami innych testów mierzących tę samą cechę.
VIF (współczynnik VIF)
VIF (Variance Inflation Factor) to współczynnik stosowany w analizie regresji do wykrywania współliniowości między predyktorami. Wartości powyżej 10 sugerują silną współliniowość, co może negatywnie wpływać na model regresyjny.
Wariancja
Wariancja to miara zmienności danych, określająca, jak bardzo poszczególne wartości różnią się od średniej. Jest obliczana jako średnia kwadratów odchyleń poszczególnych wartości od średniej arytmetycznej.
Wariancja indywidualna
Wariancja indywidualna odnosi się do rozproszenia wartości danej zmiennej w obrębie jednego uczestnika badania lub jednostki analizy. Może być analizowana w badaniach wielopoziomowych lub analizach powtarzanych pomiarów.
Wariancja międzygrupowa
Wariancja międzygrupowa to różnica w wartościach zmiennej zależnej pomiędzy różnymi grupami badawczymi. Jest kluczowym elementem analizy wariancji (ANOVA), pomagającym określić, czy grupy różnią się istotnie statystycznie.
Wariancja wewnątrzgrupowa
Wariancja wewnątrzgrupowa odnosi się do zmienności wartości w obrębie jednej grupy badawczej. W analizie wariancji (ANOVA) służy do oceny, na ile różnice między obserwacjami w tej samej grupie mogą być przypisane losowej zmienności.
Wartość krytyczna
Wartość krytyczna to wartość graniczna w testach statystycznych, przy której odrzucana jest hipoteza zerowa. Zależy od poziomu istotności (np. 0,05) i rodzaju testu.
Wartość p (p-value)
Wartość p to prawdopodobieństwo uzyskania wyniku równego lub bardziej ekstremalnego niż zaobserwowany, zakładając, że hipoteza zerowa jest prawdziwa. Niska wartość p (np. poniżej 0,05) sugeruje, że istnieją podstawy do odrzucenia hipotezy zerowej.
Właściwa adaptacja (psychometria)
Właściwa adaptacja testu psychometrycznego oznacza dostosowanie go do nowego kontekstu kulturowego, językowego lub badawczego, zachowując jego rzetelność i trafność.
Współliniowość
Współliniowość to sytuacja w analizie regresji, w której dwie lub więcej zmiennych niezależnych są silnie skorelowane, co może prowadzić do problemów z interpretacją wyników modelu. Objawia się wysokimi wartościami współczynnika VIF.
Wykres osypiska
Wykres osypiska (scree plot) to wykres stosowany w analizie czynnikowej, przedstawiający wartości własne dla kolejnych czynników. Punkt załamania na wykresie sugeruje optymalną liczbę czynników do uwzględnienia w modelu.
Wykres rozrzutu
Wykres rozrzutu to narzędzie graficzne używane do analizy związku między dwiema zmiennymi ilościowymi. Pozwala na identyfikację zależności liniowych, nieliniowych oraz obecność wartości odstających.
Wykres ścieżkowy
Wykres ścieżkowy to graficzna reprezentacja modeli równań strukturalnych (SEM), przedstawiająca zależności między zmiennymi za pomocą strzałek i prostokątów lub elips. Pomaga wizualizować mediacje, moderacje i interakcje między zmiennymi.
Wykres słupkowy
Wykres słupkowy to wykres przedstawiający dane kategoryczne lub ilościowe w postaci prostokątnych słupków. Może być używany do porównywania wartości między grupami.
Wynik surowy
Wynik surowy to pierwotny wynik uzyskany w teście psychometrycznym lub badaniu, przed przekształceniem go na skalę standaryzowaną.
Wynik znormalizowany
Wynik znormalizowany to wynik przekształcony na standardową skalę, taką jak skala stenowa, staninowa czy tenowa, co umożliwia porównywanie wyników między osobami lub grupami.
Założenie sferyczności
Założenie sferyczności to jedno z kluczowych założeń w analizie wariancji dla powtarzanych pomiarów (ANOVA z powtarzanymi pomiarami). Oznacza, że wariancja różnic między parami warunków jest równa. Niespełnienie tego założenia może prowadzić do błędnych wniosków statystycznych. Do sprawdzenia sferyczności stosuje się test Mauchly’ego, a w przypadku jego naruszenia stosuje się poprawki, takie jak korekcja Greenhouse-Geissera.
Zasoby zmienności wspólnej (analiza EFA)
Zasoby zmienności wspólnej to część całkowitej wariancji zmiennej, którą można wyjaśnić poprzez czynniki ukryte w eksploracyjnej analizie czynnikowej (EFA). Jest to miara tego, jak bardzo dana zmienna jest związana ze strukturą czynnikową modelu. Wskaźniki zasobów zmienności wspólnej są kluczowe przy ocenie jakości modelu czynnikowego.
Zmienna jawna
Zmienna jawna to zmienna, którą można bezpośrednio obserwować i mierzyć, np. wiek, wzrost, liczba godzin snu. W przeciwieństwie do zmiennych ukrytych, zmienne jawne nie wymagają modelowania pośredniego i są bezpośrednio dostępne w danych empirycznych.
Zmienna kontrolna
Zmienna kontrolna to zmienna, która nie jest bezpośrednio badana, ale jej wpływ jest eliminowany lub uwzględniany w analizie statystycznej w celu uniknięcia zakłóceń wyników. Stosowanie zmiennych kontrolnych pozwala na dokładniejsze określenie relacji między zmienną niezależną a zależną, redukując wpływ czynników trzecich.
Zmienna niezależna
Zmienna niezależna to zmienna, którą badacz manipuluje lub wybiera w badaniu eksperymentalnym, aby sprawdzić jej wpływ na zmienną zależną. W badaniach korelacyjnych zmienne niezależne nie są manipulowane, lecz są analizowane pod kątem ich związku ze zmienną zależną. W analizach statystycznych zmienne niezależne mogą być predyktorami w modelach regresyjnych.
Zmienna ukryta (latentna)
Zmienna ukryta (latentna) to zmienna, której nie można bezpośrednio zaobserwować, ale można ją wnioskować na podstawie innych zmiennych jawnych (wskaźników). Przykłady to inteligencja, motywacja czy satysfakcja z życia. W analizie statystycznej zmienne ukryte są modelowane za pomocą technik takich jak analiza czynnikowa czy modelowanie równań strukturalnych (SEM).
Zmienna zakłócająca
Zmienna zakłócająca to zmienna, która wpływa zarówno na zmienną niezależną, jak i zależną, powodując pozorną zależność między nimi. Jest to kluczowy problem w analizach korelacyjnych, który może prowadzić do błędnych wniosków dotyczących związków przyczynowych. Przykładem może być związek między spożyciem lodów a liczbą utonięć – rzeczywistą zmienną zakłócającą jest temperatura.
Zmienna zależna
Zmienna zależna to zmienna, której wartości są mierzone w badaniu jako wynik działania zmiennej niezależnej. W eksperymentach zmienna zależna jest cechą lub zachowaniem, na które ma wpływać manipulacja zmiennej niezależnej. W modelach regresyjnych zmienna zależna to wartość przewidywana na podstawie wartości predyktorów.
