Test normalności

W statystyce testy normalności są używane do określenia, czy zbiór danych jest dobrze modelowany przez rozkład normalny i do obliczenia prawdopodobieństwa, że ​​zmienna losowa leżąca u podstaw zbioru danych ma rozkład normalny.

Mówiąc dokładniej, testy są formą wyboru modelu i można je interpretować na kilka sposobów, w zależności od własnej interpretacji prawdopodobieństwa :

Test normalności służy do określenia, czy dane próbki zostały pobrane z populacji o rozkładzie normalnym (w ramach pewnej tolerancji). Szereg testów statystycznych, takich jak test t-Studenta oraz jednokierunkowa i dwukierunkowa ANOVA, wymaga populacji próby o rozkładzie normalnym.

Metody graficzne

Nieformalne podejście do testowania normalności polega na porównaniu histogramu danych próbki z normalną krzywą prawdopodobieństwa. Empiryczny rozkład danych (histogram) powinien mieć kształt dzwonu i przypominać rozkład normalny. Może to być trudne do sprawdzenia, jeśli próbka jest mała. W takim przypadku można przystąpić do regresji danych względem kwantyli rozkładu normalnego z taką samą średnią i wariancją jak próbka. Brak dopasowania do linii regresji sugeruje odejście od normalności (patrz współczynnik Andersona Darlinga i minitab).

Narzędziem graficznym do oceny normalności jest wykres prawdopodobieństwa normalnego , wykres kwantylowo-kwantylowy (wykres QQ) standaryzowanych danych w stosunku do standardowego rozkładu normalnego . W tym przypadku korelacja między danymi próbki a kwantylami normalnymi (miara dopasowania) mierzy, jak dobrze dane są modelowane przez rozkład normalny. Dla normalnych danych punkty wykreślone na wykresie QQ powinny leżeć w przybliżeniu na linii prostej, co wskazuje na wysoką dodatnią korelację. Wykresy te są łatwe do interpretacji i mają tę zaletę, że można łatwo zidentyfikować wartości odstające.

Test z tyłu koperty

Prosty test z tyłu koperty pobiera maksimum i minimum próbki i oblicza ich z-score , lub dokładniej statystykę t (liczba odchyleń standardowych próbki, o którą próbka jest powyżej lub poniżej średniej próbki) i porównuje ją z reguła 68–95–99,7 : jeśli ktoś ma zdarzenie 3 σ (właściwie zdarzenie 3 s ) i znacznie mniej niż 300 próbek lub 4 s zdarzenie i znacznie mniej niż 15 000 próbek, wówczas rozkład normalny zaniży maksymalną wielkość odchyleń w danych próbki.

Ten test jest przydatny w przypadkach, gdy istnieje ryzyko kurtozy - gdzie duże odchylenia mają znaczenie - i ma tę zaletę, że jest bardzo łatwy do obliczenia i przekazania: nie-statystycy mogą łatwo zrozumieć, że „zdarzenia 6 σ są bardzo rzadkie w rozkładzie normalnym” .

Testy częstotliwościowe

Testy jednowymiarowej normalności obejmują:

Badanie z 2011 roku wykazało, że Shapiro – Wilk ma najlepszą moc dla danego znaczenia, a zaraz za nim Anderson – Darling, porównując testy Shapiro – Wilka, Kołmogorowa – Smirnowa, Lillieforsa i Andersona – Darlinga.

Niektóre opublikowane prace zalecają test Jarque-Bera, ale test ma słabość. W szczególności test ma małą moc dla rozkładów z krótkimi ogonami, zwłaszcza dla rozkładów bimodalnych. Niektórzy autorzy odmówili uwzględnienia jego wyników w swoich badaniach ze względu na jego słabą ogólną wydajność.

Historycznie rzecz biorąc, trzeci i czwarty znormalizowany moment ( skośność i kurtoza ) były jednymi z najwcześniejszych testów normalności. Test Lin-Mudholkara dotyczy w szczególności asymetrycznych alternatyw. Jarque -Bera wywodzi się z oszacowań skośności i kurtozy . Wielowymiarowe testy skośności i kurtozy Mardii uogólniają testy momentu na przypadek wielowymiarowy. Inne statystyki wczesnego testu obejmują stosunek średniego odchylenia bezwzględnego do odchylenia standardowego i zakresu do odchylenia standardowego.

Nowsze testy normalności obejmują test energii (Székely i Rizzo) oraz testy oparte na empirycznej funkcji charakterystycznej (ECF) (np. Epps i Pulley, Henze-Zirkler, test BHEP ). Testy energii i ECF są potężnymi testami, które mają zastosowanie do testowania jednowymiarowej lub wielowymiarowej normalności i są statystycznie spójne z ogólnymi alternatywami.

Rozkład normalny ma najwyższą entropię ze wszystkich rozkładów dla danego odchylenia standardowego. Istnieje wiele testów normalności opartych na tej właściwości, z których pierwszy można przypisać Vasickowi.

Testy bayesowskie

Rozbieżności Kullbacka-Leiblera między całymi tylnymi rozkładami nachylenia i wariancji nie wskazują na nienormalność. Jednak stosunek oczekiwań tych późniejszych i oczekiwanie wskaźników dają podobne wyniki do statystyki Shapiro-Wilka, z wyjątkiem bardzo małych próbek, gdy stosowane są nieinformacyjne a priori.

Spiegelhalter sugeruje użycie czynnika Bayesa do porównania normalności z inną klasą alternatyw dystrybucyjnych. Podejście to zostało rozszerzone przez Farrella i Rogersa-Stewarta.

Aplikacje

Jednym z zastosowań testów normalności są reszty z modelu regresji liniowej . Jeśli nie mają rozkładu normalnego, reszty nie powinny być używane w testach Z ani w żadnych innych testach wyprowadzonych z rozkładu normalnego, takich jak testy t , testy F i testy chi-kwadrat . Jeśli reszty nie mają rozkładu normalnego, wówczas zmienna zależna lub co najmniej jedna zmienna objaśniająca może mieć niewłaściwą postać funkcjonalną lub może brakować ważnych zmiennych itp. Korekta jednego lub więcej z tych błędów systematycznych może generować pozostałości, które mają rozkład normalny; innymi słowy, nienormalność reszt jest często raczej wadą modelu niż problemem z danymi.

Zobacz też

Notatki

Dalsza lektura

  •   Ralph B. D'Agostino (1986). „Testy dla rozkładu normalnego”. W D'Agostino, RB; Stephens, MA (red.). Techniki dobrego dopasowania . Nowy Jork: Marcel Dekker. ISBN 978-0-8247-7487-5 .