Stopnie swobody (statystyka)

W statystyce liczba stopni swobody to liczba wartości w ostatecznym obliczeniu statystyki , które mogą się zmieniać.

Szacunki parametrów statystycznych mogą opierać się na różnych ilościach informacji lub danych. Liczba niezależnych informacji, które wchodzą w skład oszacowania parametru, nazywana jest stopniami swobody. Ogólnie rzecz biorąc, stopnie swobody oszacowania parametru są równe liczbie niezależnych wyników , które wchodzą w oszacowanie, pomniejszonej o liczbę parametrów użytych jako etapy pośrednie w oszacowaniu samego parametru. Na przykład, jeśli wariancja ma być oszacowana na podstawie losowej próby N niezależnych wyników, to stopnie swobody są równe liczbie niezależnych wyników ( N ) minus liczba parametrów oszacowanych jako etapy pośrednie (jeden, a mianowicie średnia próbki) i dlatego jest równa N - 1.

Matematycznie stopnie swobody to liczba wymiarów domeny losowego wektora lub zasadniczo liczba „swobodnych” składników (ile składników należy poznać, zanim wektor zostanie w pełni określony).

Termin ten jest najczęściej używany w kontekście modeli liniowych ( regresja liniowa , analiza wariancji ), w których pewne wektory losowe są ograniczone do leżenia w podprzestrzeniach liniowych , a liczba stopni swobody jest wymiarem podprzestrzeni . Stopnie swobody są również powszechnie kojarzone z kwadratami długości (lub „sumą kwadratów” współrzędnych) takich wektorów oraz parametrami chi-kwadrat i innymi rozkładami, które pojawiają się w powiązanych problemach z testami statystycznymi.

Podczas gdy podręczniki wprowadzające mogą wprowadzać stopnie swobody jako parametry rozkładu lub poprzez testowanie hipotez, to podstawowa geometria definiuje stopnie swobody i ma kluczowe znaczenie dla właściwego zrozumienia tej koncepcji.

Historia

Chociaż podstawowa koncepcja stopni swobody została rozpoznana już w 1821 roku w pracy niemieckiego astronoma i matematyka Carla Friedricha Gaussa , jej współczesna definicja i zastosowanie zostały po raz pierwszy opracowane przez angielskiego statystyka Williama Sealy'ego Gosseta w jego artykule Biometrika z 1908 roku "The Probable Error of a Mean”, wydawany pod pseudonimem „Student”. Chociaż Gosset w rzeczywistości nie użył terminu „stopnie swobody”, wyjaśnił tę koncepcję w trakcie opracowywania tego, co stało się znane jako rozkład t-Studenta . Sam termin został spopularyzowany przez angielskiego statystyka i biologa Ronalda Fishera , począwszy od jego pracy z 1922 r. na temat chi-kwadratów.

Notacja

W równaniach typowym symbolem stopni swobody jest ν (mała grecka litera nu ). W tekście i tabelach powszechnie używany jest skrót „df”. RA Fisher używał n do symbolizowania stopni swobody, ale współczesne użycie zazwyczaj rezerwuje n dla wielkości próbki.

Losowych wektorów

Z geometrycznego punktu widzenia stopnie swobody można interpretować jako wymiar pewnych podprzestrzeni wektorowych. Na początek załóżmy, że mamy próbkę niezależnych obserwacji o rozkładzie normalnym,

Można to przedstawić jako n -wymiarowy wektor losowy :

Ponieważ ten losowy wektor może leżeć w dowolnym miejscu n -wymiarowej przestrzeni, ma on n stopni swobody.

teraz średnią próbki . Wektor losowy można rozłożyć jako sumę średniej z próby plus wektor reszt:

Pierwszy wektor po prawej stronie jest ograniczony do wielokrotności wektora 1, a jedyną wolną ilością jest . Ma więc 1 stopień swobody.

Drugi wektor jest ograniczony relacją . Pierwsze n − 1 składowe tego wektora mogą być dowolne. Jednak gdy już znasz pierwsze n − 1 składowe, ograniczenie mówi ci o wartości n -tego składnika. Zatem wektor ten ma n − 1 stopni swobody.

Matematycznie pierwszy wektor jest ukośnym rzutem wektora danych na podprzestrzeń rozpiętą przez wektor jedynek. 1 stopień swobody jest wymiarem tej podprzestrzeni. Drugi wektor resztkowy jest rzutem metodą najmniejszych kwadratów na ( n - 1) wymiarowe dopełnienie ortogonalne tej podprzestrzeni i ma n - 1 stopni swobody.

W aplikacjach do testowania statystycznego często nie interesują nas bezpośrednio wektory składowe, ale raczej ich kwadraty długości. W powyższym przykładzie pozostała suma kwadratów wynosi

Jeśli punkty danych mają rozkład normalny ze średnią 0 i wariancją ma skalowany rozkład chi kwadrat (skalowany przez współczynnik z n - 1 stopniami swobody Stopnie swobody, tutaj parametr rozkładu, nadal można interpretować jako wymiar podstawowej podprzestrzeni wektorowej.

testu t dla jednej próby ,

jest zgodne z rozkładem t Studenta z n - 1 stopniami swobody gdy hipotetyczna średnia poprawna. Ponownie, stopnie swobody wynikają z wektora resztkowego w mianowniku.

W modelach równań strukturalnych

Gdy prezentowane są wyniki modeli równań strukturalnych (SEM), zazwyczaj obejmują one jeden lub więcej wskaźników ogólnego dopasowania modelu, z których najczęstszym jest statystyka χ 2 . Stanowi to podstawę dla innych powszechnie zgłaszanych wskaźników. Chociaż to właśnie te inne statystyki są najczęściej interpretowane, stopnie swobody χ 2 są niezbędne do zrozumienia dopasowania modelu, jak również natury samego modelu.

Stopnie swobody w SEM są obliczane jako różnica między liczbą unikalnych informacji, które są wykorzystywane jako dane wejściowe do analizy, czasami nazywane znanymi, a liczbą parametrów, które są jednoznacznie oszacowane, czasami nazywane niewiadomymi. Na przykład w jednoczynnikowej konfirmacyjnej analizie czynnikowej z 4 pozycjami jest 10 znanych (sześć unikalnych kowariancji wśród czterech pozycji i cztery wariancje pozycji) i 8 niewiadomych (4 ładunki czynnikowe i 4 wariancje błędów) dla 2 stopni wolność. ważne dla zrozumienia dopasowania modelu choćby z tego powodu, że im mniej stopni swobody, tym lepsze będą wskaźniki, takie jak χ2 .

Wykazano, że czytelnicy artykułów zawierających SEM mogą wykorzystywać stopnie swobody do ustalenia, czy autorzy tych artykułów faktycznie podają prawidłowe statystyki dopasowania modelu. Na przykład w naukach o organizacji prawie połowa artykułów opublikowanych w czołowych czasopismach podaje stopnie swobody, które są niezgodne z modelami opisanymi w tych artykułach, pozostawiając czytelnika do zastanowienia się, które modele zostały faktycznie przetestowane.

Pozostałości

Powszechnym sposobem myślenia o stopniach swobody jest liczba niezależnych informacji dostępnych do oszacowania innej informacji. Mówiąc dokładniej, liczba stopni swobody to liczba niezależnych obserwacji w próbce danych, które są dostępne do oszacowania parametru populacji, z której ta próbka została pobrana. Na przykład, jeśli mamy dwie obserwacje, przy obliczaniu średniej mamy dwie niezależne obserwacje; jednakże przy obliczaniu wariancji mamy tylko jedną niezależną obserwację, ponieważ obie obserwacje są jednakowo odległe od średniej próbki.

Podczas dopasowywania modeli statystycznych do danych wektory reszt są ograniczone tak, aby leżały w przestrzeni o mniejszym wymiarze niż liczba składników w wektorze. Ten mniejszy wymiar to liczba stopni swobody dla błędu , zwanych także resztkowymi stopniami swobody .

Przykład

Być może najprostszym przykładem jest to. Przypuszczać

zmiennymi losowymi , z których każda ma wartość oczekiwaną μ i niech

być „średnią z próby”. Następnie ilości

to reszty, które można uznać za oszacowania błędów X i μ . Suma reszt (w przeciwieństwie do sumy błędów) musi być równa 0. Znając wartości dowolnych n - 1 reszt, można w ten sposób znaleźć ostatnią. Oznacza to, że są one ograniczone do leżenia w przestrzeni o wymiarze n - 1. Mówi się, że istnieje n - 1 stopni swobody dla błędów.

Przykładem, który jest tylko trochę mniej prosty, jest estymacja aib w modelu metodą najmniejszych kwadratów

gdzie x i jest dane, ale e i, a zatem Y i są losowe. Niech i będą oszacowaniami najmniejszych a i b . Potem pozostałości

są ograniczone do leżenia w przestrzeni określonej przez dwa równania

Mówi się, że istnieje n − 2 stopni swobody błędu.

Notacyjnie wielka litera Y jest używana przy określaniu modelu, a mała litera y przy definicji reszt; to dlatego, że te pierwsze są hipotetycznymi zmiennymi losowymi, a te drugie są danymi rzeczywistymi.

Możemy to uogólnić na regresję wieloraką obejmującą p parametrów i współzmienne (np. p − 1 predyktory i jedną średnią (= wyraz wolny w regresji)), w którym to przypadku koszt w stopniach swobody dopasowania wynosi p , pozostawiając n - p stopni wolności za błędy

W modelach liniowych

Demonstracja rozkładów t i chi-kwadrat dla problemów z jedną próbką powyżej jest najprostszym przykładem, w którym powstają stopnie swobody. Jednak podobne dekompozycje geometrii i wektorów leżą u podstaw większości teorii modeli liniowych , w tym regresji liniowej i analizy wariancji . Wyraźny przykład oparty na porównaniu trzech średnich przedstawiono tutaj; geometrię modeli liniowych omówił bardziej szczegółowo Christensen (2002).

Załóżmy, że dokonano niezależnych obserwacji dla trzech populacji, , i . Ograniczenie do trzech grup i równych rozmiarów próbek upraszcza notację, ale idee można łatwo uogólnić.

Obserwacje można rozłożyć jako

gdzie średnimi poszczególnych próbek, a jest średnia wszystkich 3 n obserwacji. W notacji wektorowej ten rozkład można zapisać jako

Wektor obserwacji po lewej stronie ma 3 n stopni swobody. Po prawej stronie pierwszy wektor ma jeden stopień swobody (lub wymiar) dla ogólnej średniej. Drugi wektor zależy od trzech zmiennych losowych, , i . Jednak muszą one sumować się do 0, a więc są ograniczone; zatem wektor musi leżeć w dwuwymiarowej podprzestrzeni i ma 2 stopnie swobody. Pozostałe 3 n - 3 stopnie swobody znajdują się w wektorze resztkowym (składającym się z n - 1 stopnia swobody w obrębie każdej populacji).

W analizie wariancji (ANOVA)

W problemach z testowaniem statystycznym zwykle nie interesują się same wektory składowe, ale raczej ich kwadraty długości lub suma kwadratów. Stopnie swobody związane z sumą kwadratów to stopnie swobody odpowiednich wektorów składowych.

Powyższy przykład z trzema populacjami jest przykładem jednoczynnikowej analizy wariancji . Model lub leczenie sumą kwadratów to kwadrat długości drugiego wektora,

z 2 stopniami swobody. Reszta lub błąd sumy kwadratów wynosi

z 3 ( n −1) stopniami swobody. Oczywiście, książki wprowadzające do ANOVA zwykle podają wzory bez pokazywania wektorów, ale to właśnie ta podstawowa geometria daje początek formułom SS i pokazuje, jak jednoznacznie określić stopnie swobody w dowolnej sytuacji.

Przy hipotezie zerowej o braku różnic między średnimi populacji (i przy założeniu, że standardowe założenia regularności ANOVA są spełnione) sumy kwadratów mają przeskalowane rozkłady chi-kwadrat z odpowiadającymi im stopniami swobody. Statystyka testu F to stosunek po przeskalowaniu według stopni swobody. Jeśli nie ma różnicy między średnimi populacji, ten stosunek ma rozkład F z 2 i 3 n - 3 stopniami swobody.

W niektórych skomplikowanych ustawieniach, takich jak niezrównoważone projekty z podziałem na wykresy , sumy kwadratów nie mają już skalowanych rozkładów chi-kwadrat. Porównanie sumy kwadratów ze stopniami swobody nie ma już sensu, a oprogramowanie może w takich przypadkach zgłaszać pewne ułamkowe „stopnie swobody”. Takie liczby nie mają prawdziwej interpretacji stopni swobody, ale po prostu zapewniają przybliżony rozkład chi-kwadrat dla odpowiedniej sumy kwadratów. Szczegóły takich przybliżeń wykraczają poza zakres tej strony.

W rozkładzie prawdopodobieństwa

Kilka powszechnie spotykanych rozkładów statystycznych ( t Studenta , chi-kwadrat , F ) ma parametry, które są powszechnie określane jako stopnie swobody . Ta terminologia po prostu odzwierciedla to, że w wielu zastosowaniach, w których występują takie rozkłady, parametr odpowiada stopniom swobody bazowego wektora losowego, jak w poprzednim przykładzie ANOVA. Innym prostym przykładem jest: if są niezależnymi normalnymi \ , statystyka

ma rozkład chi-kwadrat z n - 1 stopniami swobody. Tutaj stopnie swobody wynikają z resztkowej sumy kwadratów w liczniku, a z kolei n - 1 stopni swobody podstawowego wektora resztkowego .

W zastosowaniu tych rozkładów do modeli liniowych parametry stopni swobody mogą przyjmować tylko wartości całkowite . Podstawowe rodziny rozkładów dopuszczają wartości ułamkowe dla parametrów stopni swobody, które mogą wystąpić w bardziej wyrafinowanych zastosowaniach. Jednym z zestawów przykładów są problemy, w których stosuje się przybliżenia chi-kwadrat oparte na efektywnych stopniach swobody . W innych zastosowaniach, takich jak modelowanie danych z dużymi ogonami , jako model empiryczny można zastosować dystrybucję at lub F. W takich przypadkach nie ma określonej interpretacji stopni swobody parametrów rozkładu, mimo że terminologia może być nadal używana.

W regresji niestandardowej

Wiele niestandardowych metod regresji, w tym uregulowane metodą najmniejszych kwadratów (np. regresja grzbietowa ), wygładzanie liniowe , wygładzanie splajnów i regresja semiparametryczna , nie opiera się na zwykłych projekcjach najmniejszych kwadratów , ale raczej na uregulowanych ( uogólnionych i/lub penalizowanych) najmniejszych kwadratach , a więc stopnie swobody zdefiniowane w kategoriach wymiarowości generalnie nie są przydatne w tych procedurach. Jednak te procedury są nadal liniowe w obserwacjach, a dopasowane wartości regresji można wyrazić w postaci

gdzie jest dopasowanych wartości dla każdej z oryginalnych wartości współzmiennych z dopasowanego modelu, y oryginalnym wektorem odpowiedzi, a H jest macierzą kapelusza lub, bardziej ogólnie , gładsza matryca.

Dla wnioskowania statystycznego nadal można utworzyć sumy kwadratów: modelowa suma kwadratów to ; pozostała suma kwadratów wynosi . Ponieważ jednak H nie odpowiada zwykłemu dopasowaniu metodą najmniejszych kwadratów (tj. nie jest odwzorowaniem ortogonalnym), te sumy kwadratów nie mają już (skalowanych, niecentralnych) rozkładów chi-kwadrat i wymiarowo zdefiniowanych stopni -wolność nie jest użyteczna.

Efektywne stopnie swobody dopasowania można zdefiniować na różne sposoby, aby wdrożyć testy dobroci dopasowania , walidację krzyżową i inne procedury wnioskowania statystycznego . Tutaj można rozróżnić efektywne stopnie swobody regresji i resztkowe efektywne stopnie swobody .

Efektywne stopnie swobody regresji

Dla regresji efektywnych stopni swobody odpowiednie definicje mogą zawierać ślad macierzy kapelusza, tr( H ), ślad formy kwadratowej macierzy kapelusza, tr( H'H ), postać tr(2 H H H' ) lub przybliżenie Satterthwaite'a , tr( H'H ) 2 /tr( H'HH'H ) . W przypadku regresji liniowej macierz kapelusza H to X ( X ' X ) −1 X ' , a wszystkie te definicje sprowadzają się do zwykłych stopni swobody. Zauważ, że

regresyjne (nie resztkowe) stopnie swobody w modelach liniowych są „sumą wrażliwości dopasowanych wartości w odniesieniu do obserwowanych wartości odpowiedzi”, tj. sumą wyników dźwigni .

Jednym ze sposobów ułatwienia konceptualizacji jest rozważenie prostej macierzy wygładzania, takiej jak rozmycie gaussowskie , używanej do łagodzenia szumu danych. W przeciwieństwie do prostego dopasowania liniowego lub wielomianowego, obliczenie efektywnych stopni swobody funkcji wygładzającej nie jest proste. W takich przypadkach ważne jest oszacowanie stopni swobody dozwolonych przez , tak aby pozostałe stopnie swobody można było następnie wykorzystać do oszacowania testów statystycznych, takich jak .

Resztkowe efektywne stopnie swobody

Istnieją odpowiednie definicje resztkowych efektywnych stopni swobody (redf), gdzie H zastąpiono przez I - H . Na przykład, jeśli celem jest oszacowanie wariancji błędu, redf byłoby zdefiniowane jako tr (( ja - H ) '( ja - H )), a nieobciążone oszacowanie to (gdzie ),

Lub:

Ostatnie przybliżenie powyżej zmniejsza koszt obliczeniowy z O ( n 2 ) do samego O ( n ). Ogólnie licznik byłby minimalizowaną funkcją celu; . jeśli macierz kapelusza zawiera macierz kowariancji obserwacji, Σ, to r .

Ogólny

Zauważ, że w przeciwieństwie do pierwotnego przypadku dozwolone są niecałkowite stopnie swobody, chociaż wartość musi zwykle nadal być ograniczona między 0 a n .

Rozważmy jako przykład k - najbliższy sąsiad wygładzający, który jest średnią z k najbliższych zmierzonych wartości do danego punktu. Wtedy w każdym z n zmierzonych punktów waga pierwotnej wartości na kombinacji liniowej, która tworzy przewidywaną wartość, wynosi zaledwie 1/ k . Zatem ślad macierzy kapelusza wynosi n/k . Zatem gładkie koszty n/k efektywnych stopni swobody.

Jako inny przykład rozważ istnienie prawie zduplikowanych obserwacji. Naiwne zastosowanie klasycznego wzoru n p , prowadziłoby do przeszacowania resztowego stopnia swobody, tak jakby każda obserwacja była niezależna. Jednak bardziej realistycznie, macierz kapelusza H = X ( X ' Σ -1 X ) -1 X ' Σ -1 obejmowałaby macierz kowariancji obserwacji Σ wskazującą niezerową korelację między obserwacjami.

Bardziej ogólne sformułowanie efektywnego stopnia swobody dałoby bardziej realistyczne oszacowanie np. wariancji błędu σ 2 , która z kolei skaluje odchylenie standardowe a posteriori nieznanych parametrów; stopień swobody wpłynie również na współczynnik rozszerzenia niezbędny do wytworzenia elipsy błędu dla danego poziomu ufności .

Inne preparaty

Podobne pojęcia to równoważne stopnie swobody w regresji nieparametrycznej , stopień swobody sygnału w badaniach atmosfery oraz niecałkowity stopień swobody w geodezji.

suma kwadratów uogólniony rozkład chi-kwadrat alternatywną drogę odpowiedzi podane powyżej. [ potrzebne dalsze wyjaśnienia ]

Zobacz też

Dalsza lektura

Linki zewnętrzne