Standaryzowany współczynnik
W statystyce wystandaryzowane współczynniki (regresji) , zwane także współczynnikami beta lub wagami beta , to oszacowania wynikające z analizy regresji , w której dane bazowe zostały wystandaryzowane w taki sposób, że wariancje zmiennych zależnych i niezależnych są równe 1. Dlatego też wystandaryzowane współczynniki są bezmierne i odnoszą się do tego, o ile odchyleń standardowych zmieni się zmienna zależna na wzrost odchylenia standardowego zmiennej predykcyjnej.
Stosowanie
Standaryzacja współczynnika jest zwykle przeprowadzana w celu odpowiedzi na pytanie, która ze zmiennych niezależnych ma większy wpływ na zmienną zależną w analizie regresji wielokrotnej , w której zmienne są mierzone w różnych jednostkach miary (na przykład dochód mierzony w dolarach i rodzina wielkość mierzona liczbą osobników). Można to również uznać za ogólną miarę wielkości efektu , kwantyfikując „wielkość” wpływu jednej zmiennej na inną. W przypadku prostej regresji liniowej z predyktorami ortogonalnymi standaryzowany współczynnik regresji jest równy korelacji między zmiennymi niezależnymi i zależnymi.
Realizacja
Regresja przeprowadzona na oryginalnych (niestandaryzowanych) zmiennych daje niestandaryzowane współczynniki . Regresja przeprowadzona na zmiennych standaryzowanych daje wystandaryzowane współczynniki. Wartości znormalizowanych i niestandaryzowanych współczynników można również przeskalować względem siebie po przeprowadzeniu dowolnego typu analizy. że jest współczynnikiem regresji wynikającym z regresji liniowej (przewidywanie x ). Standaryzowany współczynnik po prostu daje wynik jako , gdzie i są ( ) odchyleniami standardowymi odpowiednio i .
Czasami standaryzacja odbywa się tylko bez uwzględnienia odchylenia standardowego regresora ( zmienna .
Zalety i wady
Zwolennicy standaryzowanych współczynników zauważają, że współczynniki są niezależne od jednostek miary zaangażowanych zmiennych (tj. standaryzowane współczynniki są bez jednostek ), co ułatwia porównania.
Krytycy wyrażają obawy, że taka standaryzacja może być bardzo myląca. Ze względu na przeskalowanie oparte na odchyleniach standardowych próbki, jakikolwiek efekt widoczny w znormalizowanym współczynniku może wynikać z pomieszania ze szczegółami (zwłaszcza: zmiennością ) zaangażowanych próbek danych. Również interpretacja lub znaczenie „ zmiany o jedno odchylenie standardowe ” w regresorze może się znacznie różnić między rozkładami innymi niż normalne np. Gdy jest skośny asymetryczny lub multimodalny ).
Terminologia
Niektóre pakiety oprogramowania statystycznego, takie jak PSPP , SPSS i SYSTAT , oznaczają znormalizowane współczynniki regresji jako „Beta”, podczas gdy niestandaryzowane współczynniki są oznaczone jako „B”. Inne, takie jak DAP / SAS , określają je jako „Standardowy współczynnik”. Czasami niestandaryzowane zmienne są również oznaczone jako „b”.
Zobacz też
Dalsza lektura
- Schroeder, Larry D.; Sjoquist, David L.; Stephan, Paula E. (1986). Zrozumienie analizy regresji . Publikacje mędrca. s. 31–32 . ISBN 0-8039-2758-4 .
- Vittinghoff, Eric; Glidden, David V.; Shiboski, Stephen C.; McCulloch, Charles E. (2005). Metody regresji w biostatystyce: modele liniowe, logistyczne, przetrwania i powtarzalnych pomiarów . Skoczek. s. 75–76. ISBN 0-387-20275-7 .
- Neter, J.; Kutner, MH; Nachtsheim, CJ; Wasserman, W. (1996). „7.5 Standaryzowany model regresji wielokrotnej”. Stosowane liniowe modele statystyczne (wyd. 4). McGraw-Hill. s. 281–284. ISBN 0-256-11736-5 .
Linki zewnętrzne
- Które predyktory są ważniejsze? - dlaczego stosuje się znormalizowane współczynniki