Liniowy model prawdopodobieństwa

W statystyce liniowy model prawdopodobieństwa ( LPM) jest szczególnym przypadkiem modelu regresji binarnej . Tutaj zmienna zależna dla każdej obserwacji przyjmuje wartości 0 lub 1. Prawdopodobieństwo zaobserwowania 0 lub 1 w dowolnym przypadku jest traktowane jako zależne od jednej lub więcej zmiennych objaśniających . W przypadku „liniowego modelu prawdopodobieństwa” zależność ta jest szczególnie prosta i umożliwia dopasowanie modelu za pomocą regresji liniowej .

Model zakłada, że ​​dla wyniku binarnego ( Bernoulliego ) i powiązanego z wektora zmiennych objaśniających, }

Dla tego modelu

stąd wektor parametrów β można oszacować metodą najmniejszych kwadratów . Ta metoda dopasowania byłaby nieefektywna i można ją ulepszyć, przyjmując schemat iteracyjny oparty na ważonych najmniejszych kwadratach , w którym model z poprzedniej iteracji służy do dostarczania oszacowań wariancji warunkowych, , które różniłyby się w zależności od obserwacji. Podejście to można odnieść do dopasowania modelu przez największe prawdopodobieństwo .

Wadą tego modelu jest to, że o ile nie zostaną nałożone ograniczenia współczynniki mogą implikować prawdopodobieństwa poza przedziałem jednostkowym . Z tego powodu częściej stosowane są modele takie jak model logitowy czy model probitowy .

Formuła z utajoną zmienną

Bardziej formalnie, LPM może wynikać ze sformułowania o zmiennej ukrytej (zwykle można je znaleźć w literaturze ekonometrycznej), w następujący sposób: załóżmy następujący model regresji z ukrytą (nieobserwowalną) zmienną zależną:

Krytycznym założeniem jest tutaj to, że składnik błędu tej regresji jest symetryczną zmienną losową jednorodną wokół zera, a zatem o średniej zerowej. Skumulowana funkcja tutaj

Zdefiniuj zmienną wskaźnikową , jeśli i zero w przeciwnym razie, i rozważ prawdopodobieństwo warunkowe



Ale to jest liniowy model prawdopodobieństwa,

z mapowaniem

Ta metoda jest ogólnym narzędziem do uzyskiwania warunkowego modelu prawdopodobieństwa zmiennej binarnej: jeśli założymy, że rozkład składnika błędu jest logistyczny, otrzymamy model logitowy, natomiast jeśli założymy, że jest to rozkład normalny , otrzymamy probit model i, jeśli założymy, że jest to logarytm rozkładu Weibulla, komplementarny model log-log .

Zobacz też

Dalsza lektura

  •   Aldrich, John H .; Nelson, Forrest D. (1984). „Liniowy model prawdopodobieństwa” . Modele prawdopodobieństwa liniowego, logitowego i probitowego . Szałwia. s. 9–29. ISBN 0-8039-2133-0 .
  •   Amemiya, Takeshi (1985). „Jakościowe modele odpowiedzi” . Zaawansowana ekonometria . Oksford: Basil Blackwell. s. 267–359. ISBN 0-631-13345-3 .
  •   Wooldridge, Jeffrey M. (2013). „Dwójkowa zmienna zależna: liniowy model prawdopodobieństwa”. Ekonometria wprowadzająca: nowoczesne podejście (5. wydanie międzynarodowe). Mason, OH: południowo-zachodni. s. 238–243. ISBN 978-1-111-53439-4 .
  • Horrace, William C. i Ronald L. Oaxaca. „Wyniki dotyczące obciążenia i niespójności zwykłych najmniejszych kwadratów dla liniowego modelu prawdopodobieństwa”. Listy ekonomiczne, 2006: tom. 90, s. 321–327