Regresja jądra
W statystyce regresja jądra jest nieparametryczną techniką szacowania warunkowej wartości oczekiwanej zmiennej losowej . Celem jest znalezienie nieliniowej zależności między parą zmiennych losowych X i Y .
W dowolnej regresji nieparametrycznej warunkowe oczekiwanie zmiennej względem zmiennej można zapisać:
gdzie jest .
Regresja jądra Nadarai – Watsona
Nadaraya i Watson , obaj w 1964 roku, zaproponowali oszacowanie lokalnie średniej ważonej, używając jako funkcji ważącej. Estymator Nadarai – Watsona to:
gdzie jądrem _
Pochodzenie
Korzystając z oszacowania gęstości jądra dla wspólnego rozkładu f ( x , y ) i f ( x ) z jądrem K ,
dostajemy
który jest estymatorem Nadarayi – Watsona.
Estymator jądra Priestleya-Chao
gdzie (lub parametr wygładzania).
Estymator jądra Gassera-Müllera
gdzie
Przykład
Ten przykład jest oparty na kanadyjskich przekrojowych danych płacowych, składających się z losowej próby pobranej z taśm kanadyjskiego spisu powszechnego z 1971 r. dla mężczyzn posiadających wspólne wykształcenie (klasa 13). W sumie jest 205 obserwacji.
Rysunek po prawej stronie przedstawia oszacowaną funkcję regresji przy użyciu jądra Gaussa drugiego rzędu wraz z asymptotycznymi granicami zmienności.
Skrypt np
Następujące polecenia języka programowania R wykorzystują funkcję npreg()
w celu zapewnienia optymalnego wygładzenia i utworzenia figury podanej powyżej. Polecenia te można wprowadzić w wierszu polecenia za pomocą funkcji wycinania i wklejania.
install.packages ( "np" ) biblioteka ( np ) # nieparametryczne dane biblioteki ( cps71 ) dołącz ( cps71 ) m <- npreg ( logwage ~ wiek ) plot ( m , plot.errors.method = "asymptotic" , plot.errors .style = "zespół" , ylim = c (
11 , 15,2 )) punkty ( wiek , logwaage , cex = . 25 )
Powiązany
Według Davida Salsburga algorytmy stosowane w regresji jądra zostały niezależnie opracowane i użyte w systemach rozmytych : „Wymyślając prawie dokładnie ten sam algorytm komputerowy, wydaje się, że systemy rozmyte i regresje oparte na gęstości jądra zostały opracowane całkowicie niezależnie od siebie. "
Implementacja statystyczna
- Pakiet programów matematycznych GNU Octave
- Julia : KernelEstimator.jl
- MATLAB : Bezpłatny zestaw narzędzi MATLAB z implementacją regresji jądra, szacowania gęstości jądra, szacowania funkcji hazardu jądra i wielu innych jest dostępny na tych stronach (ten zestaw narzędzi jest częścią książki).
-
Python : klasa
KernelReg
dla mieszanych typów danych w podpakieciestatsmodels.nonparametric
(zawiera inne klasy związane z gęstością jądra), pakiet kernel_regression jako rozszerzenie scikit-learn (nieefektywne pod względem pamięci, przydatne tylko dla małych zbiorów danych) -
R : funkcja
npreg
pakietu np może wykonać regresję jądra. - Stan : npregress , kernreg2
Zobacz też
Dalsza lektura
- Henderson, Daniel J.; Parmeter, Christopher F. (2015). Stosowana ekonometria nieparametryczna . Wydawnictwo Uniwersytetu Cambridge. ISBN 978-1-107-01025-3 .
- Li, Qi; Racine, Jeffrey S. (2007). Ekonometria nieparametryczna: teoria i praktyka . Wydawnictwo Uniwersytetu Princeton. ISBN 978-0-691-12161-1 .
- Pagan, A.; Ullah, A. (1999). Ekonometria nieparametryczna . Wydawnictwo Uniwersytetu Cambridge. ISBN 0-521-35564-8 .
- Simonoff, Jeffrey S. (1996). Metody wygładzania w statystyce . Skoczek. ISBN 0-387-94716-7 .
Linki zewnętrzne
- Dostosowana do skali regresja jądra (z oprogramowaniem Matlab).
- Samouczek regresji jądra przy użyciu arkusza kalkulacyjnego (z Microsoft Excel ).
- Demonstracja regresji jądra online Wymaga platformy .NET 3.0 lub nowszej.
- Regresja jądra z automatycznym wyborem przepustowości (z Pythonem)