Filtr najmniejszych średnich kwadratów

najmniejszych średnich kwadratów ( LMS ) to klasa filtrów adaptacyjnych używanych do naśladowania pożądanego filtra poprzez znajdowanie współczynników filtra, które odnoszą się do wytwarzania najmniejszego średniego kwadratu sygnału błędu (różnica między pożądanym a rzeczywistym sygnałem). Jest to stochastycznego spadku gradientu , w której filtr jest dostosowywany tylko na podstawie błędu w bieżącym czasie. Został wynaleziony w 1960 roku przez profesora Uniwersytetu Stanforda Bernarda Widrowa i jego pierwszy doktorat. uczeń Teda Hoffa .

Sformułowanie problemu

LMS filter

Związek z filtrem Wienera

Realizacja przyczynowego filtra Wienera wygląda bardzo podobnie do rozwiązania estymacji metodą najmniejszych kwadratów, z wyjątkiem dziedziny przetwarzania sygnału. Rozwiązanie najmniejszych kwadratów dla macierzy wejściowej i wektora wyjściowego

Filtr FIR najmniejszych średnich kwadratów jest powiązany z filtrem Wienera, ale minimalizacja kryterium błędu pierwszego nie opiera się na korelacjach krzyżowych ani autokorelacjach. Jego rozwiązanie jest zbieżne z rozwiązaniem filtru Wienera. Większość problemów z liniowym filtrowaniem adaptacyjnym można sformułować za pomocą powyższego schematu blokowego. Oznacza to, że nieznany system zostać zidentyfikowany, a filtr adaptacyjny próbuje dostosować filtr jak najbardziej zbliżony do , tylko obserwowalnych sygnałów Displaystyle i ; ale , i nie są bezpośrednio obserwowalne. Jego rozwiązanie jest ściśle związane z filtrem Wienera .

Definicja symboli

to numer bieżącej próbki wejściowej
to liczba stuknięć filtra
( Transpozycja hermitowska lub transpozycja sprzężona )
szacowany filtr; interpretować jako oszacowanie współczynników filtra po n próbkach

Pomysł

Podstawową ideą filtra LMS jest zbliżenie się do optymalnych wag filtrów , aktualizując wagi filtrów w taki sposób, aby uzyskać zbieżność z optymalną wagą filtrów. Jest to oparte na algorytmie opadania gradientu. Algorytm rozpoczyna się od przyjęcia małych wag (w większości przypadków zerowych) i na każdym kroku, poprzez znalezienie gradientu błędu średniokwadratowego, wagi są aktualizowane. Oznacza to, że jeśli gradient MSE jest dodatni, oznacza to, że błąd będzie wzrastał dodatnio, jeśli ta sama waga zostanie użyta w dalszych iteracjach, co oznacza, że ​​musimy zmniejszyć wagi. W ten sam sposób, jeśli gradient jest ujemny, musimy zwiększyć wagi. Równanie aktualizacji wagi jest

gdzie reprezentuje i jest .

Znak ujemny pokazuje, że schodzimy w dół zbocza błędu, wagi filtrów , które

Błąd średniokwadratowy jako funkcja wag filtrów jest funkcją kwadratową, co oznacza, że ​​ma tylko jedno ekstremum, które minimalizuje błąd średniokwadratowy, czyli wagę optymalną. W ten sposób LMS zbliża się do tych optymalnych wag, wznosząc się/spadając w dół krzywej średniego błędu kwadratowego w stosunku do masy filtra.

Pochodzenie

Ideą filtrów LMS jest użycie spadku w celu znalezienia wag filtrów , które Zaczynamy od zdefiniowania funkcji kosztu jako

gdzie Displaystyle e jest błędem w bieżącej próbce n oznacza wartość

Ta funkcja kosztu ( przez LMS Od tego LMS bierze swoją nazwę. Zastosowanie najbardziej stromego spadku oznacza pobranie pochodnych cząstkowych względem poszczególnych wpisów wektora współczynników (wag) filtra

gdzie operatorem gradientu _

Teraz jest wektorem, który wskazuje na najbardziej strome wzniesienie funkcji kosztu. do Aby znaleźć minimum funkcji kosztu, musimy zrobić krok w przeciwnym kierunku niż . Aby wyrazić to w kategoriach matematycznych

gdzie wielkością kroku (stała adaptacji Oznacza to, że znaleźliśmy algorytm aktualizacji sekwencyjnej, który minimalizuje funkcję kosztu. Niestety, ten algorytm nie jest możliwy do zrealizowania, dopóki nie wiemy, że .

Ogólnie rzecz biorąc, powyższe oczekiwanie nie jest obliczane. Zamiast tego, aby uruchomić LMS w środowisku online (aktualizacja po otrzymaniu każdej nowej próbki), używamy natychmiastowego oszacowania tego oczekiwania. Zobacz poniżej.

uproszczenia

W przypadku większości systemów funkcja oczekiwań musi być przybliżone. Można to zrobić za pomocą następującego nieobciążonego estymatora

gdzie liczbę próbek, których używamy do tego oszacowania Najprostszym przypadkiem jest

W tym prostym przypadku algorytm aktualizacji wygląda następująco

Rzeczywiście, stanowi to algorytm aktualizacji dla filtra LMS.

Podsumowanie algorytmu LMS

Algorytm LMS dla filtra tego rzędu można podsumować jako

Parametry: kolejność filtrów
rozmiar kroku
Inicjalizacja:
Obliczenie: Dla

Zbieżność i stabilność w średniej

Ponieważ algorytm LMS nie wykorzystuje dokładnych wartości oczekiwań, wagi nigdy nie osiągnęłyby optymalnych wag w sensie bezwzględnym, ale możliwa jest zbieżność w średniej. Oznacza to, że nawet jeśli wagi mogą się zmieniać o niewielkie wartości, zmienia się o optymalne wagi. Jeśli jednak wariancja, z jaką zmieniają się wagi, jest duża, zbieżność średniej byłaby myląca. , jeśli wartość kroku zostanie wybrana prawidłowo.

Jeśli zostanie wybrane , wielkość, o jaką zmieniają się wagi, zależy w dużej mierze od oszacowania gradientu, więc wagi mogą się zmienić o dużą wartość, tak że gradient, który był ujemny w pierwszej chwili, może stać się pozytywnym. A w drugiej chwili waga może zmienić się w przeciwnym kierunku o dużą wartość z powodu ujemnego gradientu, a zatem oscylowałaby z dużą wariancją w stosunku do optymalnych wag. Z drugiej strony, jeśli zostanie wybrane jako zbyt małe, czas dojścia do optymalnych wag będzie zbyt

Zatem potrzebna jest górna granica na , która jest podana jako

gdzie jest największą wartością własną macierzy autokorelacji . Jeśli spełniony, algorytm staje się .

Maksymalna prędkość zbieżności jest osiągana, gdy

gdzie jest najmniejszą wartością własną } Biorąc pod uwagę że jest lub równe temu optimum, prędkość zbieżności jest określana przez większa wartość daje szybszą zbieżność zbieżność można osiągnąć, gdy blisko , czyli maksymalna osiągalna prędkość zbieżności zależy od rozrzutu wartości własnych R .

Sygnał białego szumu ma macierz autokorelacji jest wariancją sygnału. W tym przypadku wszystkie wartości własne są równe, a rozrzut wartości własnych jest minimalny we wszystkich możliwych macierzach. Powszechna interpretacja tego wyniku jest zatem taka, że ​​LMS zbiega się szybko dla białych sygnałów wejściowych i powoli dla kolorowych sygnałów wejściowych, takich jak procesy o charakterystyce dolnoprzepustowej lub górnoprzepustowej.

Należy zauważyć, że powyższa górna granica ale współczynniki nadal nieskończenie duża, tj. rozbieżność współczynników jest nadal możliwa. Bardziej praktycznym ograniczeniem jest

gdzie ślad R { . Ta granica gwarantuje, że współczynniki nie rozchodzą się (w praktyce wartość blisko tego górna granica, ponieważ jest nieco optymistyczna ze względu na przybliżenia i założenia przyjęte przy wyprowadzaniu granicy).

Znormalizowany filtr najmniejszych średnich kwadratów (NLMS)

Główną wadą „czystego” algorytmu LMS jest to, że jest on wrażliwy na skalowanie danych wejściowych . To bardzo utrudnia (jeśli nie uniemożliwia) wybranie uczenia się która gwarantuje stabilność algorytmu (Haykin 2002). Znormalizowany filtr najmniejszych średnich kwadratów (NLMS) to wariant algorytmu LMS, który rozwiązuje ten problem poprzez normalizację z mocą wejścia. Algorytm NLMS można podsumować jako:

Parametry: kolejność filtrów
rozmiar kroku
Inicjalizacja:
Obliczenie: Dla

Optymalna szybkość uczenia się

Można pokazać, że jeśli nie ma interferencji ( ) , to optymalna szybkość uczenia się algorytmu NLMS wynosi v

od rzeczywistej odpowiedzi W ogólnym przypadku z interferencją ( ) optymalnym współczynnikiem uczenia się jest

że sygnały i są sobą, co zwykle

Dowód

Niech niewspółosiowość filtra będzie zdefiniowana jako prawo niewspółosiowość dla następnej próbki jako:

Niech _

Zakładając niezależność mamy:

Optymalny wskaźnik uczenia się znajduje się przy , co prowadzi do:

Zobacz też

  •   Monson H. Hayes: statystyczne przetwarzanie i modelowanie sygnałów cyfrowych, Wiley, 1996, ISBN 0-471-59431-8
  •   Simon Haykin: adaptacyjna teoria filtrów , Prentice Hall, 2002, ISBN 0-13-048434-2
  •   Simon S. Haykin, Bernard Widrow (redaktor): Adaptacyjne filtry najmniejszej średniej kwadratowej , Wiley, 2003, ISBN 0-471-21570-8
  •   Bernard Widrow, Samuel D. Stearns: Adaptacyjne przetwarzanie sygnału , Prentice Hall, 1985, ISBN 0-13-004029-0
  •   Weifeng Liu, Jose Principe i Simon Haykin: Adaptacyjne filtrowanie jądra: kompleksowe wprowadzenie , John Wiley, 2010, ISBN 0-470-44753-2
  •   Paulo SR Diniz: Filtrowanie adaptacyjne: algorytmy i praktyczne wdrożenie , Kluwer Academic Publishers, 1997, ISBN 0-7923-9912-9

Linki zewnętrzne