Warstwowy ukryty model Markowa
Warstwowy . ukryty model Markowa (LHMM) to model statystyczny wywodzący się z ukrytego modelu Markowa (HMM) Warstwowy ukryty model Markowa (LHMM) składa się z N poziomów HMM, gdzie HMM na poziomie i + 1 odpowiadają symbolom obserwacji lub generatorom prawdopodobieństwa na poziomie i . Każdy poziom i LHMM składa się z K i HMM działających równolegle.
Tło
LHMM są czasami przydatne w określonych strukturach, ponieważ mogą ułatwiać uczenie się i uogólnianie. Na przykład, chociaż w pełni połączony HMM zawsze mógłby być używany, gdyby dostępna była wystarczająca ilość danych treningowych, często przydatne jest ograniczenie modelu przez niedopuszczenie do dowolnych przejść między stanami. W ten sam sposób korzystne może być osadzenie HMM w warstwowej strukturze, która teoretycznie może nie być w stanie rozwiązać żadnych problemów, których nie może rozwiązać podstawowy HMM, ale może rozwiązać niektóre problemy wydajniej, ponieważ potrzeba mniej danych treningowych.
Warstwowy ukryty model Markowa (LHMM) składa się z HMM na poziomie obserwacji lub generatorom prawdopodobieństwa . Każdy poziom z HMM równolegle
Na dowolnym poziomie sekwencja symboli obserwacji do zaklasyfikowania danych wejściowych do jednego z klasa odpowiada każdemu z HMM na poziomie . Klasyfikacja ta może być następnie wykorzystana do wygenerowania nowej obserwacji dla HMM poziomu Na najniższej warstwie, tj. poziomie symbole obserwacji byłby generowany bezpośrednio z obserwacji modelowanego procesu. Na przykład w zadaniu śledzenia trajektorii prymitywne symbole obserwacji pochodziłyby ze skwantyzowanych wartości czujnika. Zatem w każdej warstwie LHMM obserwacje pochodzą z klasyfikacji warstwy leżącej poniżej, z wyjątkiem najniższej warstwy, gdzie symbole obserwacji pochodzą z pomiarów obserwowanego procesu.
Nie jest konieczne jednoczesne uruchamianie wszystkich poziomów ziarnistości. Na przykład możliwe jest użycie okienkowania na dowolnym poziomie struktury, tak aby klasyfikacja uwzględniała średnią z kilku klasyfikacji przed przekazaniem wyników do kolejnych warstw LHMM.
Zamiast po prostu używać zwycięskiego HMM na poziomie symbolu wejściowego dla HMM na poziomie, użyć jako generatora prawdopodobieństwa, przekazując rozkład w górę warstw LHMM. Tak więc zamiast strategii „zwycięzca bierze wszystko”, w której najbardziej prawdopodobny HMM jest wybierany jako symbol obserwacji, prawdopodobieństwo zaobserwowania rekurencji poziomu HMM na Tak więc, jeśli klasyfikacja HMM na poziomie możliwe jest zwrócenie większej uwagi na informacje a priori zakodowane na
LHMM można w praktyce przekształcić w jednowarstwowy HMM, w którym wszystkie różne modele są ze sobą połączone. Niektóre z zalet, których można oczekiwać od używania LHMM w porównaniu z dużym jednowarstwowym HMM, to mniejsze prawdopodobieństwo, że LHMM będzie cierpieć z powodu przeuczenia ponieważ poszczególne podkomponenty są szkolone niezależnie na mniejszych ilościach danych. Konsekwencją tego jest to, że LHMM potrzebuje znacznie mniejszej ilości danych treningowych, aby osiągnąć wydajność porównywalną z HMM. Kolejną zaletą jest to, że warstwy na dole LHMM, które są bardziej wrażliwe na zmiany w środowisku, takie jak typ czujników, częstotliwość próbkowania itp., można ponownie trenować oddzielnie bez zmiany wyższych warstw LHMM.