Hierarchiczny ukryty model Markowa
Hierarchiczny ukryty model Markowa (HHMM) jest modelem statystycznym wywodzącym się z ukrytego modelu Markowa (HMM). W HHMM każdy stan jest uważany za samodzielny model probabilistyczny . Dokładniej, każdy stan HHMM sam w sobie jest HHMM.
HHMM i HMM są przydatne w wielu dziedzinach, w tym w rozpoznawaniu wzorców .
Tło
Czasami przydatne jest użycie HMM w określonych strukturach, aby ułatwić uczenie się i uogólnianie. Na przykład, chociaż zawsze można użyć w pełni połączonego HMM, jeśli dostępna jest wystarczająca ilość danych uczących, często przydatne jest ograniczenie modelu przez niedopuszczenie do dowolnych przejść między stanami. W ten sam sposób korzystne może być osadzenie HMM w większej strukturze; który teoretycznie może nie być w stanie rozwiązać żadnych innych problemów niż podstawowy HMM, ale może rozwiązać niektóre problemy wydajniej, jeśli chodzi o ilość wymaganych danych treningowych.
Opis
W hierarchicznym ukrytym modelu Markowa (HHMM) każdy stan jest uważany za samodzielny model probabilistyczny. Dokładniej, każdy stan HHMM sam w sobie jest HHMM. Oznacza to, że stany HHMM emitują sekwencje symboli obserwacji, a nie pojedyncze symbole obserwacji, jak ma to miejsce w przypadku standardowych stanów HMM.
Kiedy stan w HHMM jest aktywowany, aktywuje on swój własny model probabilistyczny, tj. aktywuje jeden ze stanów bazowego HHMM, który z kolei może aktywować leżący u jego podstaw HHMM i tak dalej. Proces jest powtarzany, aż do aktywacji specjalnego stanu, zwanego stanem produkcyjnym. Tylko stany produkcyjne emitują symbole obserwacji w zwykłym sensie HMM. Kiedy stan produkcyjny wyemitował symbol, sterowanie powraca do stanu, który aktywował stan produkcyjny. Stany, które nie emitują bezpośrednio symboli obserwacji, nazywane są stanami wewnętrznymi. Aktywacja stanu w HHMM w stanie wewnętrznym nazywana jest przejściem pionowym . Po zakończeniu przejścia pionowego przejście poziome do stanu na tym samym poziomie. Kiedy przejście poziome prowadzi do końcowego , kontrola powraca do stanu w HHMM, znajdującego się wyżej w hierarchii, który spowodował ostatnie przejście pionowe.
Należy zauważyć, że przejście pionowe może skutkować większą liczbą przejść pionowych przed osiągnięciem sekwencji stanów produkcyjnych i ostatecznym powrotem do najwyższego poziomu. W ten sposób odwiedzone stany produkcji dają początek sekwencji symboli obserwacji, która jest „wytwarzana” przez stan na najwyższym poziomie.
Metody szacowania parametrów HHMM i struktury modelu są bardziej złożone niż w przypadku parametrów HMM, a zainteresowanego czytelnika odsyłamy do Fine et al. (1998).
HMM i HHMM należą do tej samej klasy klasyfikatorów. Oznacza to, że można ich użyć do rozwiązania tego samego zestawu problemów. W rzeczywistości HHMM można przekształcić w standardowy HMM. Jednak HHMM wykorzystuje swoją strukturę do bardziej efektywnego rozwiązywania podzbioru problemów.
Topologia
Klasyczne HHMM wymagają z góry określonej topologii, co oznacza, że liczba i hierarchiczna struktura podmodeli muszą być znane z góry. Samko i in. (2010) wykorzystali informacje o stanach z przestrzeni cech (tj. spoza samego Modelu Markowa) w celu zdefiniowania topologii nowego HHMM w sposób nienadzorowany. Jednak takie zewnętrzne dane zawierające istotne informacje do konstruowania HHMM mogą nie być dostępne we wszystkich kontekstach, np. w przetwarzaniu języka.
Zobacz też
Dalsza lektura
- S. Fine, Y. Singer i N. Tishby, „Hierarchiczny ukryty model Markowa: analiza i zastosowania”, Machine Learning, tom. 32, s. 41–62, 1998
- K. Murphy i M. Paskin. „Liniowe wnioskowanie o czasie w hierarchicznych HMM”, NIPS-01 (Neural Info. Proc. Systems).
- H. Bui, D. Phung i S. Venkatesh. „Hierarchiczne ukryte modele Markowa z ogólną hierarchią stanu”, AAAI-04 (Krajowa konferencja na temat sztucznej inteligencji).