Jądro Fishera
W klasyfikacji statystycznej jądro Fishera , nazwane na cześć Ronalda Fishera , jest funkcją, która mierzy podobieństwo dwóch obiektów na podstawie zbiorów pomiarów dla każdego obiektu i modelu statystycznego. W procedurze klasyfikacji klasę nowego obiektu (którego rzeczywista klasa jest nieznana) można oszacować, minimalizując, między klasami, średnią odległość jądra Fishera od nowego obiektu do każdego znanego członka danej klasy.
Jądro Fishera zostało wprowadzone w 1998 roku. Łączy w sobie zalety generatywnych modeli statystycznych (takich jak ukryty model Markowa ) i metod dyskryminacyjnych (takich jak maszyny wektorów nośnych ):
- modele generatywne mogą przetwarzać dane o zmiennej długości (dobrze obsługiwane jest dodawanie lub usuwanie danych)
- metody dyskryminacyjne mogą mieć elastyczne kryteria i dawać lepsze wyniki.
Pochodzenie
Wynik Fishera
Jądro Fishera wykorzystuje punktację Fishera , zdefiniowaną jako
gdzie θ jest zbiorem (wektorem) parametrów. Funkcja biorąca θ do logarytmu P( X | θ ) jest logarytmem wiarygodności modelu probabilistycznego.
Jądro Fishera
Jądro Fishera jest zdefiniowane jako
gdzie informacyjną Fishera .
Aplikacje
Wyszukiwanie informacji
Jądro Fishera jest jądrem generatywnego modelu probabilistycznego. Jako taka stanowi pomost pomiędzy generatywnymi i probabilistycznymi modelami dokumentów. Jądra Fishera istnieją dla wielu modeli, w szczególności tf – idf , Naive Bayes i probabilistyczna utajona analiza semantyczna .
Klasyfikacja i wyszukiwanie obrazów
Jądro Fishera można również zastosować do reprezentacji obrazu w przypadku problemów z klasyfikacją lub wyszukiwaniem. Obecnie najpopularniejsza worka słów wizualnych cierpi na rzadkość i wysoką wymiarowość. Jądro Fishera może skutkować zwartą i gęstą reprezentacją, co jest bardziej pożądane w przypadku problemów z klasyfikacją i wyszukiwaniem obrazów.
Wektor Fishera (FV), specjalny, przybliżony i ulepszony przypadek ogólnego jądra Fishera, to reprezentacja obrazu uzyskana przez połączenie lokalnych cech obrazu . Kodowanie FV przechowuje wektory średniej i odchylenia kowariancji dla składnika k Gaussa-Mixture-Model (GMM) i każdego elementu lokalnych deskryptorów cech razem. W systematycznym porównaniu FV przewyższył wszystkie porównywane metody kodowania ( Bag of Visual Words (BoW) , Kernel Codebook encoding (KCB), Locality Constrained Linear Coding (LLC), Vector of Locally Agregated Descriptors (VLAD)) pokazując, że kodowanie drugiego informacje o kolejności (inaczej kowariancje słów kodowych) rzeczywiście korzystnie wpływają na wydajność klasyfikacji.
Zobacz też
Uwagi i odniesienia
- ^ Tommi Jaakkola i David Haussler (1998), Wykorzystanie modeli generatywnych w klasyfikatorach dyskryminacyjnych. W Advances in Neural Information Processing Systems 11 , strony 487–493. MIT Press. ISBN 978-0-262-11245-1 PS , Citeseer
- Bibliografia _ _ _ _ 10-12 marca 2004r
- ^ Charles Elkan (2005). Wyprowadzanie TF-IDF jako jądra rybaka (PDF) . IGLICA. Zarchiwizowane od oryginału (PDF) w dniu 20 grudnia 2013 r.
- ^ Florent Perronnin i Christopher Dance (2007), „Fisher Kernels on Visual Vocabularies for Image Kategorization”
- Bibliografia _ (2010), „Agregowanie lokalnych deskryptorów w zwartą reprezentację obrazu”
- Bibliografia _ (2014), „Fisher Kernel Based Task Boundary Retrieval in Laparoskopic Database with Single Video Query”
- ^ "VLFeat - Dokumentacja > C API" . www.vlfeat.org . Źródło 2017-03-04 .
- ^ Seeland, Marco; Rzanny, Michał; Alaqraa, Nedal; Waldchen, Jana; Mäder, Patrick (24.02.2017). „Klasyfikacja gatunków roślin na podstawie obrazów kwiatów - badanie porównawcze lokalnych reprezentacji cech” . PLOS JEDEN . 12 (2): e0170629. doi : 10.1371/journal.pone.0170629 . ISSN 1932-6203 . PMC 5325198 . PMID 28234999 .
- Nello Cristianini i John Shawe-Taylor. Wprowadzenie do maszyn wektorów pomocniczych i innych metod uczenia się opartych na jądrze . Cambridge University Press, 2000. ISBN 0-521-78019-5 ( [1] SVM Book)