Rzadkie przybliżenie

rzadkich przybliżeń (znana również jako rzadka reprezentacja ) zajmuje się rzadkimi rozwiązaniami układów równań liniowych . Techniki znajdowania tych rozwiązań i wykorzystywania ich w aplikacjach znalazły szerokie zastosowanie w przetwarzaniu obrazów , przetwarzaniu sygnałów , uczeniu maszynowym , obrazowaniu medycznym i nie tylko.

Rzadki rozkład

Bezgłośne obserwacje

Rozważmy równań , gdzie macierzą \ alpha i . Macierz jest to pełna ranga) jest określane jako słownik, a zainteresowania. Podstawowy problem rzadkiej definiuje się jako poszukiwanie najrzadszej możliwej reprezentacji satysfakcjonującej . Ze względu na nieokreślony charakter , ten układ liniowy dopuszcza ogólnie nieskończenie wiele możliwych rozwiązań, a wśród nich szukamy tego, które ma najmniejszą liczbę niezerowych. Ujmując formalnie, rozwiązujemy

gdzie pseudonormą która zlicza liczbę niezerowych składników . Wiadomo, że ten problem jest NP-trudny z redukcją do problemów wyboru podzbioru NP-zupełnego w optymalizacja kombinatoryczna .

Rzadkość że ​​​​tylko kilka ( niezerowych. Podstawową motywacją do tak rzadkiego najprostszego wyjaśnienia jako liniowej kombinacji jak najmniejszej liczby kolumn z , również atomami Jako taki sygnał można postrzegać jako cząsteczkę złożoną z kilku podstawowych elementów .

Chociaż postawiony powyżej problem jest rzeczywiście NP-trudny, jego rozwiązanie często można znaleźć za pomocą algorytmów aproksymacyjnych. Jedną z takich opcji jest wypukła relaksacja problemu, uzyskana za pomocą , gdzie zamiast po prostu sumuje wartości bezwzględne wpisów . Jest to znane jako pogoń za bazą (BP), który można obsłużyć za pomocą dowolnego solwera programowania liniowego . Alternatywną metodą aproksymacji jest technika zachłanna, taka jak pogoń za dopasowaniem (MP), która pojedynczo znajduje położenie niezerowych.

Co zaskakujące, w łagodnych warunkach (przy użyciu (matematyka) , wzajemnej koherencji lub właściwości ograniczonej izometrii ) i poziomu rzadkości w rozwiązaniu, problem rzadkiej reprezentacji może re okaże się, że mają unikalne rozwiązanie, a BP i MP mają gwarancję, że znajdą je doskonale.


Głośne obserwacje

sygnał jest . Rozluźniając ograniczenie równości i nakładając -normę na termin pasujący do danych, rzadki problem rozkładu staje się

lub umieścić w postaci Lagrange'a,

gdzie zastępuje .

Podobnie jak w przypadku bezszumowego, te dwa problemy są ogólnie NP-trudne, ale można je przybliżyć za pomocą algorytmów pościgu. Dokładniej, zmieniając normę { \

co jest znane jako odszumianie podstawy . Podobnie, pogoń za dopasowaniem może służyć do aproksymacji rozwiązania powyższych problemów, znajdowania lokalizacji zer pojedynczo, aż do osiągnięcia progu błędu. Również tutaj gwarancje teoretyczne sugerują, że BP i MP prowadzą do prawie optymalnych rozwiązań w zależności rozwiązania . Inny interesujący wynik teoretyczny odnosi się do przypadku, w którym jest a. macierz jednostkowa . Przy założeniu problemy postawione powyżej (z albo dopuszczają zamkniętej w postaci nieliniowego skurczu

Wariacje

Istnieje kilka odmian podstawowego problemu rzadkiego przybliżenia.

Strukturalna rzadkość : W oryginalnej wersji problemu można wybrać dowolny atom ze słownika. W ustrukturyzowanym (blokowym) modelu rzadkości zamiast pojedynczych atomów wybiera się ich grupy. Grupy te mogą się nakładać i mieć różną wielkość. Celem jest reprezentowanie , aby było rzadkie przy wymuszaniu tej struktury bloków

Wspólne (wspólne) rzadkie kodowanie : Oryginalna wersja problemu jest zdefiniowana dla pojedynczego sygnału . We wspólnym (połączonym modelu kodowania rzadkiego dostępny jest zestaw sygnałów, z których każdy, jak się uważa, pochodzi z (prawie) tego samego zestawu atomów . W tym przypadku zadanie pościgu ma na celu odzyskanie zestawu rzadkich reprezentacji, które najlepiej opisują dane, jednocześnie zmuszając je do współdzielenia tego samego (lub bliskiego) wsparcia.

Inne struktury szerzej, problem rzadkiego przybliżenia można rzucić, narzucając określoną pożądaną strukturę na wzorze niezerowych lokalizacji . Dwa interesujące przypadki, które zostały dokładnie zbadane, to struktura oparta na drzewie i bardziej ogólnie rozproszone wsparcie Boltzmanna.

Algorytmy

Jak już wspomniano powyżej, istnieją różne algorytmy aproksymacji (określane również jako pościg ), które zostały opracowane w celu rozwiązania problemu rzadkiej reprezentacji:

Poniżej wymienimy kilka z tych głównych metod.

  • Pogoń za dopasowaniem to zachłanny algorytm iteracyjny służący do przybliżonego rozwiązania powyższego problemu. niezerowych pojedynczo. Podstawową ideą jest znalezienie w każdym kroku kolumny (atomu) najlepiej skorelowanej z bieżącą resztą (zainicjowaną na następnie zaktualizowanie tej reszty w celu przyjęcia nowego atomu i jego współczynnik pod uwagę. Dopasowany pościg może wielokrotnie wybrać ten sam atom.
  • Dopasowywanie ortogonalne jest bardzo podobne do dopasowywania, z jedną zasadniczą różnicą: w każdym kroku algorytmu wszystkie niezerowe współczynniki są aktualizowane o najmniejsze kwadraty . W konsekwencji reszta jest prostopadła do już wybranych atomów, a zatem atom nie może być wybrany więcej niż raz.
  • Etapowe metody zachłanne: ulepszone odmiany powyższych to algorytmy, które działają zachłannie, dodając dwie krytyczne funkcje: (i) możliwość dodawania grup wartości niezerowych na raz (zamiast jednej wartości niezerowej na rundę); oraz (ii) włączenie etapu przycinania w każdej rundzie, w którym kilka atomów jest odrzucanych z podłoża. Reprezentantami tego podejścia są algorytm Subspace-Pursuit oraz CoSaMP.
  • Dążenie do podstaw rozwiązuje problemu, zastępując normę Należy zauważyć, że definiuje to tylko nowy cel, pozostawiając otwartą kwestię algorytmu, którego należy użyć w celu uzyskania pożądanego rozwiązania. Powszechnie uważane za takie algorytmy to IRLS , LARS i iteracyjne metody miękkiego skurczu.

Aplikacje

Pomysły i algorytmy rzadkich przybliżeń były szeroko stosowane w przetwarzaniu sygnałów , przetwarzaniu obrazów , uczeniu maszynowym , obrazowaniu medycznym , przetwarzaniu macierzowym , eksploracji danych i nie tylko. W większości tych zastosowań nieznany sygnał będący przedmiotem zainteresowania jest modelowany jako rzadka kombinacja kilku atomów z danego słownika i służy to jako uregulowanie problemu . Problemom tym zwykle towarzyszy słownikowy mechanizm uczenia się, który ma na celu dopasowanie , aby jak najlepiej dopasować model do podanych danych. Wykorzystanie modeli inspirowanych rzadkością doprowadziło do uzyskania najnowocześniejszych wyników w szerokim zakresie zastosowań. Niedawne prace sugerują, że istnieje ścisły związek między modelowaniem rzadkiej reprezentacji a głębokim uczeniem.

Zobacz też

  1. ^    Donoho, DL i Elad, M. (2003). „Optymalnie rzadka reprezentacja w słownikach ogólnych (nieortogonalnych) poprzez minimalizację L1” (PDF) . Obrady Narodowej Akademii Nauk . 100 (5): 2197–2202. Bibcode : 2003PNAS..100.2197D . doi : 10.1073/pnas.0437847100 . PMC 153464 . PMID 16576749 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  2. ^    Tropp, JA (2004). „Chciwość jest dobra: wyniki algorytmiczne dla rzadkiego przybliżenia” (PDF) . Transakcje IEEE dotyczące teorii informacji . 50 (10): 2231–2242. CiteSeerX 10.1.1.321.1443 . doi : 10.1109/TIT.2004.834793 . S2CID 675692 .
  3. ^   Donoho, DL (2006). „W przypadku większości dużych, niedookreślonych układów równań liniowych rozwiązanie o minimalnej normie l1 jest również rozwiązaniem najrzadszym” (PDF) . Komunikaty dotyczące matematyki czystej i stosowanej . 56 (6): 797–829. doi : 10.1002/cpa.20132 . S2CID 8510060 .
  4. ^ a b    Elad, M. (2010). Rzadkie i nadmiarowe reprezentacje: od teorii do zastosowań w przetwarzaniu sygnałów i obrazów . Skoczek. CiteSeerX 10.1.1.331.8963 . doi : 10.1007/978-1-4419-7011-4 . ISBN 978-1441970107 .
  5. ^    Donoho, DL, Elad, M. i Templyakov, V. (2006). „Stabilne odzyskiwanie rzadkich, nadmiernie kompletnych reprezentacji w obecności szumu” (PDF) . Transakcje IEEE dotyczące teorii informacji . 52 (1): 6–18. CiteSeerX 10.1.1.125.5610 . doi : 10.1109/TIT.2005.860430 . S2CID 14813938 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  6. ^    Tropp, JA (2006). „Po prostu zrelaksuj się: metody programowania wypukłego do identyfikacji rzadkich sygnałów w szumie” (PDF) . Transakcje IEEE dotyczące teorii informacji . 52 (3): 1030–1051. CiteSeerX 10.1.1.184.2957 . doi : 10.1109/TIT.2005.864420 . S2CID 6496872 .
  7. ^   Eldar, YC, Kuppinger, P. i Bolcskei, H. (2009). „Sygnały rzadkie w blokach: relacje niepewności i skuteczne odzyskiwanie”. Transakcje IEEE dotyczące przetwarzania sygnałów . 58 (6): 3042–3054. ar Xiv : 0906.3173 . Bibcode : 2010ITSP...58.3042E . doi : 10.1109/TSP.2010.2044837 . S2CID 335122 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  8. ^ Tropp, JA, Gilbert, AC i Strauss, MJ (2006). „Algorytmy jednoczesnego rzadkiego przybliżenia. Część I: Chciwy pościg”. Przetwarzanie sygnału . 86 (3): 572–588. doi : 10.1016/j.sigpro.2005.05.030 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  9. ^   Peleg, T. Eldar, YC i Elad, M. (2012). „Wykorzystywanie zależności statystycznych w rzadkich reprezentacjach do odzyskiwania sygnału”. Transakcje IEEE dotyczące przetwarzania sygnałów . 60 (5): 2286–2303. ar Xiv : 1010.5734 . Bibcode : 2012ITSP...60.2286P . doi : 10.1109/TSP.2012.2188520 . S2CID 3179803 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  10. ^ Needell, D. i Tropp, JA (2009). „CoSAMP: iteracyjne odzyskiwanie sygnału z niekompletnych i niedokładnych próbek”. Stosowana i obliczeniowa analiza harmoniczna . 26 (3): 301–321. ar Xiv : 0803.2392 . doi : 10.1016/j.acha.2008.07.002 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  11. ^   Zibulevsky, M. i Elad, M. (2010). „Optymalizacja L1-L2 w przetwarzaniu sygnału i obrazu” (PDF) . Magazyn przetwarzania sygnału IEEE . 27 (3): 76–88. Bibcode : 2010ISPM...27...76Z . doi : 10.1109/MSP.2010.936023 . S2CID 2783691 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  12. ^ Baraniuk, RG Candes, E. Elad, M. i Ma, Y. (2010). „Zastosowania rzadkiej reprezentacji i wykrywania kompresji”. Obrady IEEE . 98 (6): 906–909. doi : 10.1109/JPROC.2010.2047424 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  13. ^    Elad, M. Figueiredo, MAT i Ma, Y. (2010). „O roli rzadkich i nadmiarowych reprezentacji w przetwarzaniu obrazu” (PDF) . Obrady IEEE . 98 (6): 972–982. CiteSeerX 10.1.1.160.465 . doi : 10.1109/JPROC.2009.2037655 . S2CID 10992685 . Zarchiwizowane od oryginału (PDF) w dniu 17.01.2018 r. {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  14. ^    Plumbley, MD Blumensath, T. Daudet, L. Gribonval, R. i Davies, ME (2010). „Rzadkie reprezentacje w audio i muzyce: od kodowania do separacji źródeł”. Obrady IEEE . 98 (6): 995–1005. CiteSeerX 10.1.1.160.1607 . doi : 10.1109/JPROC.2009.2030345 . S2CID 4461063 . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )
  15. ^ Papyan, V. Romano, Y. i Elad, M. (2017). „Konwolucyjne sieci neuronowe analizowane za pomocą rzadkiego kodowania konwolucyjnego” (PDF) . Dziennik badań nad uczeniem maszynowym . 18 (83): 1–52. ar Xiv : 1607.08194 . Bibcode : 2016arXiv160708194P . {{ cite journal }} : CS1 maint: wiele nazwisk: lista autorów ( link )