Teoria wykrywania
Teoria detekcji lub teoria detekcji sygnału jest środkiem do mierzenia zdolności do rozróżniania wzorców niosących informacje (zwanych bodźcami w organizmach żywych, sygnałami w maszynach) od losowych wzorców odwracających uwagę od informacji (zwanych szumem , składających się z bodźców tła i losowej aktywności) maszyny wykrywającej i układu nerwowego operatora).
W dziedzinie elektroniki odzyskiwanie sygnału polega na oddzieleniu takich wzorów od maskującego tła .
Zgodnie z teorią istnieje wiele determinantów tego, w jaki sposób system wykrywający wykryje sygnał i gdzie będą jego poziomy progowe. Teoria może wyjaśnić, w jaki sposób zmiana progu wpłynie na zdolność rozróżniania, często ujawniając, jak dostosowany jest system do zadania, celu lub celu, do którego jest skierowany. Gdy układem wykrywającym jest człowiek, takie cechy, jak doświadczenie, oczekiwania, stan fizjologiczny (np. zmęczenie) i inne czynniki mogą wpływać na zastosowany próg. Na przykład wartownik w czasie wojny może wykrywać słabsze bodźce niż ten sam wartownik w czasie pokoju ze względu na niższe kryterium, jednak może też z większym prawdopodobieństwem traktować nieszkodliwe bodźce jako zagrożenie.
Większość wczesnych prac nad teorią wykrywania została wykonana przez badaczy radarów . Do 1954 roku teoria została w pełni rozwinięta od strony teoretycznej, jak opisali Peterson , Birdsall i Fox, a podstawy teorii psychologicznej stworzyli Wilson P. Tanner, David M. Green i John A. Swets , również w 1954 roku. Teoria detekcji została wykorzystana w 1966 roku przez Johna A. Swetsa i Davida M. Greena w psychofizyce . Green i Swets skrytykowali tradycyjne metody psychofizyki za ich niezdolność do rozróżnienia między rzeczywistą wrażliwością badanych a ich (potencjalnymi) uprzedzeniami w odpowiedzi .
Teoria detekcji ma zastosowanie w wielu dziedzinach, takich jak wszelkiego rodzaju diagnostyka , kontrola jakości , telekomunikacja i psychologia . Koncepcja jest podobna do stosunku sygnału do szumu stosowanego w naukach ścisłych i matryc zamieszania stosowanych w sztucznej inteligencji . Jest również przydatny w zarządzaniu alarmami , gdzie ważne jest oddzielenie ważnych zdarzeń od szumu tła .
Psychologia
Teorię detekcji sygnału (SDT) stosuje się, gdy psychologowie chcą zmierzyć sposób, w jaki podejmujemy decyzje w warunkach niepewności, na przykład jak postrzegalibyśmy odległości we mgle lub podczas identyfikacji naocznych świadków . SDT zakłada, że decydent nie jest biernym odbiorcą informacji, ale aktywnym decydentem, który dokonuje trudnych ocen percepcyjnych w warunkach niepewności. W mglistych warunkach jesteśmy zmuszeni zdecydować, jak daleko od nas znajduje się przedmiot, wyłącznie na podstawie bodźca wzrokowego, który jest osłabiony przez mgłę. Ponieważ jasność obiektu, takiego jak sygnalizacja świetlna, jest wykorzystywana przez mózg do rozróżniania odległości obiektu, a mgła zmniejsza jasność obiektów, postrzegamy obiekt jako znacznie dalej, niż jest w rzeczywistości (zob. także teoria decyzji ). Według SDT podczas identyfikacji naocznych świadków świadkowie podejmują decyzję, czy podejrzany jest sprawcą, czy nie, na podstawie postrzeganego poziomu znajomości podejrzanego.
Aby zastosować teorię wykrywania sygnału do zbioru danych, w którym bodźce były obecne lub nieobecne, a obserwator sklasyfikował każdą próbę jako mającą bodziec obecny lub nieobecny, próby są podzielone na jedną z czterech kategorii:
Odpowiedz „nieobecny” Odpowiedz „Obecny” Obecny bodziec Chybić Uderzyć Brak bodźca Prawidłowe odrzucenie Fałszywy alarm
Na podstawie proporcji tego typu badań można oszacować liczbowo czułość za pomocą statystyk, takich jak indeks czułości d' i A', a błąd systematyczny odpowiedzi można oszacować za pomocą statystyk, takich jak c i β.
Teorię wykrywania sygnałów można również zastosować do eksperymentów pamięciowych, w których elementy są prezentowane na liście badań do późniejszego testowania. Lista testowa jest tworzona przez połączenie tych „starych” pozycji z nowymi, „nowymi” pozycjami, które nie pojawiły się na liście badań. W każdej próbie testowej badany odpowie „tak, to było na liście badań” lub „nie, tego nie było na liście badań”. Pozycje prezentowane na liście badań nazywane są Celami, a nowe pozycje nazywane są Dystraktorami. Powiedzenie „tak” celowi oznacza trafienie, natomiast powiedzenie „tak” dystraktorowi stanowi fałszywy alarm.
Odpowiedz „Nie” Odpowiedz „Tak” Cel Chybić Uderzyć Rozpraszacz Prawidłowe odrzucenie Fałszywy alarm
Aplikacje
Teoria detekcji sygnału ma szerokie zastosowanie, zarówno u ludzi, jak iu zwierząt . Tematy obejmują pamięć , charakterystykę bodźców harmonogramów wzmacniania itp.
Czułość lub dyskryminacja
Konceptualnie czułość odnosi się do tego, jak trudno lub łatwo jest wykryć obecność docelowego bodźca ze zdarzeń w tle. Na przykład w paradygmacie pamięci rozpoznawania dłuższe studiowanie słów, które mają zostać zapamiętane, ułatwia rozpoznawanie wcześniej widzianych lub słyszanych słów. Natomiast konieczność zapamiętania 30 słów zamiast 5 utrudnia dyskryminację. Jedną z najczęściej używanych statystyk do obliczania czułości jest tak zwany wskaźnik wrażliwości lub d' . Istnieją również nieparametryczne , takie jak pole pod krzywą ROC .
Stronniczość
Błąd systematyczny to stopień, w jakim jedna odpowiedź jest bardziej prawdopodobna niż inna. Oznacza to, że odbiorca może z większym prawdopodobieństwem zareagować, że bodziec jest obecny, lub z większym prawdopodobieństwem zareaguje, że bodziec nie jest obecny. Odchylenie jest niezależne od czułości. Na przykład, jeśli istnieje kara za fałszywe alarmy lub chybienia, może to wpłynąć na stronniczość. Jeśli bodźcem jest bombowiec, chybienie (niewykrycie samolotu) może zwiększyć liczbę zgonów, więc prawdopodobne jest liberalne nastawienie. Natomiast płaczący wilk (fałszywy alarm) zbyt często może sprawić, że ludzie będą mniej skłonni do reagowania, co jest podstawą konserwatywnego nastawienia.
Skompresowane wykrywanie
Inną dziedziną, która jest ściśle związana z teorią wykrywania sygnałów, jest wykrywanie kompresji (lub wykrywanie kompresji). Celem skompresowanego wykrywania jest odzyskanie obiektów o dużych wymiarach, ale o niskiej złożoności, z zaledwie kilku pomiarów. Tak więc jednym z najważniejszych zastosowań skompresowanego wykrywania jest odzyskiwanie sygnałów wielowymiarowych, o których wiadomo, że są rzadkie (lub prawie rzadkie) przy zaledwie kilku pomiarach liniowych. Liczba pomiarów potrzebnych do odzyskania sygnałów jest znacznie mniejsza niż wymaga tego twierdzenie Nyquista o próbkowaniu, pod warunkiem, że sygnał jest rzadki, co oznacza, że zawiera tylko kilka niezerowych elementów. Istnieją różne metody odzyskiwania sygnału w skompresowanym wykrywaniu, w tym pogoń za bazą , algorytm odzyskiwania ekspandera , CoSaMP , a także szybki algorytm nieiteracyjny . We wszystkich wymienionych powyżej metodach odzysku duże znaczenie ma dobór odpowiedniej macierzy pomiarowej z wykorzystaniem konstrukcji probabilistycznych lub konstrukcji deterministycznych. Innymi słowy, macierze pomiarowe muszą spełniać określone warunki, takie jak RIP (Restricted Isometry Property) lub właściwość Null-Space, aby uzyskać solidne odzyskiwanie rzadkie.
Matematyka
Testowanie P(H1|y) > P(H2|y) / MAP
W przypadku podejmowania decyzji pomiędzy dwiema hipotezami , H1 , nieobecną i H2 , obecną, w przypadku konkretnej obserwacji y , klasycznym podejściem jest wybór H1, gdy p (H1|y) > p(H2|y ) i H2 w odwrotnym przypadku. W przypadku, gdy dwa prawdopodobieństwa a posteriori są równe, można zdecydować się na jeden wybór domyślny (albo zawsze wybrać H1 , albo zawsze wybrać H2 ), albo można wybrać losowo H1 lub H2 . Prawdopodobieństwa a priori H1 i H2 mogą kierować tym wyborem, np. wybierając zawsze hipotezę o wyższym prawdopodobieństwie a priori .
Przyjmując to podejście, zwykle znane są prawdopodobieństwa warunkowe p (y | H1) i p (y | H2) oraz prawdopodobieństwa a priori i . W tym przypadku,
,
gdzie p(y) jest całkowitym prawdopodobieństwem zdarzenia y ,
.
H2 jest wybierane na wszelki wypadek
i H1 inaczej.
Często stosunek nazywa się _ nazywa się , iloraz wiarygodności .
Używając tej terminologii, H2 jest wybierany w przypadku . Nazywa się to testowaniem MAP, gdzie MAP oznacza „maksimum a posteriori ”).
Takie podejście minimalizuje oczekiwaną liczbę błędów, które można popełnić.
Kryterium Bayesa
W niektórych przypadkach o wiele ważniejsze jest, aby odpowiednio zareagować na H1 niż na H2 . Na przykład, jeśli włączy się alarm wskazujący H1 (nadlatujący bombowiec ma broń nuklearną ), o wiele ważniejsze jest zestrzelenie bombowca, jeśli H1 = PRAWDA, niż uniknięcie wysłania eskadry myśliwców w celu sprawdzenia fałszywego alarm (tj. H1 = FAŁSZ, H2 = PRAWDA) (przy założeniu dużej podaży eskadr myśliwskich). Kryterium Bayesa jest podejściem odpowiednim dla takich przypadków.
Tutaj narzędzie jest powiązane z każdą z czterech sytuacji:
- : Reaguje się zachowaniem odpowiednim dla H1, a H1 jest prawdą: myśliwce niszczą bombowiec, ponosząc koszty paliwa, konserwacji i uzbrojenia, ryzykują zestrzelenie niektórych;
- : odpowiada się zachowaniem odpowiednim dla H1 i H2, to prawda: wysłane myśliwce, ponoszące koszty paliwa i konserwacji, lokalizacja bombowca pozostaje nieznana;
- : Reaguje się zachowaniem odpowiednim dla H2, a H1 to prawda: miasto zniszczone;
- : Reaguje się zachowaniem odpowiednim dla H2, a H2 jest prawdą: myśliwce zostają w domu, lokalizacja bombowca pozostaje nieznana;
Jak pokazano poniżej, ważne są różnice, i .
istnieją cztery prawdopodobieństwa, z przypadków (które zależą od strategii .
Podejście oparte na kryterium Bayesa polega na maksymalizacji oczekiwanej użyteczności:
Skutecznie można zmaksymalizować sumę,
,
i dokonaj następujących podstawień:
gdzie i są prawdopodobieństwami a priori , i {\ Displaystyle P (H2)} i jest regionem zdarzeń obserwacyjnych, y które reaguje tak, jakby było prawdziwe.
a tym samym są przez rozszerzenie na region, w którym
Osiąga się to przez podjęcie decyzji H2 w przypadku
i H1 w przeciwnym razie, gdzie L(y) jest tak zdefiniowanym ilorazem wiarygodności .
Modele rozkładu normalnego
Das i Geisler rozszerzyli wyniki teorii wykrywania sygnałów dla bodźców o rozkładzie normalnym oraz pochodne metody obliczania współczynnika błędów i macierzy pomyłek dla idealnych obserwatorów i nieidealnych obserwatorów do wykrywania i kategoryzowania jednowymiarowych i wielowymiarowych sygnałów normalnych z dwóch lub więcej kategorii.
Zobacz też
- Klasyfikacja binarna
- Stała częstotliwość fałszywych alarmów
- Teoria decyzji
- Demodulacja
- Detektor (radiowy)
- Teoria estymacji
- Po prostu zauważalna różnica
- Test ilorazu wiarygodności
- Modulacja
- Lemat Neymana-Pearsona
- Funkcja psychometryczna
- Charakterystyka pracy odbiornika
- Testowanie hipotez statystycznych
- Statystyczne przetwarzanie sygnałów
- Wymuszony wybór dwóch alternatyw
- Błędy I i II rodzaju
- Bibliografia _ Odzyskiwanie sygnału z szumu w oprzyrządowaniu elektronicznym (wyd. 2). Prasa CRC. s. 11 i nast . ISBN 978-0-7503-0058-2 .
- ^ Marcum, JI (1947). „Statystyczna teoria wykrywania celu za pomocą radaru pulsacyjnego” . Memorandum badawcze : 90 . Źródło 2009-06-28 .
- Bibliografia _ Birdsall, T.; Fox, W. (wrzesień 1954). „Teoria wykrywalności sygnału”. Transakcje IRE Professional Group on Information Theory . 4 (4): 171–212. doi : 10.1109/TIT.1954.1057460 .
- ^ Tanner, Wilson P .; Swets, John A. (1954). „Decyzyjna teoria wykrywania wizualnego”. Przegląd psychologiczny . 61 (6): 401–409. doi : 10.1037/h0058700 . PMID 13215690 .
- ^ Swets, JA (red.) (1964) Wykrywanie i rozpoznawanie sygnału przez ludzkich obserwatorów . Nowy Jork: Wiley [ potrzebna strona ]
- ^ a b Green, DM, Swets JA (1966) Teoria wykrywania sygnału i psychofizyka . Nowy Jork: Wiley. ( ISBN 0-471-32420-5 ) [ potrzebna strona ]
- Bibliografia _ Benjamin, Aaron S.; Wixted, John T.; Mickes, Laura; Gronlund, Scott D. (2015). „Identyfikacja naocznych świadków i dokładność systemu wymiaru sprawiedliwości w sprawach karnych”. Spostrzeżenia polityczne z nauk behawioralnych i nauk o mózgu . 2 : 175-186. doi : 10.1177/2372732215602267 . hdl : 11244/49353 .
- ^ Haw, Ryann Michelle (styczeń 2005). „Teoretyczna analiza identyfikacji naocznych świadków: teoria podwójnego procesu, teoria wykrywania sygnału i zaufanie naocznych świadków” . Kolekcja ProQuest Etd dla Fiu : 1–98.
- ^ a b Stanisław, Harold; Todorow, Natasza (marzec 1999). „Obliczanie miar teorii detekcji sygnału” . Metody, instrumenty i komputery do badania zachowań . 31 (1): 137–149. doi : 10.3758/BF03207704 . PMID 10495845 .
- ^ Jafarpur, Sina; Xu, Weiyu; Hassibi, Babak; Calderbank, Robert (wrzesień 2009). „Wydajne i solidne wykrywanie kompresji przy użyciu zoptymalizowanych wykresów ekspandera” (PDF) . Transakcje IEEE dotyczące teorii informacji . 55 (9): 4299–4308. doi : 10.1109/tit.2009.2025528 .
- Bibliografia _ Tropp, JA (2009). „CoSAMP: iteracyjne odzyskiwanie sygnału z niekompletnych i niedokładnych próbek”. Stosowana i obliczeniowa analiza harmoniczna . 26 (3): 301–321. ar Xiv : 0803.2392 . doi : 10.1016/j.acha.2008.07.002 .
- Bibliografia _ Vidyasagar, M. „ Szybki nieniteracyjny algorytm wykrywania kompresji przy użyciu binarnych macierzy pomiarowych ”.
- ^ a b Schonhoff, TA i Giordano, AA (2006) Teoria wykrywania i szacowania oraz jej zastosowania . New Jersey: Pearson Education ( ISBN 0-13-089499-0 )
- ^ Das, Abhranil; Geisler, Wilson (2020). „Metoda całkowania i klasyfikowania rozkładów normalnych”. arXiv : 2012.14331 .
- Coren, S., Ward, LM, Enns, JT (1994) Sensation and Perception . (wyd. 4) Toronto: Harcourt Brace.
- Kay, SM. Podstawy statystycznego przetwarzania sygnałów: teoria wykrywania ( ISBN 0-13-504135-X )
- McNichol, D. (1972) Elementarz teorii wykrywania sygnału . Londyn: George Allen & Unwin.
- Van Trees HL. Teoria wykrywania, szacowania i modulacji, część 1 ( ISBN 0-471-09517-6 ; strona internetowa )
- Wickens, Thomas D., (2002) Elementarna teoria wykrywania sygnałów . Nowy Jork: Oxford University Press. ( ISBN 0-19-509250-3 )