Aktywna wizja

Obszarem widzenia komputerowego jest widzenie aktywne , czasami nazywane również widzeniem aktywnym . Aktywny system wizyjny to taki, który może manipulować punktem widzenia kamery (kamer) w celu zbadania otoczenia i uzyskania z niego lepszych informacji.

Tło

Zainteresowanie aktywnym systemem kamer rozpoczęło się już dwie dekady temu. Począwszy od późnych lat 80. Aloimonos i in. wprowadzili pierwsze ogólne ramy dla aktywnego widzenia w celu poprawy percepcyjnej jakości wyników śledzenia. Aktywne widzenie jest szczególnie ważne, aby poradzić sobie z problemami takimi jak okluzje, ograniczone pole widzenia i ograniczona rozdzielczość kamery. Inne zalety to zmniejszenie rozmycia ruchu poruszającego się obiektu i poprawa postrzegania głębi obiektu poprzez skupienie dwóch kamer na tym samym obiekcie lub przesunięcie kamer. Aktywna kontrola punktu widzenia kamery pomaga również w skupieniu zasobów obliczeniowych na odpowiednim elemencie sceny. W tym selektywnym aspekcie widzenie aktywne może być postrzegane jako ściśle związane z (jawną i ukrytą) uwagą wzrokową organizmów biologicznych, co, jak wykazano, poprawia percepcję wybranej części pola widzenia. Ten selektywny aspekt ludzkiego (aktywnego) widzenia można łatwo powiązać z dołkową strukturą ludzkiego oka, gdzie w około 5% siatkówki znajduje się ponad 50% receptorów koloru.

Zasugerowano również, że uwaga wzrokowa i selektywny aspekt aktywnego sterowania kamerą mogą pomóc w innych zadaniach, takich jak uczenie się solidniejszych modeli obiektów i środowisk z mniej oznaczonymi próbkami lub w sposób autonomiczny.

Podchodzi do

Podejście z autonomiczną kamerą

Kamery autonomiczne to kamery, które mogą kierować się w swoim otoczeniu. Było kilka ostatnich prac wykorzystujących to podejście. W pracy Denzlera i in. ruch śledzonego obiektu jest modelowany za pomocą filtra Kalmana, podczas gdy stosowana jest ogniskowa, która minimalizuje niepewność oszacowań stanu. Zastosowano zestaw stereo z dwoma kamerami z zoomem. Napisano kilka artykułów na temat sterowania zoomem i nie zajmują się one całkowitym oszacowaniem pozycji obiektu w aparacie. Próbę połączenia szacowania i kontroli w tych samych ramach można znaleźć w pracy Bagdanova i in., gdzie do śledzenia twarzy używana jest kamera Pan-Tilt-Zoom. Zarówno modele szacowania, jak i modele kontrolne są stosowane ad hoc, a podejście do szacowania opiera się raczej na cechach obrazu niż na właściwościach 3D śledzonego celu.

Podejście pana/niewolnika

W konfiguracji master/slave statyczna kamera nadzorująca służy do monitorowania szerokiego pola widzenia i śledzenia każdego poruszającego się celu. Pozycja każdego z tych celów w czasie jest następnie przekazywana do kamery centralnej, która próbuje obserwować cele w wyższej rozdzielczości. Zarówno statyczna, jak i aktywna kamera są skalibrowane do wspólnego odniesienia, dzięki czemu dane pochodzące z jednej z nich można łatwo rzutować na drugą w celu skoordynowania sterowania aktywnymi czujnikami. Inne możliwe zastosowanie podejścia master/slave polega na statycznej (głównej) kamerze wyodrębniającej cechy wizualne obiektu będącego przedmiotem zainteresowania, podczas gdy aktywny (podrzędny) czujnik wykorzystuje te cechy do wykrywania pożądanego obiektu bez potrzeby jakichkolwiek danych treningowych.

Podejście z aktywną siecią kamer

W ostatnich latach wzrosło zainteresowanie budowaniem sieci kamer aktywnych i opcjonalnych kamer statycznych, tak aby można było objąć dużym obszarem przy zachowaniu wysokiej rozdzielczości wielu celów. Ostatecznie jest to powiększona wersja podejścia master/slave lub autonomicznego podejścia do kamery. Takie podejście może być bardzo skuteczne, ale także niezwykle kosztowne. W grę wchodzi nie tylko wiele kamer, ale także muszą one komunikować się ze sobą, co może być kosztowne obliczeniowo.

Kontrolowane aktywne ramy wizji

Kontrolowane aktywne widzenie można zdefiniować jako kontrolowany ruch czujnika wizyjnego, który może zmaksymalizować wydajność dowolnego algorytmu robota, który obejmuje ruchomy czujnik wizyjny. Jest to hybryda teorii sterowania i konwencjonalnej wizji. Zastosowanie tej struktury polega na serwowaniu robotów w czasie rzeczywistym wokół statycznych lub poruszających się dowolnych obiektów trójwymiarowych. Zobacz Obsługa wizualna. Algorytmy wykorzystujące wiele okien i numerycznie stabilne miary ufności są łączone z kontrolerami stochastycznymi w celu zapewnienia zadowalającego rozwiązania problemu śledzenia wprowadzonego przez połączenie wizji komputerowej i kontroli. W przypadku niedokładnego modelu środowiska można wprowadzić adaptacyjne techniki sterowania. Powyższe informacje i dalsze matematyczne reprezentacje kontrolowanego aktywnego widzenia można zobaczyć w tezie Nikolaosa Papanikolopoulosa.

Przykłady

Przykłady aktywnych systemów wizyjnych zwykle obejmują kamerę montowaną na robocie, ale inne systemy wykorzystywały kamery montowane przez operatora (inaczej „urządzenia do noszenia”). Zastosowania obejmują automatyczną obserwację, interakcję człowieka z robotem (wideo) , SLAM , planowanie trasy itp. W DARPA Grand Challenge większość zespołów używała technologii LIDAR w połączeniu z aktywnymi systemami wizyjnymi do kierowania samochodami bez kierowcy po bezdrożach.

Dobry przykład aktywnego widzenia można zobaczyć w tym filmie na YouTube. Pokazuje śledzenie twarzy za pomocą aktywnego widzenia z systemem kamer obrotowych. https://www.youtube.com/watch?v=N0FjDOTnmm0

Aktywna wizja jest również ważna, aby zrozumieć, jak ludzie. i organizmy wyposażone w sensory wzrokowe faktycznie widzą świat, biorąc pod uwagę ograniczenia ich sensorów, bogactwo i ciągłą zmienność sygnału wzrokowego oraz wpływ ich działań i celów na ich percepcję.

Kontrolowane aktywne ramy wizyjne mogą być wykorzystywane na wiele różnych sposobów. Przykładami mogą być śledzenie pojazdów , aplikacje robotyki i interaktywna segmentacja MRI.

Interaktywna segmentacja MRI wykorzystuje kontrolowane aktywne widzenie za pomocą projektu sterowania Lyapanova w celu ustalenia równowagi między wpływem przepływu gradientu opartego na danych a wkładem człowieka w czasie. To płynnie łączy automatyczną segmentację z interaktywnością. Więcej informacji na temat tej metody można znaleźć w. Segmentacja w MRI jest trudnym tematem i wymaga eksperta, aby wyśledzić pożądane segmenty, ponieważ MRI zbiera cały płyn i tkankę. Może to okazać się niepraktyczne, ponieważ byłby to bardzo długi proces. Kontrolowane metody aktywnego widzenia opisane w cytowanym artykule mogą pomóc usprawnić ten proces przy mniejszym poleganiu na człowieku.

Linki zewnętrzne

  1. Bibliografia _
  2. ^ Ballard, Dana H. (1991). „Ożywiona wizja”. Sztuczna inteligencja . 48 : 57–86. doi : 10.1016/0004-3702(91)90080-4 .
  3. ^ abc Aloimonos ,   Jan; Weiss, Izaak; Bandyopadhyay, Amit (1988). „Aktywne widzenie”. Międzynarodowy Dziennik Wizji Komputerowej . 1 (4): 333–356. doi : 10.1007/BF00133571 . S2CID 25458585 .
  4. ^ ab Ognibene , Dymitr; Baldassare, Gianluca (2015). „Ekologiczna aktywna wizja: cztery bioinspirowane zasady integracji uwagi oddolnej i adaptacyjnej odgórnej, przetestowane za pomocą prostego robota z ramieniem kamery” . Transakcje IEEE dotyczące autonomicznego rozwoju umysłowego . 7 : 3–25. doi : 10.1109/TAMD.2014.2341351 .
  5. Bibliografia     _ Zobel; Niemanna (2003). „Informacyjny teoretyczny wybór ogniskowej do aktywnego śledzenia obiektów 3D w czasie rzeczywistym”. Proceedings Dziewiąta Międzynarodowa Konferencja IEEE na temat wizji komputerowej . s. 400–407 t. 1. CiteSeerX 10.1.1.122.1594 . doi : 10.1109/ICCV.2003.1238372 . ISBN 978-0-7695-1950-0 . S2CID 17622133 .
  6. ^   Rivlin, Ehud; Rotstein, Héctor (2000). „Sterowanie kamerą w celu aktywnego widzenia: widzenie dołkowe, płynne śledzenie i sakada” . Międzynarodowy Dziennik Wizji Komputerowej . 39 (2): 81–96. doi : 10.1023/A:1008166825510 . S2CID 8737891 .
  7. ^ ab Tatler    , BW; Hayhoe, MM; Ziemia, MF; Ballard, DH (2011). „Kierowanie okiem w naturalnym widzeniu: reinterpretacja wyrazistości” . Dziennik wizji . 11 (5): 5. doi : 10.1167/11.5.5 . PMC 3134223 . PMID 21622729 .
  8. ^ a b Findlay, JM & Gilchrist, ID Active Vision, Psychologia patrzenia i widzenia Oxford University Press, 2003
  9. Bibliografia   _ Sandini, G. (1993). „O zaletach mapowania biegunowego i logarytmicznego do bezpośredniego szacowania czasu do uderzenia na podstawie przepływu optycznego” . Transakcje IEEE dotyczące analizy wzorców i inteligencji maszynowej . 15 (4): 401–410. CiteSeerX 10.1.1.49.9595 . doi : 10.1109/34.206959 .
  10. Bibliografia   _ Rutishauser, Ueli; Koch, Christof; Perona, Pietro (2005). „Selektywna uwaga wzrokowa umożliwia uczenie się i rozpoznawanie wielu obiektów w zagraconych scenach” (PDF) . Wizja komputerowa i zrozumienie obrazu . 100 (1–2): 41–63. CiteSeerX 10.1.1.110.976 . doi : 10.1016/j.cviu.2004.09.004 .
  11. Bibliografia _ Hinton, G. (6 grudnia 2010). „Nauka łączenia przebłysków dołka z maszyną Boltzmanna trzeciego rzędu” (PDF) . Materiały z 23. Międzynarodowej Konferencji Systemów Przetwarzania Informacji Neuronowych . Tom. 1. s. 1243–1251.
  12. ^    Bagdanow, AD; Del Bimbo, A.; Nunziati, W. (2006). „Poprawa jakości dowodowej obrazów z monitoringu poprzez aktywne śledzenie twarzy” . 18. Międzynarodowa Konferencja na temat rozpoznawania wzorców (ICPR'06) . s. 1200–1203. doi : 10.1109/ICPR.2006.700 . ISBN 978-0-7695-2521-1 . S2CID 2273696 .
  13. ^ a b c   Al Haj, Murad; Fernández, Carles; Xiong, Zhanwu; Huerta, Iwan; Gonzalez, Jordi; Roca, Xavier (2011). „Poza statyczną kamerą: problemy i trendy w aktywnym widzeniu”. Analiza wizualna ludzi . s. 11–30. doi : 10.1007/978-0-85729-997-0_2 . ISBN 978-0-85729-996-3 .
  14. ^ a b   Bellotto, Nicola; Benfold, Ben; Harland, Hanno; Nagel, Hans-Hellmut; Pirlo, Nicola; Reid, Ian; Sommerlade, Eric; Zhao, Chuan (2012). „Kognitywne śledzenie wizualne i sterowanie kamerą” (PDF) . Wizja komputerowa i zrozumienie obrazu . 116 (3): 457–471. doi : 10.1016/j.cviu.2011.09.011 . S2CID 4937663 .
  15. ^ Papanikolopoulos, Nikolaos Panagiotis (1992). Kontrolowana aktywna wizja (praca doktorska). Carnegie Mellon University.
  16. Bibliografia _ Furukawa, Tomonari; Whitty, Mark (2008). „System lokalizacji wiropłatu MAV do użytku w pomieszczeniach przy użyciu diod LED montowanych na łopatach” . Przegląd czujnika . 28 (2): 125–131. doi : 10.1108/02602280810856688 .
  17. ^ Mapowanie dużych pętli za pomocą pojedynczej kamery ręcznej . LA Clemente, AJ Davison, ID Reid, J Neira, JD Tardós - Robotyka: nauka i systemy, 2007
  18. ^   Demiris, Yiannis; Khadhouri, Bassam (2006). „Hierarchiczne uważne wiele modeli wykonywania i rozpoznawania działań”. Robotyka i systemy autonomiczne . 54 (5): 361–369. CiteSeerX 10.1.1.226.5282 . doi : 10.1016/j.robot.2006.02.003 .
  19. ^ W kierunku aktywnego rozpoznawania zdarzeń D Ognibene, Y Demiris 23. Międzynarodowa Wspólna Konferencja Sztucznej Inteligencji (IJCAI13)
  20. ^ http://www.surrey.ac.uk/eng/research/mechatronics/robots/Activities/ActiveVision/activevis.html Zarchiwizowane 17 sierpnia 2007 r. W Wayback Machine
  21. ^    Ziemia, Michael F. (2006). „Ruchy oczu i kontrola działań w życiu codziennym” (PDF) . Postęp w badaniach siatkówki i oczu . 25 (3): 296–324. doi : 10.1016/j.preteyeres.2006.01.002 . PMID 16516530 . S2CID 18946141 .
  22. Bibliografia    _ Sporns, Olaf (2006). „Mapowanie przepływu informacji w sieciach sensomotorycznych” . Biologia obliczeniowa PLOS . 2 (10): e144. Bibcode : 2006PLSCB...2..144L . doi : 10.1371/journal.pcbi.0020144 . PMC 1626158 . PMID 17069456 .
  23. ^    Verschure, Paweł FMJ; Voegtlin, Thomas; Douglas, Rodney J. (2003). „Ekologiczna synergia między percepcją a zachowaniem robotów mobilnych”. Natura . 425 (6958): 620–624. Bibcode : 2003Natur.425..620V . doi : 10.1038/natura02024 . PMID 14534588 . S2CID 4418697 .
  24. Bibliografia     _ Papanikolopoulos, NP; Brandt SA (1994). „Zastosowanie kontrolowanych ram aktywnego widzenia w problemach robotyki i transportu”. Proceedings of 1994 IEEE Workshop on Applications of Computer Vision . s. 213–220. CiteSeerX 10.1.1.40.3470 . doi : 10.1109/ACV.1994.341311 . ISBN 978-0-8186-6410-6 . S2CID 9735967 .
  25. ^ ab Karasev     , Piotr; Kolesow, Iwan; Chudy, Karol; Tannenbaum, Allen; Muller, Grant; Xerogeanes, John (2011). „Interaktywna segmentacja MRI z kontrolowaną aktywną wizją”. 2011 50. Konferencja IEEE na temat decyzji i kontroli oraz Europejska Konferencja Kontroli . s. 2293–2298. doi : 10.1109/CDC.2011.6161453 . ISBN 978-1-61284-801-3 . PMC 3935399 . PMID 24584213 .