Historia radaru z syntetyczną aperturą

Historia radaru z syntetyczną aperturą rozpoczyna się w 1951 roku wraz z wynalezieniem technologii przez matematyka Carla A. Wileya i jej rozwojem w następnej dekadzie. Początkowo opracowana do celów wojskowych, technologia ta została później zastosowana w dziedzinie nauk planetarnych .

Wynalazek

Koncepcja syntezy apertury została po raz pierwszy sformułowana w 1946 roku przez australijskich radioastronomów Ruby Payne-Scott i Josepha Pawseya . Pracując z Dover Heights w Sydney , Payne-Scott przeprowadził najwcześniejsze obserwacje interferometryczne w radioastronomii 26 stycznia 1946 r., Używając radaru armii australijskiej jako radioteleskopu.

Carl A. Wiley , matematyk z firmy Goodyear Aircraft Company w Litchfield Park w Arizonie , również badał radar z syntetyczną aperturą w czerwcu 1951 r., pracując nad systemem naprowadzania korelacji dla programu Atlas ICBM . Na początku 1952 roku Wiley wraz z Fredem Heisleyem i Billem Welty skonstruowali system sprawdzania poprawności koncepcji znany jako DOUSER („ Dopplera bez wiązki”). W latach pięćdziesiątych i sześćdziesiątych firma Goodyear Aircraft (później Goodyear Aerospace) wprowadziła wiele ulepszeń w technologii SAR, w wielu przypadkach z pomocą Dona Beckerlega.

Niezależnie od pracy Wileya, próby eksperymentalne przeprowadzone na początku 1952 roku przez Sherwina i innych z Laboratorium Systemów Kontroli Uniwersytetu Illinois wykazały wyniki, które, jak wskazali, „mogą stanowić podstawę dla systemów radarowych o znacznie poprawionej rozdzielczości kątowej” i mogą nawet prowadzić do systemów zdolnych do ostrości na wszystkich zakresach jednocześnie.

W obu tych programach przetwarzanie zwrotów radarowych odbywało się za pomocą metod filtrowania obwodów elektrycznych. Zasadniczo siła sygnału w izolowanych dyskretnych pasmach częstotliwości Dopplera określała intensywność obrazu, który był wyświetlany w pasujących pozycjach kątowych w odpowiednich lokalizacjach zasięgu. Gdy użyto tylko środkowej (pasmo zerowego Dopplera) części sygnałów powrotnych, efekt był taki, jakby istniała tylko ta środkowa część wiązki. Doprowadziło to do powstania terminu wyostrzanie wiązki Dopplera. Wyświetlanie zwrotów z kilku sąsiednich niezerowych pasm częstotliwości Dopplera umożliwiło dalszy „podział wiązki” (czasami nazywany „radarem nieogniskowanym”, chociaż można go było uznać za „częściowo skupiony”). Patent Wileya, zgłoszony w 1954 roku, nadal proponował podobne przetwarzanie. Masa dostępnych wówczas obwodów ograniczała zakres, w jakim te schematy mogłyby jeszcze bardziej poprawić rozdzielczość.

Zasada ta została zawarta w memorandum autorstwa Waltera Hausza z General Electric, które było częścią tajnego wówczas raportu z letniej konferencji naukowej Departamentu Obrony o nazwie TEOTA („Oczy armii”) w 1952 r., której celem było zidentyfikowanie nowych techniki przydatne w rozpoznaniu wojskowym i technicznym gromadzeniu informacji wywiadowczych. Kontynuacja programu letniego w 1953 roku na Uniwersytecie Michigan , zwany Projektem Wolverine, zidentyfikował kilka tematów TEOTA, w tym rozdzielczość sub-wiązek wspomaganą Dopplerem, jako wysiłki badawcze sponsorowane przez Departament Obrony (DoD) w różnych akademickich i przemysłowych laboratoriach badawczych. W tym samym roku z Illinois stworzyła obraz „mapy paskowej”, wykazujący znaczną rozdzielczość w zakresie szerokości wiązki.

Projekt Michnik

Cele

Willow Run Research Center (WRRC) Uniwersytetu Michigan. zarządzany przez Army Signal Corps . Początkowo nazywany projektem radaru bocznego, był realizowany przez grupę znaną najpierw jako Laboratorium Radarowe, a później jako Laboratorium Radarowe i Optyczne. Zaproponowano wzięcie pod uwagę nie tylko krótkotrwałego istnienia kilku określonych przesunięć Dopplera, ale całą historię stale zmieniających się przesunięć od każdego celu, gdy ten ostatni przekraczał wiązkę. Wczesna analiza dr Louisa J. Cutrony, Westona E. Viviana i Emmetta N. Leitha z tej grupy wykazało, że taki w pełni skupiony system powinien dawać we wszystkich zakresach rozdzielczość równą szerokości (lub, według niektórych kryteriów, połowie szerokości) rzeczywistej anteny umieszczonej na samolocie radarowym i stale skierowanej burtą w stronę tor samolotu.

Podstawy techniczne i naukowe

Wymagane przetwarzanie danych polegało na obliczeniu korelacji krzyżowych odebranych sygnałów z próbkami form sygnałów, których należy się spodziewać ze źródeł o jednostkowej amplitudzie w różnych zakresach. W tamtym czasie nawet duże komputery cyfrowe miały możliwości nieco zbliżone do dzisiejszych czterofunkcyjnych kalkulatorów ręcznych, stąd nie były nawet w stanie wykonać tak ogromnej ilości obliczeń. Zamiast tego urządzeniem do wykonywania obliczeń korelacji miał być korelator optyczny .

Zaproponowano, aby sygnały odbierane przez ruchomą antenę i koherentnie wykrywane były wyświetlane jako pojedyncza linia śledzenia zasięgu na średnicy powierzchni czołowej lampy elektronopromieniowej , kolejne formy linii są rejestrowane jako obrazy rzutowane na kliszę poruszającą się prostopadle do długości tej linii. Informacje o wywołanej kliszy miały być następnie przetwarzane w laboratorium na sprzęcie, który miał dopiero powstać jako główne zadanie projektu. We wstępnej propozycji procesora oczekiwano, że układ soczewek będzie mnożył zarejestrowane sygnały punkt po punkcie ze znanymi formami sygnału, przepuszczając kolejno światło zarówno przez film sygnałowy, jak i inny film zawierający znany wzór sygnału. Kolejny krok sumowania lub całkowania korelacji miał być wykonany przez zbieżność odpowiednich zestawów iloczynów przez działanie skupiające jednej lub więcej sferycznych i cylindrycznych soczewek. Procesor miał być w efekcie optycznym komputer analogowy wykonujący wielkoskalowe skalarne obliczenia arytmetyczne w wielu kanałach (z wieloma „promieniami”) światła jednocześnie. Docelowo potrzebne byłyby dwa takie urządzenia, których wyjścia zostałyby połączone jako kwadraturowe komponenty kompletnego rozwiązania.

Chęć zachowania niewielkich rozmiarów sprzętu doprowadziła do nagrania wzorca referencyjnego na taśmie 35 mm . Próby szybko wykazały, że wzory na kliszy były tak delikatne, że wykazywały wyraźne efekty dyfrakcyjne, które uniemożliwiały ostre końcowe ogniskowanie.

Doprowadziło to Leitha, fizyka, który opracowywał korelator, do uznania, że ​​te efekty same w sobie mogą, w drodze naturalnych procesów, wykonać znaczną część potrzebnego przetwarzania, ponieważ paski nagrania wzdłuż ścieżki działały jak średnicowe przekroje serii okrągłe płytki stref optycznych. Każda taka płytka działa trochę jak soczewka, każda płytka ma określoną ogniskową dla dowolnej długości fali. Nagranie, które było uważane za skalarne, zostało rozpoznane jako pary wektorów o przeciwnych znakach o wielu częstotliwościach przestrzennych plus wielkość „odchylenia” o częstotliwości zerowej. Potrzebne sumowanie korelacji zmieniło się z pary skalarnych na jedno wektorowe.

Każdy pasek płyty strefowej ma dwie równe, ale przeciwnie oznaczone ogniskowe, jedną rzeczywistą, w której wiązka przechodząca przez nią zbiega się do ogniska, i jedną wirtualną, w której wydaje się, że inna wiązka rozeszła się poza drugą powierzchnię płytki strefowej. Komponent o zerowej częstotliwości ( przesunięcie prądu stałego ) nie ma ogniska, ale nakłada się zarówno na zbieżne, jak i rozbieżne wiązki. Kluczem do uzyskania ze zbieżnej składowej falowej zogniskowanych obrazów, które nie są pokryte niepożądanym zamgleniem z pozostałych dwóch, jest zablokowanie tego ostatniego, pozwalając tylko pożądanej wiązce przejść przez odpowiednio ustawioną aperturę wyboru pasma częstotliwości.

Każdy zakres radaru daje strefowy pasek płyty o ogniskowej proporcjonalnej do tego zakresu. Fakt ten stał się główną komplikacją w projektowaniu procesorów optycznych . W związku z tym ówczesne czasopisma techniczne zawierają dużą ilość materiałów poświęconych sposobom radzenia sobie ze zmiennością ostrości w zależności od zasięgu.

W przypadku tej istotnej zmiany w podejściu zastosowane światło musiało być zarówno monochromatyczne, jak i spójne, a właściwości te były już wymagane w przypadku promieniowania radarowego. Lasery również były wtedy w przyszłości, najlepszym dostępnym wówczas przybliżeniem spójnego źródła światła była moc wyjściowa lampy rtęciowej , przeszedł przez filtr kolorów, który został dopasowany do zielonego pasma widma lampy, a następnie skoncentrował się tak dobrze, jak to możliwe na bardzo małej aperturze ograniczającej wiązkę. Chociaż wynikowa ilość światła była tak słaba, że ​​trzeba było zastosować bardzo długie czasy naświetlania, działający korelator optyczny został zmontowany na czas, aby można go było użyć, gdy dostępne były odpowiednie dane.

Chociaż stworzenie tego radaru było prostszym zadaniem opartym na już znanych technikach, praca ta wymagała osiągnięcia liniowości sygnału i stabilności częstotliwości, które były na najwyższym poziomie. Odpowiedni instrument został zaprojektowany i zbudowany przez Laboratorium Radarowe i został zainstalowany w C-46 ( Curtiss Commando ) samolot. Ponieważ samolot został wycofany do WRRC przez armię amerykańską i był pilotowany i konserwowany przez własnych pilotów i personel naziemny WRRC, był dostępny dla wielu lotów w czasie odpowiadających potrzebom Laboratorium Radarowego, co jest cechą ważną dla umożliwienia częstych ponownych testów i „debugowania " stale rozwijającego się kompleksowego sprzętu. Natomiast grupa z Illinois używała samolotu C-46 należącego do Sił Powietrznych i pilotowanego przez pilotów AF wyłącznie na podstawie uprzedniego porozumienia, co w oczach tych badaczy skutkowało ograniczeniem mniejszej niż pożądana częstotliwości prób w locie ich sprzętu, stąd niska przepustowość sprzężenia zwrotnego z testów. (Późniejsza praca z nowszymi samolotami Convair była kontynuacją lokalnej kontroli rozkładów lotów przez grupę Michigan).

Wyniki

Wybrana przez Michigan antena nadwyżkowa o szerokości 5 stóp (1,5 m) z czasów II wojny światowej była teoretycznie zdolna do rozdzielczości 5 stóp (1,5 m), ale początkowo wykorzystano dane z zaledwie 10% szerokości wiązki, a celem w tamtym czasie było aby zademonstrować rozdzielczość 50 stóp (15 m). Zrozumiano, że dokładniejsza rozdzielczość wymagałaby dodatkowego opracowania środków do wykrywania odejścia samolotu od idealnego kursu i toru lotu oraz wykorzystania tych informacji do dokonywania niezbędnych korekt nakierowania anteny i odbieranych sygnałów przed przetwarzaniem. Po licznych próbach, w których nawet niewielkie turbulencje atmosferyczne uniemożliwiały samolotowi lot prosty i poziomy na tyle, aby uzyskać dobre dane z odległości 50 stóp (15 m), jeden lot przed świtem w sierpniu 1957 r. Uzyskał podobny do mapy obraz obszaru lotniska Willow Run, który wykazał rozdzielczość 50 stóp (15 m) w niektórych częściach obrazu, podczas gdy oświetlona szerokość wiązki wynosiła 900 stóp (270 m). Chociaż Departament Obrony rozważał zakończenie programu z powodu czegoś, co wydawało się brakiem wyników, ten pierwszy sukces zapewnił dalsze finansowanie dalszego rozwoju prowadzącego do rozwiązań dla tych rozpoznanych potrzeb.

Pierwsze udane zogniskowane zdjęcie radarowe z powietrza z syntetyczną aperturą, lotnisko Willow Run i okolice, sierpień 1957. Zdjęcie dzięki uprzejmości University of Michigan.

Publiczne uznanie

Zasada SAR została po raz pierwszy potwierdzona publicznie w komunikacie prasowym z kwietnia 1960 r. na temat eksperymentalnego systemu AN/UPD-1 armii amerykańskiej, który składał się z elementu powietrznego wykonanego przez firmę Texas Instruments i zainstalowanego w samolocie Beech L-23D oraz mobilnego naziemnego systemu danych- stacja przetwarzania wykonana przez WRRC i zainstalowana w wojskowym samochodzie dostawczym. W tamtym czasie charakter podmiotu przetwarzającego dane nie został ujawniony. Artykuł techniczny w czasopiśmie IRE ( Instytut Inżynierów Radiowych ) Professional Group on Military Electronics w lutym 1961 roku opisała zasadę SAR oraz wersje C-46 i AN/UPD-1, ale nie powiedziała, w jaki sposób dane były przetwarzane, ani że maksymalna rozdzielczość UPD-1 wynosiła około 50 stóp (15m). Jednak wydanie IRE Professional Group on Information Theory z czerwca 1960 r. Zawierało długi artykuł na temat „Systemów optycznego przetwarzania i filtrowania danych” autorstwa członków grupy z Michigan. Chociaż nie odnosiło się to do wykorzystania tych technik w radarach, czytelnicy obu czasopism mogli dość łatwo zrozumieć istnienie związku między artykułami niektórych autorów.

Wietnam

System operacyjny, który miał być przenoszony w wersji rozpoznawczej samolotu F-4 „Phantom”, został szybko opracowany i był używany przez krótki czas w Wietnamie, gdzie nie zrobił dobrego wrażenia na użytkownikach ze względu na połączenie niskiej rozdzielczości (podobnej do UPD-1), plamkowa natura jego spójnych falowych obrazów (podobna do plamistości obrazów laserowych) oraz słabo poznana odmienność jego obrazów zasięgu/poprzecznego zasięgu od kątowych/kątowych optycznych obrazów znanych wojskowym interpretatorom zdjęć. Lekcje, których dostarczył, zostały dobrze odebrane przez kolejnych badaczy, projektantów systemów operacyjnych, trenerów interpretatorów obrazów i DoD dalszego rozwoju i przejęć.

Późniejsza poprawa

W kolejnych pracach ostatecznie osiągnięto ukryte możliwości techniki. Ta praca, oparta na zaawansowanych konstrukcjach obwodów radarowych i precyzyjnym wykrywaniu odchyleń od idealnego lotu prostego, wraz z bardziej wyrafinowanymi procesorami optycznymi wykorzystującymi laserowe źródła światła i specjalnie zaprojektowane bardzo duże soczewki wykonane z niezwykle przezroczystego szkła, pozwoliła grupie z Michigan ulepszyć rozdzielczość systemu , w odstępach około 5-letnich, najpierw do 15 stóp (4,6 m), następnie 5 stóp (1,5 m), a do połowy lat siedemdziesiątych do 1 stopy (ta ostatnia tylko w bardzo krótkich odstępach czasu, podczas gdy przetwarzanie było nadal wykonywane optycznie). Te ostatnie poziomy i związany z nimi bardzo szeroki zakres dynamiczny okazały się odpowiednie do identyfikacji wielu obiektów o znaczeniu wojskowym, a także cech gleby, wody, roślinności i lodu, które były badane przez różnych badaczy środowiska posiadających poświadczenia bezpieczeństwa umożliwiające im dostęp do tego, co zostało następnie utajnione obrazowość. Podobnie ulepszone systemy operacyjne wkrótce podążały za każdym z tych kroków o dokładniejszej rozdzielczości.

Porównanie najwcześniejszego obrazu SAR z późniejszym obrazem o ulepszonej rozdzielczości. Dodatkowo źródło światła do przetwarzania danych zostało zmienione z lampy rtęciowej na laser. Dane obrazowe dzięki uprzejmości University of Michigan i Natural Resources Canada.

Nawet stopień rozdzielczości 5 stóp (1,5 m) nadmiernie obciążył zdolność lamp elektronopromieniowych (ograniczonych do około 2000 rozróżnialnych elementów na średnicy ekranu) do dostarczania wystarczająco drobnych szczegółów, aby zasygnalizować filmy, jednocześnie pokrywając pokosy o szerokim zakresie, i opodatkował systemy przetwarzania optycznego w podobny sposób. Jednak mniej więcej w tym samym czasie komputery cyfrowe w końcu stały się zdolne do przetwarzania bez podobnych ograniczeń, a konsekwentna prezentacja obrazów na monitorach kineskopowych zamiast na kliszy pozwoliła na lepszą kontrolę nad reprodukcją tonalną i wygodniejszą pomiar obrazu.

Osiągnięcie najlepszych rozdzielczości na dużych odległościach było wspomagane przez dodanie możliwości obracania większej anteny powietrznej, aby silniej oświetlać ograniczony obszar docelowy w sposób ciągły podczas zbierania danych z kilku stopni kąta, usuwając poprzednie ograniczenie rozdzielczości do szerokość anteny . Nazywano to trybem reflektora, który nie generował już obrazów ciągłego pokosu, ale zamiast tego obrazy pojedynczych fragmentów terenu.

Platforma poza atmosferą

Na bardzo wczesnym etapie prac nad SAR zrozumiano, że niezwykle płynna ścieżka orbitalna platformy znajdującej się poza atmosferą sprawia, że ​​idealnie nadaje się ona do operacji SAR. Wczesne doświadczenia ze sztucznymi satelitami Ziemi wykazały również, że przesunięcia częstotliwości Dopplera sygnałów przemieszczających się przez jonosferę i atmosferę były wystarczająco stabilne, aby umożliwić osiągnięcie bardzo dokładnej rozdzielczości nawet w odległości setek kilometrów. Pierwsze kosmiczne zdjęcia SAR Ziemi zostały zademonstrowane w ramach projektu zwanego obecnie Quill (odtajniony w 2012 r.).

Cyfryzacja

Po rozpoczęciu wstępnych prac kilka możliwości tworzenia użytecznych systemów niejawnych nie istniało przez kolejne dwie dekady. Temu pozornie powolnemu tempu postępu często towarzyszył postęp innych wynalazków, takich jak laser czy komputer cyfrowy , miniaturyzacja obwodów i kompaktowe przechowywanie danych. Po pojawieniu się lasera optyczne przetwarzanie danych stało się szybkim procesem, ponieważ zapewniało wiele równoległych kanałów analogowych, ale opracowanie łańcuchów optycznych odpowiednich do dopasowywania ogniskowych sygnału do zakresów przebiegało przez wiele etapów i okazało się wymagać pewnych nowatorskich komponentów optycznych. Ponieważ proces polegał na dyfrakcji fal świetlnych, wymagał montażu antywibracyjnego , czystych pomieszczeń i wysoko wykwalifikowanych operatorów. Nawet w najlepszym przypadku wykorzystanie kineskopów i kliszy do przechowywania danych ograniczało zakres głębi obrazów.

Na kilku etapach osiągnięcie często zbyt optymistycznych oczekiwań dotyczących cyfrowego sprzętu obliczeniowego zajęło znacznie więcej czasu, niż przewidywano. Na przykład SEASAT był gotowy do orbity, zanim jego procesor cyfrowy stał się dostępny, więc trzeba było zastosować szybko zmontowany schemat optycznego zapisu i przetwarzania, aby uzyskać szybkie potwierdzenie działania systemu. W 1978 roku kanadyjska firma lotnicza MacDonald Dettwiler (MDA) opracowała pierwszy cyfrowy procesor SAR . Kiedy jego cyfrowy procesor został ostatecznie ukończony i użyty, ówczesny sprzęt cyfrowy potrzebował wielu godzin, aby utworzyć jeden obszar obrazu z każdego kilkusekundowego przebiegu danych. Mimo to, chociaż był to spadek prędkości, był to krok w górę w jakości obrazu. Nowoczesne metody zapewniają teraz zarówno dużą szybkość, jak i wysoką jakość.

Zbieranie danych

Model niemieckiego satelity rozpoznawczego SAR-Lupe wewnątrz rakiety Cosmos-3M.

Samoloty przelatujące nad danym terenem mogą zbierać bardzo dokładne dane. W latach 80., jako prototyp instrumentów, które miały być używane na promach kosmicznych NASA, NASA obsługiwała radar z syntetyczną aperturą na statku NASA Convair 990 . W 1986 roku ten samolot zapalił się podczas startu. W 1988 roku NASA przebudowała SAR w pasmach C, L i P do latania samolotem NASA DC-8 . Nazywany AIRSAR, latał na misjach na całym świecie do 2004 roku. Inny taki samolot, Convair 580 , był pilotowany przez Canada Center for Remote Sensing do około 1996 roku, kiedy to ze względów budżetowych został przekazany firmie Environment Canada. Większość zastosowań geodezyjnych jest obecnie wykonywana za pomocą obserwacji satelitarnych . Satelity takie jak ERS-1 /2, JERS-1 , Envisat ASAR i RADARSAT-1 zostały wystrzelone specjalnie w celu przeprowadzenia tego rodzaju obserwacji. Ich możliwości różnią się, szczególnie pod względem wsparcia dla interferometrii, ale wszystkie zgromadziły ogromne ilości cennych danych. Prom kosmiczny przewoził również sprzęt radarowy z syntetyczną aperturą podczas misji SIR-A i SIR-B w latach 80. XX wieku, misji Shuttle Radar Laboratory (SRL) w 1994 r. i misji Shuttle Radar Topography Mission w 2000 r.

Sonda Venera 15 i Venera 16, a następnie sonda kosmiczna Magellan przez kilka lat mapowały powierzchnię Wenus za pomocą radaru z syntetyczną aperturą.

Tytan – ewoluująca funkcja w Ligeia Mare (SAR; 21 sierpnia 2014).

Radar z syntetyczną aperturą został po raz pierwszy użyty przez NASA na satelicie oceanograficznym Seasat firmy JPL w 1978 r. (misja ta zawierała również wysokościomierz i skaterometr ) ; został później rozwinięty szerzej w Spaceborne Imaging Radar (SIR) na promie kosmicznym w latach 1981, 1984 i 1994. Misja Cassini na Saturna wykorzystała SAR do mapowania powierzchni głównego księżyca planety Tytana , którego powierzchnia jest częściowo ukryta przed bezpośrednia kontrola optyczna przez zamglenie atmosferyczne. SZARAD _ radar sondujący na Mars Reconnaissance Orbiter i instrument MARSIS na Mars Express zaobserwowały podłoże skalne pod powierzchnią marsjańskiego lodu polarnego, a także wskazały prawdopodobieństwo znacznego lodu wodnego na środkowych szerokościach geograficznych Marsa. Lunar Reconnaissance Orbiter , wystrzelony w 2009 roku, jest wyposażony w instrument SAR o nazwie Mini-RF , który został zaprojektowany głównie do poszukiwania osadów lodu wodnego na biegunach Księżyca .

Tytan Ligeia Mare – SAR i wyraźniejsze widoki bez plamek.

Projekt Mineseeker projektuje system do określania, czy regiony zawierają miny lądowe , w oparciu o sterowiec przenoszący ultraszerokopasmowy radar z syntetyczną aperturą. Wstępne próby są obiecujące; radar jest w stanie wykryć nawet zakopane miny z tworzywa sztucznego.

National Reconnaissance Office utrzymuje flotę (obecnie odtajnionych) satelitów radarowych z syntetyczną aperturą, powszechnie określanych jako Lacrosse lub Onyx .

W lutym 2009 r. do służby w RAF wszedł samolot obserwacyjny Sentinel R1 , wyposażony w system Airborne Stand-Off Radar ( ASTOR ).

SAR-Lupe Sił Zbrojnych Niemiec ( Bundeswehr ) działa w pełni od 22 lipca 2008 r.

Od stycznia 2021 r. Wiele firm komercyjnych zaczęło wystrzeliwać konstelacje satelitów do zbierania zdjęć SAR Ziemi.

Dystrybucja danych

Alaska Satellite Facility zapewnia produkcję, archiwizację i dystrybucję społeczności naukowej produktów i narzędzi danych SAR z aktywnych i przeszłych misji, w tym nowo przetworzonych, 35-letnich zdjęć Seasat SAR z czerwca 2013 r.

Center for Southeastern Tropical Advanced Remote Sensing (CSTARS) łączy w dół i przetwarza dane SAR (a także inne dane) z różnych satelitów i wspiera Szkołę Nauk Morskich i Atmosferycznych Uniwersytetu Miami Rosenstiel . CSTARS wspiera również operacje pomocy w przypadku katastrof, badania oceanograficzne i meteorologiczne oraz projekty badawcze dotyczące bezpieczeństwa portów i mórz.

Zobacz też