Mahadev Satyanarayanan
Mahadev Satyanarayanan (Satya) | |
---|---|
Urodzić się | 1953 |
Alma Mater | Carnegie Mellon University (Ph.D.) , IIT Madras (M.Tech., B.Tech.) |
Znany z |
System plików Andrew System plików Coda Przetwarzanie mobilne Przetwarzanie brzegowe |
Nagrody |
ACM Software System Award ACM SIGOPS Hall of Fame Award ACM SIGMOBILE Test-of-Time Award ACM Fellow IEEE Fellow |
Kariera naukowa | |
Pola | Przetwarzanie brzegowe , Przetwarzanie mobilne , Internet rzeczy , Rozproszone systemy plików |
Instytucje | Carnegie Mellon University |
Praca dyplomowa | Metodologia modelowania systemów pamięci masowej i jej zastosowanie w sieciowym systemie plików (1983) |
Doradca doktorski | William Wulf , George G. Robertson |
Strona internetowa | https://www.cs.cmu.edu/~satya/ |
Mahadev „Satya” Satyanarayanan to indyjski informatyk eksperymentalny , stypendysta ACM i IEEE oraz profesor informatyki Carnegie Group na Uniwersytecie Carnegie Mellon (CMU) .
Przypisuje mu się wiele postępów w dziedzinie przetwarzania brzegowego , systemów rozproszonych , przetwarzania mobilnego , przetwarzania wszechobecnego i Internetu rzeczy . Jego badania skupiają się na wyzwaniach związanych z wydajnością, skalowalnością, dostępnością i zaufaniem w systemach obliczeniowych od chmury po urządzenia brzegowe .
Jego praca nad systemem plików Andrew File System (AFS) została nagrodzona nagrodą ACM Software System Award w 2016 r. oraz nagrodą ACM SIGOPS Hall of Fame w 2008 r. za wpływ i wpływ. Jego praca nad operacjami bez połączenia w systemie plików Coda otrzymała nagrodę ACM SIGOPS Hall of Fame Award w 2015 r. oraz inauguracyjną nagrodę ACM SIGMOBILE Test-of-Time Award w 2016 r . [ Potrzebne źródło ]
Pełnił funkcję założycielskiego przewodniczącego programu IEEE/ACM Symposium on Edge Computing i warsztatów HotMobile , założycielskiego redaktora naczelnego IEEE Pervasive Computing oraz założycielskiego redaktora regionalnego serii Synthesis on Mobile and Pervasive Computing . Ponadto był założycielem i dyrektorem Intel Research Pittsburgh oraz doradcą firmy Maginatics, która została przejęta przez EMC w 2014 roku.
Edukacja
Uzyskał tytuł licencjata i magistra w Indyjskim Instytucie Technologii w Madrasie w 1975 i 1977 r., a także doktorat. w dziedzinie informatyki na CMU w 1983 r. [ potrzebne źródło ]
System plików Andrzeja
Satya był głównym architektem i wdrożeniowcem Andrew File System (AFS) , technicznego prekursora nowoczesnych systemów pamięci masowej opartych na chmurze. AFS jest wdrażany w CMU nieprzerwanie od 1986 roku w skali wielu tysięcy użytkowników. Od momentu powstania w 1983 roku jako ujednolicająca infrastrukturę IT dla CMU w całym kampusie, AFS ewoluował poprzez wersje AFS-1, AFS-2 i AFS-3. W połowie 1989 roku AFS-3 został skomercjalizowany przez Transarc Corporation , a jego ewolucja była kontynuowana poza CMU. Transarc został przejęty przez IBM, a AFS stał się produktem IBM na wiele lat. W 2000 roku IBM udostępnił kod społeczności open source jako OpenAFS . Od momentu wydania jako OpenAFS system jest nadal używany w wielu przedsiębiorstwach na całym świecie. W społeczności akademickiej i laboratoriach badawczych OpenAFS jest używany w ponad 30 ośrodkach w Stanach Zjednoczonych (w tym w CMU , MIT i Stanford ) oraz w dziesiątkach ośrodków w Europie, Nowej Zelandii i Korei Południowej. Wiele globalnych firm korzysta z OpenAFS, w tym Morgan Stanley , Goldman Sachs , Qualcomm , IBM , United Airlines , Pfizer , Hitachi , InfoPrint i Pictage.
W ciągu 30 lat AFS wywarł znaczący wpływ na badania akademickie i praktyki komercyjne w rozproszonych systemach przechowywania danych dla danych nieustrukturyzowanych. Zasady projektowania, które zostały pierwotnie odkryte i zweryfikowane podczas tworzenia i ewolucji AFS, wpłynęły na praktycznie wszystkie nowoczesne komercyjne rozproszone systemy plików, w tym Microsoft DFS, Google File System , Luster File System , Ceph i NetApp ONTAP. Ponadto AFS zainspirował stworzenie DropBox , którego założyciele używali AFS w ramach projektu Athena na MIT. Zainspirowało to również do stworzenia Maginatics, start-upu, któremu doradza Satya, który dostarcza chmurową, podłączoną do sieci pamięć masową dla środowisk rozproszonych. Standard protokołu sieciowego systemu plików NFS v4 został obszernie oparty na lekcjach AFS. W 2016 roku firma AFS została uhonorowana prestiżowym wyróżnieniem Nagroda za system oprogramowania ACM . Wcześniej ACM uznało znaczenie AFS, wprowadzając kluczowy artykuł na ten temat do ACM SIGOPS Hall of Fame. Artykuły AFS z lat 1985 i 1987 otrzymały także nagrody za wybitne artykuły na sympozjum ACM na temat zasad systemów operacyjnych .
System plików Coda
W 1987 Satya rozpoczął pracę nad systemem plików Coda , aby rozwiązać fundamentalną wadę systemów podobnych do AFS. Bogate doświadczenie z pierwszej ręki we wdrażaniu AFS w CMU pokazało, że awarie serwerów i sieci mają poważny wpływ na użytkowników. Ta luka w zabezpieczeniach nie jest tylko hipotetyczna, ale faktycznie występuje w rzeczywistych wdrożeniach. Gdy użytkownicy staną się krytycznie uzależnieni od plików przechowywanych w pamięci podręcznej serwerów, awaria serwera lub sieci powoduje, że te pliki stają się niedostępne, a klienci pozostają kalekami na czas trwania awarii. W wystarczająco dużym systemie nieplanowane wyłączenia serwerów i segmentów sieci są praktycznie niemożliwe do uniknięcia. Dzisiejsze entuzjastyczne przyjęcie chmury obliczeniowej na nowo rozpala wiele z tych obaw ze względu na rosnącą zależność od scentralizowanych zasobów. Celem projektu Coda było zachowanie wielu mocnych stron AFS przy jednoczesnym zmniejszeniu jego podatności na awarie. Coda był pierwszym systemem, który pokazał, jak można połączyć replikację serwera z buforowaniem klienta, aby osiągnąć dobrą wydajność i wysoką dostępność. Coda wymyślił koncepcję „operacji bez połączenia”, w której stan buforowany na klientach służy do maskowania awarii sieci i serwerów. Firma Coda zademonstrowała również działanie przy słabym połączeniu z adaptacją przepustowości w sieciach o niskiej przepustowości, dużym opóźnieniu lub częstych awariach. Wykorzystanie przez Codę optymistycznej replikacji, spójności handlu dostępnością, było kontrowersyjne, gdy zostało wprowadzone. Dziś jest to standardowa praktyka we wszystkich systemach przechowywania danych dla środowisk mobilnych. Coda jest także pionierem koncepcji półprzezroczystego buforowania, które równoważy pełną przezroczystość klasycznego buforowania z widocznością użytkownika potrzebną do osiągnięcia dobrego doświadczenia użytkownika w sieciach o ograniczonej przepustowości. Koncepcje Coda dotyczące gromadzenia, reintegracji i rozwiązywania konfliktów specyficznych dla aplikacji można znaleźć w możliwościach synchronizacji w chmurze praktycznie wszystkich dzisiejszych urządzeń mobilnych. Kluczowe idee z Coda zostały włączone przez Microsoft do IntelliMirror systemu Windows 2000 i tryb buforowanej wymiany programu Outlook 2003 . Artykuły dotyczące Cody otrzymały nagrody za wybitne artykuły na sympozjum ACM na temat zasad systemów operacyjnych w 1991 i 1993 roku . W 1999 roku Coda otrzymał nagrodę LinuxWorld Editor's Choice Award . Retrospektywa narracyjna z 2002 roku „ Ewolucja Cody ” śledzi jej ewolucję i wyciągnięte z niej wnioski. Później długotrwały wpływ Cody został doceniony nagrodą ACM SIGOPS Hall of Fame Award w 2015 roku oraz inauguracyjnym ACM SIGMOBILE Test of Time w 2016 roku.
Odyssey: adaptacja uwzględniająca aplikacje dla aplikacji mobilnych
W połowie lat 90. Satya zainicjował projekt Odyssey, aby zbadać, w jaki sposób należy rozszerzyć systemy operacyjne, aby obsługiwały przyszłe aplikacje mobilne. Podczas gdy Coda wspierała mobilność w sposób przejrzysty dla aplikacji, Odyssey badała przestrzeń świadomych aplikacji podejść do mobilności. Przepustowość i energia sieci bezprzewodowej (tj. żywotność baterii) były dwoma kluczowymi wyzwaniami związanymi z zasobami, przed którymi stoją aplikacje mobilne. Odyssey wymyślił koncepcję adaptacji uwzględniającej aplikacje i pokazał, w jaki sposób można rozszerzyć interfejs wywołań systemowych systemu operacyjnego Unix, aby obsługiwał nową klasę aplikacji mobilnych, takich jak dostarczanie wideo i rozpoznawanie mowy. Odyssey przewidywał współpracę partnerską między systemem operacyjnym a poszczególnymi aplikacjami. W tym partnerstwie system operacyjny monitoruje, kontroluje i przydziela ograniczone zasoby, takie jak przepustowość sieci bezprzewodowej i energia, podczas gdy poszczególne aplikacje negocjują z systemem operacyjnym swoje wymagania dotyczące zasobów i modyfikują zachowanie aplikacji, aby zapewnić najlepsze wrażenia użytkownika, jakie można osiągnąć przy obecnych warunkach zasobów . The z 1997 i 1999 r . Na temat adaptacji uwzględniającej aplikacje i adaptacji uwzględniającej zużycie energii, przedstawione na sympozjum ACM na temat zasad systemów operacyjnych, okazały się bardzo wpływowe. Koncepcje algorytmów multi-fidelity i predykcyjnego zarządzania zasobami, które wyłoniły się z tej pracy, również okazały się mieć wpływ.
Aura: Odciążanie chmury dla IoT
Pod koniec lat 90. Satya zainicjował projekt Aura we współpracy z kolegami z wydziału CMU Davidem Garlanem , Rajem Reddym , Peterem Steenkiste, Danem Siewiorkiem i Asimem Smailagicem. Wyzwanie, któremu podjęto ten wysiłek, polegało na zmniejszeniu rozproszenia uwagi ludzi w mobilnych i wszechobecnych środowiskach komputerowych, uznając, że uwaga człowieka nie korzysta z prawa Moore'a, podczas gdy zasoby komputerowe tak. Prowadzi to bezpośrednio do pojęcia niewidzialnej informatyki, co odpowiada charakterystyce idealnej technologii Marka Weisera jako takiej, która znika. Wizja Aura okazała się doskonałym motorem badań nad mobilnymi i wszechobecnymi komputerami w obszarach takich jak cyberprzeszukiwanie , przetwarzanie uwzględniające lokalizację, świadomość energetyczna i adaptacja na poziomie zadań. W szczególności artykuł z 1997 r. „ Agile Application-Aware Adaptation for Mobile Computing ” zapoczątkował „odciążanie chmury”, w którym urządzenia mobilne przesyłają przetworzone dane z czujników do usługi w chmurze w celu dalszej analizy przez sieć bezprzewodową. Współczesnym wcieleniem tej idei jest rozpoznawanie mowy za pomocą Siri . W szczególności mowa użytkownika jest przechwytywana przez mikrofon, wstępnie przetwarzana, a następnie wysyłana do usługi w chmurze, która konwertuje mowę na tekst. Satya kontynuuje badania związane z IoT. Retrospektywnie opisał ścieżkę ewolucyjną od swoich wczesnych prac do dzisiejszych systemów mobilnych i IoT opartych na chmurze w „ Krótka historia odciążania chmury: osobista podróż od Odysei przez cyberprzeszukiwanie do chmur ”.
Zastanawiając się nad dotychczasowymi doświadczeniami z wizją Aura i wdrażaniem IoT, Satya napisał w 2001 roku zaproszony artykuł zatytułowany „ Pervasive Computing: Vision and Challenges ”. 100 cytowań rocznie. Koncepcje omówione w tym artykule bezpośrednio zainspirowały dzisiejszą popularną wizję „Internetu rzeczy (IoT)”. W 2018 roku ten wizjonerski dokument został wyróżniony nagrodą ACM SIGMOBILE Test-of-Time Award .
Zawieszanie/wznawianie połączenia z Internetem (ISR): Pulpit wirtualny
maszyn wirtualnych VT (VM) firmy Intel w 2001 r., ISR reprezentuje możliwości podobne do AFS dla maszyn wirtualnych pochodzących z chmury. Zamiast dostarczać tylko pliki, ISR umożliwia dostarczanie całych środowisk obliczeniowych (w tym systemu operacyjnego i wszystkich aplikacji) z chmury z doskonałą wiernością poprzez buforowanie na żądanie do brzegów Internetu. Artykuł z czerwca 2002 r wprowadzając koncepcję ISR jako pierwsza sformułowała koncepcję mobilnego przetwarzania na dużym obszarze bez użycia rąk za pomocą „laptopa o zerowej wadze”. Koncepcja ISR okazała się mieć duży wpływ na społeczność naukowców zajmujących się komputerami mobilnymi, dając początek powiązanym wysiłkom badawczym w przemyśle i środowisku akademickim. Seria wdrożeń (ISR-1, ISR-2, ISR-3 i OpenISR) oraz związanych z nimi wdrożeń ISR w CMU zbadała kompromisy implementacyjne w tej przestrzeni i wykazała realną żywotność tej technologii. Projekt ISR zainspirował komercyjne oprogramowanie, takie jak Citrix XenDesktop i Microsoft Remote Desktop Services, powszechnie znane jako Infrastruktura pulpitu wirtualnego (VDI) . Od tego czasu przemysł VDI stał się przemysłem wartym miliardy dolarów.
Olive: wierność wykonania w celu archiwizacji oprogramowania
Prace nad ISR zainspirowały projekt Olive, będący efektem współpracy społeczności informatyków i bibliotek cyfrowych. Jednym z głównych wyzwań związanych z archiwizacją cyfrową jest możliwość zachowania i dokładnego odtwarzania wykonywalnej zawartości w okresie wielu dziesięcioleci (a ostatecznie stuleci). Ten problem ma również analogi w przemyśle. Na przykład sonda kosmiczna NASA na skraju Układu Słonecznego może potrzebować 30 lat, aby dotrzeć do celu; konserwacja oprogramowania przez tak długi okres wymaga precyzyjnego odtworzenia środowiska oprogramowania pokładowego sondy. Poprzez hermetyzację całego środowiska oprogramowania w maszynie wirtualnej (w tym opcjonalnie emulator oprogramowania dla przestarzałego już sprzętu), Olive zachowuje i dynamicznie odtwarza precyzyjne zachowanie oprogramowania. Prototyp Olive zademonstrował niezawodną archiwizację oprogramowania sięgającą wczesnych lat 80-tych. koncepcja wierność wykonania , wprowadzona przez firmę Olive, okazała się mieć duży wpływ na archiwizację cyfrową.
Diament: nieindeksowane wyszukiwanie danych wielowymiarowych
projektu Diamond zbadano interaktywne wyszukiwanie złożonych danych, takich jak zdjęcia, wideo i obrazy medyczne, które nie zostały oznaczone ani zindeksowane a priori. W przypadku takich nieustrukturyzowanych i wielowymiarowych danych klasyczne podejście polegające na indeksowaniu pełnotekstowym nie jest wykonalne: w przeciwieństwie do tekstu, który jest tworzony przez człowieka i jest jednowymiarowy, surowe dane obrazowe wymagają etapu ekstrakcji cech przed indeksowaniem. Niestety cechy do wyodrębnienia dla danego wyszukiwania nie są znane a priori. Tylko dzięki interaktywnym próbom i błędom, z częściowymi wynikami, które kierują jego postępami, użytkownik może wybrać najlepsze funkcje dla konkretnego wyszukiwania. Aby wesprzeć ten przepływ pracy wyszukiwania, plik OpenDiamond zapewniła architekturę pamięci masowej do wyszukiwania opartego na odrzucaniu , która steruje potokami kontroli użytkownika, wyodrębniania funkcji oraz obliczeń indeksowania poszczególnych obiektów i buforowania wyników. Jak udokumentowano w artykule z 2010 r , obciążenia we/wy generowane przez wyszukiwania Diamond znacznie różnią się od dobrze rozumianych obciążeń związanych z indeksowaniem, takich jak Hadoop, co ma istotne implikacje dla podsystemów pamięci masowej. Wyjątkowe możliwości wyszukiwania Diamonda wzbudziły duże zainteresowanie w społecznościach zajmujących się badaniami medycznymi i farmaceutycznymi. Naukowcy z tych społeczności współpracowali przy tworzeniu aplikacji opartych na technologii Diamond dla takich dziedzin, jak radiologia (badania przesiewowe w kierunku raka piersi), patologia i dermatologia (diagnostyka czerniaka), odkrywanie leków (wykrywanie anomalii) i genetyka twarzoczaszki (badanie genetyczne zespołu rozszczepu wargi). Prace nad oprogramowaniem Diamond i powiązanym oprogramowaniem stały się bodźcem do szeroko zakrojonej współpracy między grupą badawczą Satyi z CMU i wydziałem Nauk o Zdrowiu na Uniwersytecie w Pittsburghu. Współpraca z patologami zaowocowała zaprojektowaniem i wykonaniem OpenSlide to niezależna od dostawców biblioteka typu open source dla patologii cyfrowej . OpenSlide jest obecnie używany przez wiele organizacji akademickich i przemysłowych na całym świecie, w tym wiele ośrodków badawczych w Stanach Zjednoczonych, które są finansowane przez National Institutes of Health i firmy takie jak HistoWiz .
Elijah: przetwarzanie brzegowe
Satya był pionierem przetwarzania brzegowego , publikując w 2009 r. artykuł „ The Case for VM-based Cloudlets in Mobile Computing ” i późniejszą pracę badawczą w Project Elijah . Dokument ten jest obecnie powszechnie uznawany za manifest założycielski przetwarzania brzegowego i okazał się mieć duży wpływ na kształtowanie myśli i działań. Został napisany w ścisłej współpracy z Victorem Bahlem z Microsoftu, Royem Wantem z Intela (obecnie w Google), Ramonem Caceresem z AT&T (teraz również w Google) i Nigelem Daviesem z Lancaster University . W artykule tym wprowadzono koncepcję cloudletów , czyli małych centrów danych zlokalizowanych na obrzeżach sieci. Jako nowy poziom obliczeniowy między urządzeniami mobilnymi a chmurą, dysponują one potężnymi zasobami obliczeniowymi i doskonałą łącznością z urządzeniami mobilnymi, zwykle oddalonymi o jeden bezprzewodowy dostęp. Niskie opóźnienia i duża przepustowość dla użytkowników mobilnych i czujników sprawiają, że są to idealne lokalizacje do odciążenia obliczeń. Szczegółowy opis pochodzenia artykułu i koncepcji cloudletu opisano w retrospektywie z 2014 r., „ A Short History of Cloud Offload: A Personal Journey from Odyssey Through Cyber Foraging to Cloudlets” ”.
Przetwarzanie brzegowe stało się obecnie jednym z najgorętszych tematów w przemyśle i środowisku akademickim. Jest to szczególnie istotne w przypadku zastosowań mobilnych i IoT, w których znaczna ilość danych z czujników na żywo musi być intensywnie przetwarzana w czasie rzeczywistym. Wiele aplikacji w domenach takich jak VR / AR , automatyzacja fabryk i pojazdy autonomiczne wykazuje taki przepływ pracy. Na przykład wysokiej jakości komercyjne gogle VR, takie jak Oculus Rift i HTC Vive , wymagają tetheringu do komputera stacjonarnego wyposażonego w GPU. Takie tethering negatywnie wpływa na wrażenia użytkownika. Z drugiej strony urządzenia nieuwiązane poświęcają jakość środowiska wirtualnego. Zasadniczo te wrażliwe na opóźnienia, wymagające dużych zasobów i przepustowości aplikacje nie mogą działać samodzielnie na urządzeniach mobilnych z powodu niewystarczającej mocy obliczeniowej ani nie mogą działać w chmurze ze względu na duże opóźnienia w sieci. Tylko przetwarzanie brzegowe może przełamać ten impas.
Koncepcje syntezy maszyn wirtualnych i przekazywania maszyn wirtualnych zostały opracowane i zademonstrowane w Elijah, co doprowadziło do referencyjnej implementacji OpenStack++ infrastruktury oprogramowania chmurowego. Open Edge Computing Initiative to zbiór firm ściśle współpracujących z CMU w celu zbudowania otwartego ekosystemu dla przetwarzania brzegowego.
Gabriel: Poręczna pomoc poznawcza
W 2004 roku Satya napisał artykuł „ Augmenting Cognition ”, w którym wyobrażał sobie świat, w którym ludzie otrzymują przydatne wskazówki w czasie rzeczywistym dotyczące codziennych zadań z urządzeń do noszenia, których możliwości są wzmacniane przez pobliskie serwery obliczeniowe. Dziesięć lat później, wraz z pojawieniem się przetwarzania brzegowego i komercyjną dostępnością urządzeń ubieralnych, takich jak Google Glass i Microsoft Hololens, warunki wstępne do realizacji tej wizji były na wyciągnięcie ręki. Satya zainicjował Projekt Gabriel eksplorować ten nowy gatunek aplikacji, które łączą wygląd rzeczywistości rozszerzonej (AR) z algorytmami związanymi ze sztuczną inteligencją (AI). Artykuł „ Towards Wearable Cognitive Assistance ” z 2014 r. opisuje platformę Gabriel do takiej aplikacji. Wiele aplikacji (takich jak aplikacja do montażu lampy stołowej IKEA) zostało zbudowanych na platformie Gabriel, a filmy z nich są dostępne tutaj . W tych aplikacjach użytkownik nosi zamontowane na głowie inteligentne okulary, które nieustannie rejestrują działania i otoczenie z perspektywy pierwszej osoby. W czasie rzeczywistym strumień wideo jest przesyłany do chmury i analizowany w celu określenia stanu zespołu. Następnie generowane są instrukcje audiowizualne, aby zademonstrować kolejną procedurę lub ostrzec i poprawić błąd. W 2016 roku CBS 60 minut obejmowało projekt Gabriel w specjalnym wydaniu poświęconym sztucznej inteligencji .