Peer-to-peer
peer-to-peer ( P2P ) to rozproszona architektura aplikacji , która dzieli zadania lub obciążenia między równorzędnymi. Rówieśnicy są równie uprzywilejowanymi, równorzędnymi uczestnikami sieci. Mówi się, że tworzą sieć węzłów peer-to-peer .
Partnerzy udostępniają część swoich zasobów, takich jak moc obliczeniowa, pamięć dyskowa czy przepustowość sieci , bezpośrednio innym uczestnikom sieci, bez potrzeby centralnej koordynacji przez serwery lub stabilne hosty. Peers są zarówno dostawcami, jak i konsumentami zasobów, w przeciwieństwie do tradycyjnego modelu klient-serwer, w którym konsumpcja i dostawa zasobów są podzielone.
Podczas gdy systemy P2P były wcześniej używane w wielu domenach aplikacji , architektura została spopularyzowana przez system udostępniania plików Napster , pierwotnie wydany w 1999 roku. Koncepcja ta zainspirowała nowe struktury i filozofie w wielu obszarach interakcji międzyludzkich. W takich kontekstach społecznych peer-to-peer jako mem odnosi się do egalitarnych sieci społecznościowych , które pojawiły się w całym społeczeństwie, umożliwione ogólnie przez technologie internetowe .
Rozwój historyczny
Chociaż systemy P2P były wcześniej używane w wielu domenach aplikacji, koncepcja ta została spopularyzowana przez systemy udostępniania plików , takie jak aplikacja do udostępniania muzyki Napster (pierwotnie wydana w 1999 r.). Ruch peer-to-peer umożliwił milionom użytkowników Internetu łączenie się „bezpośrednio, tworzenie grup i współpracę, aby stać się tworzonymi przez użytkowników wyszukiwarkami, wirtualnymi superkomputerami i systemami plików”. Podstawowa koncepcja przetwarzania peer-to-peer została przewidziana we wcześniejszych dyskusjach dotyczących systemów oprogramowania i sieci, sięgając wstecz do zasad określonych w pierwszej prośbie o komentarze , RFC 1.
Wizja Tima Bernersa-Lee dotycząca World Wide Web była zbliżona do sieci P2P, ponieważ zakładała, że każdy użytkownik sieci będzie aktywnym redaktorem i współtwórcą, tworzącym i łączącym treści w celu utworzenia połączonej „sieci” łączy. Wczesny Internet był bardziej otwarty niż obecnie, kiedy dwie maszyny podłączone do Internetu mogły wysyłać do siebie pakiety bez zapór ogniowych i innych środków bezpieczeństwa. [ potrzebna strona ] Kontrastuje to z podobną do transmisji strukturą sieci, która rozwijała się przez lata. Jako prekursor Internetu, ARPANET była odnoszącą sukcesy siecią peer-to-peer, w której „każdy uczestniczący węzeł mógł żądać i udostępniać treści”. Jednak ARPANET nie był samoorganizujący się i brakowało mu możliwości „zapewnienia jakichkolwiek środków dla routingu opartego na kontekście lub zawartości poza„ prostym ”routingiem opartym na adresach”.
Dlatego powstał Usenet , rozproszony system przesyłania wiadomości, który jest często opisywany jako wczesna architektura peer-to-peer. Został opracowany w 1979 roku jako system wymuszający zdecentralizowany model kontroli. Podstawowym modelem jest klient-serwer z perspektywy użytkownika lub klienta, który oferuje samoorganizujące się podejście do serwerów grup dyskusyjnych. Jednak serwery grup dyskusyjnych komunikują się ze sobą jako partnerzy w celu rozpowszechniania artykułów z wiadomościami Usenetu w całej grupie serwerów sieciowych. Ta sama uwaga dotyczy protokołu SMTP e-mail w tym sensie, że podstawowa sieć agentów przesyłania poczty e -mail ma charakter peer-to-peer, podczas gdy peryferie klientów e-mail i ich bezpośrednie połączenia to ściśle relacja klient-serwer. [ potrzebne źródło ]
W maju 1999 roku, kiedy miliony ludzi korzystały z Internetu, Shawn Fanning wprowadził aplikację Napster do udostępniania muzyki i plików. Napster był początkiem sieci peer-to-peer, jakie znamy dzisiaj, w których „uczestniczący użytkownicy tworzą sieć wirtualną, całkowicie niezależną od sieci fizycznej, bez konieczności przestrzegania jakichkolwiek władz administracyjnych lub ograniczeń”.
Architektura
Sieć peer-to-peer jest zaprojektowana w oparciu o koncepcję równych węzłów równorzędnych, które jednocześnie działają zarówno jako „klienci”, jak i „serwery” dla innych węzłów w sieci. Ten model organizacji sieci różni się od klient-serwer , w którym komunikacja odbywa się zwykle do iz serwera centralnego. Typowym przykładem transferu plików w modelu klient-serwer jest File Transfer Protocol ), w której programy klienta i serwera są różne: klienci inicjują transfer, a serwery spełniają te żądania.
Routing i wykrywanie zasobów
Sieci peer-to-peer zazwyczaj implementują jakąś formę wirtualnej sieci nakładkowej na topologii sieci fizycznej, w której węzły w nakładce tworzą podzbiór węzłów w sieci fizycznej. Dane są nadal wymieniane bezpośrednio przez bazową TCP/IP , ale w warstwie aplikacji elementy równorzędne mogą komunikować się ze sobą bezpośrednio za pośrednictwem logicznych łączy nakładkowych (z których każdy odpowiada ścieżce w leżącej u podstaw sieci fizycznej). Nakładki służą do indeksowania i wykrywania sieci równorzędnych oraz uniezależniają system P2P od fizycznej topologii sieci. Na podstawie tego, w jaki sposób węzły są ze sobą połączone w sieci nakładkowej oraz w jaki sposób indeksowane i lokalizowane są zasoby, możemy sklasyfikować sieci jako nieustrukturyzowane lub ustrukturyzowane (lub jako hybrydy między tymi dwoma).
Sieci nieustrukturyzowane
Nieustrukturyzowane sieci peer-to-peer nie narzucają określonej struktury sieci nakładkowej z założenia, ale są tworzone przez węzły, które losowo tworzą ze sobą połączenia. ( Gnutella , Gossip i Kazaa to przykłady nieustrukturyzowanych protokołów P2P).
Ponieważ nie ma globalnie narzuconej struktury, sieci nieustrukturyzowane są łatwe do zbudowania i umożliwiają zlokalizowane optymalizacje w różnych regionach nakładki. Ponadto, ponieważ rola wszystkich peerów w sieci jest taka sama, sieci nieustrukturyzowane są bardzo odporne na wysokie wskaźniki „odpływu” - to znaczy, gdy duża liczba peerów często dołącza i opuszcza sieć.
Jednak podstawowe ograniczenia sieci nieustrukturyzowanych wynikają również z tego braku struktury. W szczególności, gdy element równorzędny chce znaleźć żądany fragment danych w sieci, zapytanie wyszukiwania musi przejść przez sieć, aby znaleźć jak najwięcej elementów równorzędnych, które współużytkują dane. Flooding powoduje bardzo duży ruch sygnalizacyjny w sieci, zużywa więcej procesora /memory (wymagając, aby każdy element równorzędny przetwarzał wszystkie zapytania wyszukiwania) i nie gwarantuje, że zapytania wyszukiwania będą zawsze rozwiązywane. Ponadto, ponieważ nie ma korelacji między peerem a treścią przez niego zarządzaną, nie ma gwarancji, że zalewanie znajdzie peera, który ma pożądane dane. Popularne treści będą prawdopodobnie dostępne u kilku partnerów, a każdy, kto ich szuka, prawdopodobnie znajdzie to samo. Ale jeśli peer szuka rzadkich danych udostępnianych tylko przez kilka innych peerów, jest bardzo mało prawdopodobne, że wyszukiwanie zakończy się sukcesem.
Sieci strukturalne
W ustrukturyzowanych sieciach peer-to-peer nakładka jest zorganizowana w określoną topologię, a protokół zapewnia, że każdy węzeł może skutecznie przeszukiwać sieć w poszukiwaniu pliku/zasobu, nawet jeśli zasób ten jest niezwykle rzadki.
Najpopularniejszy typ ustrukturyzowanych sieci P2P implementuje rozproszoną tablicę skrótów (DHT), w której wariant spójnego haszowania jest używany do przypisania własności każdego pliku do określonego peera. Umożliwia to rówieśnikom wyszukiwanie zasobów w sieci za pomocą tablicy skrótów : to znaczy pary ( klucz , wartość ) są przechowywane w DHT, a każdy uczestniczący węzeł może wydajnie pobrać wartość powiązaną z danym kluczem.
Jednak w celu efektywnego kierowania ruchem w sieci węzły w ustrukturyzowanej nakładce muszą utrzymywać listy sąsiadów, które spełniają określone kryteria. To czyni je mniej niezawodnymi w sieciach o wysokim wskaźniku zmian (tj. z dużą liczbą węzłów, które często dołączają i opuszczają sieć). Nowsza ocena rozwiązań P2P do wykrywania zasobów przy rzeczywistych obciążeniach zwróciła uwagę na kilka problemów w rozwiązaniach opartych na DHT, takich jak wysokie koszty reklamy/wykrywania zasobów oraz statyczna i dynamiczna nierównowaga obciążenia.
Znane sieci rozproszone korzystające z DHT obejmują Tixati , alternatywę dla rozproszonego modułu śledzącego BitTorrenta , sieć Kad , botnet Storm i YaCy . Niektóre wybitne projekty badawcze obejmują projekt Chord , Kademlia , narzędzie do przechowywania PAST , P-Grid , samoorganizującą się i powstającą sieć nakładkową oraz system dystrybucji treści CoopNet . Sieci oparte na DHT były również szeroko wykorzystywane do wydajnego wykrywania zasobów dla przetwarzania sieciowego , ponieważ pomagają w zarządzaniu zasobami i planowaniu aplikacji.
Modele hybrydowe
Modele hybrydowe to połączenie modeli peer-to-peer i klient-serwer. Typowym modelem hybrydowym jest posiadanie centralnego serwera, który pomaga rówieśnikom znaleźć się nawzajem. Spotify był przykładem modelu hybrydowego [do 2014 roku]. Istnieje wiele modeli hybrydowych, z których wszystkie stanowią kompromis między scentralizowaną funkcjonalnością zapewnianą przez ustrukturyzowaną sieć serwer/klient a równością węzłów zapewnianą przez nieustrukturyzowane sieci typu peer-to-peer. Obecnie modele hybrydowe mają lepszą wydajność niż czyste sieci nieustrukturyzowane lub sieci o czystej strukturze, ponieważ niektóre funkcje, takie jak wyszukiwanie, wymagają scentralizowanej funkcjonalności, ale korzystają ze zdecentralizowanej agregacji węzłów zapewnianej przez sieci nieustrukturyzowane.
System dystrybucji treści CoopNet
CoopNet (Cooperative Networking) był proponowanym systemem do odciążania rówieśników, którzy niedawno pobrali treści , zaproponowany przez informatyków Venkata N. Padmanabhan i Kunwadee Sripanidkulchai, pracujących w Microsoft Research i Carnegie Mellon University . Kiedy serwer doświadcza wzrostu obciążenia, przekierowuje przychodzące peery do innych peerów, którzy zgodzili się na dublowanie zawartość, odciążając w ten sposób saldo z serwera. Wszystkie informacje są przechowywane na serwerze. Ten system wykorzystuje fakt, że wąskim gardłem jest najprawdopodobniej przepustowość wychodząca niż procesor , stąd jego konstrukcja zorientowana na serwer. Przypisuje rówieśników do innych rówieśników, którzy są „blisko adresu IP ” do swoich sąsiadów [ten sam zakres prefiksów], próbując użyć lokalizacji. Jeśli z tym samym plikiem zostanie znalezionych wielu peerów, oznacza to, że węzeł wybierze najszybszego ze swoich sąsiadów. Media strumieniowe są przesyłane za pomocą pamięci podręcznej klientów poprzedniego strumienia, a następnie przesyłać go fragmentarycznie do nowych węzłów.
Bezpieczeństwo i zaufanie
Systemy peer-to-peer stanowią wyjątkowe wyzwania z punktu widzenia bezpieczeństwa komputerowego .
Jak każda inna forma oprogramowania , aplikacje P2P mogą zawierać luki . Jednak to, co czyni to szczególnie niebezpiecznym dla oprogramowania P2P, to fakt, że aplikacje peer-to-peer działają zarówno jako serwery, jak i klienci, co oznacza, że mogą być bardziej podatne na zdalne luki w zabezpieczeniach .
Ataki trasujące
Ponieważ każdy węzeł odgrywa rolę w kierowaniu ruchu w sieci, szkodliwi użytkownicy mogą przeprowadzać różne „ataki trasujące” lub odmowę usługi ataki. Przykłady typowych ataków na routing obejmują „nieprawidłowe wyszukiwanie routingu”, w wyniku którego złośliwe węzły celowo przekazują niepoprawne żądania lub zwracają fałszywe wyniki, „nieprawidłowe aktualizacje routingu”, w przypadku których złośliwe węzły uszkadzają tablice routingu sąsiednich węzłów, wysyłając im fałszywe informacje, oraz „nieprawidłowy routing partycji sieciowej”. „gdzie nowe węzły dołączają, ładują się przez złośliwy węzeł, który umieszcza nowy węzeł w partycji sieci, która jest wypełniona przez inne złośliwe węzły.
Uszkodzone dane i złośliwe oprogramowanie
Rozpowszechnienie złośliwego oprogramowania różni się w zależności od różnych protokołów peer-to-peer. Badania analizujące rozprzestrzenianie się złośliwego oprogramowania w sieciach P2P wykazały na przykład, że 63% odpowiedzi na żądania pobrania w sieci gnutella zawierało jakąś formę złośliwego oprogramowania, podczas gdy tylko 3% treści w OpenFT zawierało złośliwe oprogramowanie. W obu przypadkach trzy najczęstsze typy złośliwego oprogramowania odpowiadały za zdecydowaną większość przypadków (99% w gnutella i 65% w OpenFT). Kolejne badanie analizujące ruch na Kazaa network odkrył, że 15% z 500 000 pobranych próbek plików było zainfekowanych przez jeden lub więcej z 365 różnych wirusów komputerowych , które zostały przetestowane.
Uszkodzone dane mogą być również rozpowszechniane w sieciach P2P poprzez modyfikację plików, które są już udostępniane w sieci. Na przykład w sieci FastTrack RIAA zdołała wprowadzić sfałszowane fragmenty do pobranych plików i pobranych plików (głównie plików MP3 ). Pliki zainfekowane wirusem RIAA były później bezużyteczne i zawierały złośliwy kod. Wiadomo również, że RIAA przesyłała fałszywą muzykę i filmy do sieci P2P w celu powstrzymania nielegalnego udostępniania plików. W rezultacie dzisiejsze sieci P2P odnotowały ogromny wzrost mechanizmów bezpieczeństwa i weryfikacji plików. Nowoczesne haszowanie , weryfikacja fragmentów i różne metody szyfrowania sprawiły, że większość sieci jest odporna na niemal każdy rodzaj ataku, nawet jeśli główne części danej sieci zostały zastąpione fałszywymi lub niefunkcjonalnymi hostami.
Odporne i skalowalne sieci komputerowe
Zdecentralizowany charakter sieci P2P zwiększa niezawodność, ponieważ eliminuje pojedynczy punkt awarii , który może być nieodłącznym elementem systemu opartego na kliencie-serwerze. Gdy przybywają węzły i rośnie zapotrzebowanie na system, zwiększa się również całkowita pojemność systemu, a prawdopodobieństwo awarii maleje. Jeśli jeden element równorzędny w sieci nie działa prawidłowo, cała sieć nie jest zagrożona ani uszkodzona. Natomiast w typowej architekturze klient-serwer klienci dzielą się z systemem tylko swoimi wymaganiami, ale nie udostępniają swoich zasobów. W takim przypadku, gdy więcej klientów dołącza do systemu, dostępnych jest mniej zasobów do obsługi każdego klienta, a jeśli serwer centralny ulegnie awarii, cała sieć zostanie wyłączona.
Rozproszone przechowywanie i wyszukiwanie
Istnieją zarówno zalety, jak i wady sieci P2P związane z tematem tworzenia kopii zapasowych , odzyskiwania danych i dostępności. W scentralizowanej sieci administratorzy systemu są jedyną siłą kontrolującą dostępność udostępnianych plików. Jeśli administratorzy zdecydują się zaprzestać dystrybucji pliku, muszą po prostu usunąć go ze swoich serwerów i nie będzie on już dostępny dla użytkowników. Oprócz tego, że użytkownicy są bezsilni w decydowaniu o tym, co jest dystrybuowane w społeczności, sprawia to, że cały system jest podatny na zagrożenia i żądania ze strony rządu i innych dużych sił. Na przykład YouTube był naciskany przez RIAA , MPAA i przemysłu rozrywkowego w celu odfiltrowania treści chronionych prawem autorskim. Chociaż sieci serwer-klient są w stanie monitorować dostępność treści i zarządzać nią, mogą mieć większą stabilność w zakresie dostępności treści, które zdecydują się hostować. Klient nie powinien mieć problemów z dostępem do niejasnych treści, które są udostępniane w stabilnej, scentralizowanej sieci. Sieci P2P są jednak bardziej zawodne w udostępnianiu niepopularnych plików, ponieważ udostępnianie plików w sieci P2P wymaga, aby co najmniej jeden węzeł w sieci miał żądane dane, a węzeł ten musi być w stanie połączyć się z węzłem żądającym danych. Czasami trudno jest spełnić to wymaganie, ponieważ użytkownicy mogą w dowolnym momencie usunąć lub przerwać udostępnianie danych.
W tym sensie społeczność użytkowników w sieci P2P jest całkowicie odpowiedzialna za podejmowanie decyzji, jakie treści są dostępne. Niepopularne pliki ostatecznie znikną i staną się niedostępne, gdy więcej osób przestanie je udostępniać. Popularne pliki będą jednak bardzo łatwo rozpowszechniane. Popularne pliki w sieci P2P mają w rzeczywistości większą stabilność i dostępność niż pliki w sieciach centralnych. W scentralizowanej sieci zwykła utrata połączenia między serwerem a klientami wystarczy, aby spowodować awarię, ale w sieciach P2P połączenia między każdym węzłem muszą zostać utracone, aby spowodować awarię udostępniania danych. W systemie scentralizowanym administratorzy są odpowiedzialni za odzyskiwanie danych i tworzenie kopii zapasowych, podczas gdy w systemach P2P każdy węzeł wymaga własnego systemu tworzenia kopii zapasowych. Ze względu na brak władzy centralnej w sieciach P2P siły takie jak przemysł nagraniowy, RIAA , MPAA i rząd nie są w stanie usunąć ani zatrzymać udostępniania treści w systemach P2P.
Aplikacje
Dostarczanie zawartości
W sieciach P2P klienci zarówno dostarczają zasoby, jak i z nich korzystają. Oznacza to, że w przeciwieństwie do systemów klient-serwer, pojemność sieci peer-to-peer w zakresie obsługi treści może faktycznie wzrosnąć , gdy więcej użytkowników zacznie uzyskiwać dostęp do treści (szczególnie w przypadku protokołów takich jak Bittorrent , które wymagają od użytkowników udostępniania, patrz badanie pomiaru wydajności ). Ta właściwość jest jedną z głównych zalet korzystania z sieci P2P, ponieważ sprawia, że koszty konfiguracji i eksploatacji są bardzo niskie dla oryginalnego dystrybutora treści.
Sieci wymiany plików
Wiele sieci udostępniania plików peer-to-peer , takich jak Gnutella , G2 i sieć eDonkey, spopularyzowało technologie peer-to-peer.
- Sieci dostarczania treści peer-to-peer .
- Usługi treści peer-to-peer, np. pamięci podręczne poprawiające wydajność, takie jak pamięci podręczne Correli
- Publikacja i dystrybucja oprogramowania ( dystrybucja Linuksa , kilka gier); za pośrednictwem udostępniania plików .
Naruszenia praw autorskich
Sieci peer-to-peer obejmują przesyłanie danych od jednego użytkownika do drugiego bez użycia serwera pośredniczącego. Firmy opracowujące aplikacje P2P były zaangażowane w liczne sprawy sądowe, głównie w Stanach Zjednoczonych, dotyczące konfliktów z autorskim . Dwie główne sprawy to Grokster przeciwko RIAA i MGM Studios, Inc. przeciwko Grokster, Ltd. W tej ostatniej sprawie Sąd jednogłośnie orzekł, że pozwane firmy udostępniające pliki typu peer-to-peer Grokster i Streamcast mogą zostać pozwane za nakłanianie do naruszenia praw autorskich.
Multimedialne
- Protokoły P2PTV i PDTP .
- Niektóre zastrzeżone aplikacje multimedialne wykorzystują sieć peer-to-peer wraz z serwerami strumieniowymi do strumieniowego przesyłania audio i wideo do swoich klientów.
- Peercasting dla strumieni multiemisji.
- Pennsylvania State University , MIT i Simon Fraser University realizują projekt o nazwie LionShare, którego celem jest ułatwienie udostępniania plików między instytucjami edukacyjnymi na całym świecie.
- Osiris to program, który pozwala swoim użytkownikom na tworzenie anonimowych i autonomicznych portali internetowych dystrybuowanych za pośrednictwem sieci P2P.
Inne aplikacje P2P
- Bitcoin i dodatkowe, takie jak Ether , Nxt i Peercoin to cyfrowe kryptowaluty oparte na sieci peer-to-peer .
- Dat , rozproszona platforma publikowania z kontrolą wersji.
- Filecoin to otwarty , publiczny, kryptowalutowy i cyfrowy system płatności , który ma być opartą na blockchain , kooperacyjną metodą cyfrowego przechowywania i odzyskiwania danych.
- I2P , sieć nakładkowa używana do anonimowego przeglądania Internetu .
- W przeciwieństwie do powiązanego I2P, sieć Tor nie jest sama w sobie peer-to-peer; [ wątpliwe ] jednak może umożliwić budowanie na nim aplikacji peer-to-peer za pośrednictwem usług cebulowych .
- InterPlanetary File System (IPFS) jest protokołem i siecią zaprojektowaną do tworzenia adresowalnej zawartości , metody peer-to-peer do przechowywania i udostępniania protokołu dystrybucji hipermediów . Węzły w sieci IPFS tworzą rozproszony system plików .
- Jami , czat peer-to-peer i aplikacja SIP .
- JXTA , protokół peer-to-peer zaprojektowany dla platformy Java .
- Netsukuku , bezprzewodowa sieć społecznościowa zaprojektowana tak, aby była niezależna od Internetu.
- Open Garden , aplikacja do udostępniania połączenia, która udostępnia dostęp do Internetu innym urządzeniom za pomocą Wi-Fi lub Bluetooth.
- Resilio Sync , aplikacja do synchronizacji katalogów.
- Badania, takie jak projekt Chord , narzędzie do przechowywania danych PAST , P-Grid i system dystrybucji treści CoopNet .
- Syncthing , aplikacja do synchronizacji katalogów.
- Tradepal i M-commerce , które zasilają rynki w czasie rzeczywistym.
- Departament Obrony Stanów Zjednoczonych prowadzi badania nad sieciami P2P w ramach swojej nowoczesnej strategii wojennej. W maju 2003 roku Anthony Tether , ówczesny dyrektor DARPA , zeznał, że armia Stanów Zjednoczonych korzysta z sieci P2P.
- WebTorrent to klient strumieniowego przesyłania strumieniowego P2P w JavaScript do użytku w przeglądarkach internetowych , a także w samodzielnej wersji WebTorrent Desktop , która łączy sieci bezserwerowe WebTorrent i BitTorrent .
- Firma Microsoft w systemie Windows 10 wykorzystuje zastrzeżoną technologię peer-to-peer o nazwie „Optymalizacja dostarczania” do wdrażania aktualizacji systemu operacyjnego przy użyciu komputerów użytkowników końcowych w sieci lokalnej lub na innych komputerach. Według Microsoft Channel 9 doprowadziło to do 30% -50% redukcji wykorzystania przepustowości Internetu.
- LANtastic firmy Artisoft został zbudowany jako system operacyjny peer-to-peer. Maszyny mogą być jednocześnie serwerami i stacjami roboczymi.
- Hotline Communications Hotline Client został zbudowany jako zdecentralizowane serwery z oprogramowaniem śledzącym dedykowanym do dowolnego typu plików i działa do dziś.
Implikacje społeczne
Zachęcanie do udostępniania zasobów i współpracy
Współpraca między społecznością uczestników jest kluczem do dalszego sukcesu systemów P2P skierowanych do zwykłych użytkowników; osiągają one swój pełny potencjał tylko wtedy, gdy duża liczba węzłów wnosi zasoby. Jednak w obecnej praktyce sieci P2P często zawierają dużą liczbę użytkowników, którzy korzystają z zasobów współdzielonych przez inne węzły, ale którzy sami niczego nie udostępniają (często określany jako „problem freeloadera”). Freeloading może mieć głęboki wpływ na sieć, aw niektórych przypadkach może spowodować upadek społeczności. W tego typu sieciach „użytkownicy mają naturalne czynniki zniechęcające do współpracy, ponieważ współpraca pochłania ich własne zasoby i może pogorszyć ich wyniki”. Badanie atrybutów społecznych sieci P2P jest trudne ze względu na duże populacje obrotów, asymetrię zainteresowań i tożsamość o zerowych kosztach. Wdrożono różne mechanizmy zachęt, aby zachęcić lub nawet zmusić węzły do wniesienia zasobów.
Niektórzy badacze badali korzyści płynące z umożliwienia społecznościom wirtualnym samoorganizacji i wprowadzenia zachęt do współdzielenia zasobów i współpracy, argumentując, że aspekt społeczny, którego brakuje w dzisiejszych systemach P2P, powinien być postrzegany zarówno jako cel, jak i środek samoorganizujących się społeczności wirtualnych do budować i pielęgnować. Trwające prace badawcze mające na celu zaprojektowanie skutecznych mechanizmów motywacyjnych w systemach P2P, opartych na zasadach teorii gier, zaczynają przybierać kierunek bardziej psychologiczny i informatyczny.
Prywatność i anonimowość
Niektóre sieci peer-to-peer (np. Freenet ) kładą duży nacisk na prywatność i anonimowość — to znaczy na zapewnienie, że treść komunikacji jest ukryta przed podsłuchem oraz że tożsamość/lokalizacja uczestników jest ukryta. Kryptografia klucza publicznego może służyć do szyfrowania , sprawdzania poprawności danych , autoryzacji i uwierzytelniania danych/wiadomości. Routing cebulowy i inne różne protokoły sieciowe (np. Tarzan) mogą służyć do zapewnienia anonimowości.
Sprawcy wykorzystywania seksualnego transmitowanego na żywo i innych cyberprzestępstw wykorzystywali platformy peer-to-peer do przeprowadzania anonimowych działań.
Implikacje polityczne
Prawo własności intelektualnej i nielegalne udostępnianie
Chociaż sieci peer-to-peer mogą być wykorzystywane do uzasadnionych celów, właściciele praw wybrali sieci peer-to-peer ze względu na udział w udostępnianiu materiałów chronionych prawem autorskim. Sieci peer-to-peer obejmują przesyłanie danych od jednego użytkownika do drugiego bez użycia serwera pośredniczącego. Firmy opracowujące aplikacje P2P były zaangażowane w liczne sprawy sądowe, głównie w Stanach Zjednoczonych, głównie w kwestiach związanych z autorskim . Dwie główne sprawy to Grokster przeciwko RIAA i MGM Studios, Inc. przeciwko Grokster, Ltd. W obu przypadkach technologia udostępniania plików została uznana za legalną, o ile twórcy nie mieli możliwości zapobieżenia udostępnianiu materiałów chronionych prawem autorskim. Aby ustalić odpowiedzialność karną za naruszenie praw autorskich w systemach peer-to-peer, rząd musi udowodnić, że pozwany naruszył prawa autorskie dobrowolnie w celu osobistego zysku finansowego lub korzyści handlowej. Dozwolonego użytku wyjątki zezwalają na pobieranie materiałów chronionych prawem autorskim w ograniczonym zakresie bez uzyskiwania pozwolenia od właścicieli praw. Dokumenty te to zazwyczaj doniesienia prasowe lub prace badawcze i naukowe. Pojawiły się kontrowersje dotyczące nielegalnego korzystania z sieci peer-to-peer w zakresie bezpieczeństwa publicznego i bezpieczeństwa narodowego. Kiedy plik jest pobierany przez sieć peer-to-peer, nie można wiedzieć, kto utworzył plik ani jacy użytkownicy są podłączeni do sieci w danym momencie. Wiarygodność źródeł jest potencjalnym zagrożeniem bezpieczeństwa, które można zaobserwować w przypadku systemów peer-to-peer.
Badanie zlecone przez Unię Europejską wykazało, że nielegalne pobieranie może prowadzić do wzrostu ogólnej sprzedaży gier wideo, ponieważ nowsze gry pobierają opłaty za dodatkowe funkcje lub poziomy. W artykule stwierdzono, że piractwo miało negatywny wpływ finansowy na filmy, muzykę i literaturę. Badanie opierało się na zgłaszanych przez samych siebie danych dotyczących zakupów gier i korzystania z nielegalnych stron do pobierania. Starano się usunąć skutki fałszywych i źle zapamiętanych odpowiedzi.
Neutralność sieci
Aplikacje peer-to-peer stanowią jeden z głównych problemów w kontrowersjach dotyczących neutralności sieci . Wiadomo , że dostawcy usług internetowych ( ISP ) ograniczają ruch związany z udostępnianiem plików P2P ze względu na wykorzystanie dużej przepustowości . W porównaniu z przeglądaniem stron internetowych, pocztą e-mail lub wieloma innymi zastosowaniami Internetu, w których dane są przesyłane tylko w krótkich odstępach czasu i stosunkowo niewielkich ilościach, udostępnianie plików P2P często wiąże się ze stosunkowo dużym wykorzystaniem przepustowości ze względu na ciągłe przesyłanie plików i koordynację roju/sieci pakiety. W październiku 2007 Comcast , jeden z największych dostawców szerokopasmowego Internetu w Stanach Zjednoczonych, zaczął blokować aplikacje P2P, takie jak BitTorrent . Ich uzasadnieniem było to, że P2P jest używany głównie do udostępniania nielegalnych treści, a ich infrastruktura nie jest zaprojektowana do ciągłego ruchu o dużej przepustowości. Krytycy zwracają uwagę, że sieci P2P mają legalne zastosowania i że jest to kolejny sposób, w jaki duzi dostawcy próbują kontrolować wykorzystanie i zawartość Internetu oraz kierować ludzi do klienta- serwera oparta na architekturze aplikacji. Model klient-serwer stwarza finansowe bariery wejścia dla małych wydawców i osób prywatnych i może być mniej wydajny w przypadku udostępniania dużych plików. W odpowiedzi na to ograniczanie przepustowości , kilka aplikacji P2P zaczęło wdrażać zaciemnianie protokołów, takie jak szyfrowanie protokołu BitTorrent . Techniki osiągania „zaciemniania protokołów” polegają na usuwaniu łatwych do zidentyfikowania właściwości protokołów, takich jak deterministyczne sekwencje bajtów i rozmiary pakietów, poprzez sprawienie, by dane wyglądały tak, jakby były losowe. Rozwiązaniem ISP dla wysokiej przepustowości jest Buforowanie P2P , w którym dostawca usług internetowych przechowuje część plików najczęściej używanych przez klientów P2P w celu zaoszczędzenia dostępu do Internetu.
Obecne badania
Naukowcy wykorzystali symulacje komputerowe, aby pomóc w zrozumieniu i ocenie złożonych zachowań jednostek w sieci. „Badania sieciowe często opierają się na symulacji w celu przetestowania i oceny nowych pomysłów. Ważnym wymogiem tego procesu jest to, że wyniki muszą być powtarzalne, aby inni badacze mogli powielać, weryfikować i rozszerzać istniejące prace”. Jeśli badania nie mogą być powtórzone, wówczas możliwości dalszych badań są utrudnione. „Mimo że wciąż pojawiają się nowe symulatory, społeczność naukowa skłania się ku zaledwie garstce symulatorów typu open source. Zapotrzebowanie na funkcje symulatorów, jak pokazują nasze kryteria i ankieta, jest wysokie. Dlatego społeczność powinna współpracować, aby uzyskać te funkcje w oprogramowaniu typu open source. Zmniejszyłoby to potrzebę stosowania niestandardowych symulatorów, a tym samym zwiększyłoby powtarzalność i reputację eksperymentów”.
Oprócz wszystkich wyżej wymienionych faktów, wykonano również prace nad symulatorami sieci ns-2 typu open source. Jeden problem badawczy związany z wykrywaniem i karaniem gapowiczów został zbadany za pomocą symulatora ns-2 tutaj.
Zobacz też
- Protokół klient-klient
- Klient – kolejka – klient
- Teoria działalności kulturowo-historycznej (CHAT)
- Architektura rozproszonego zarządzania danymi
- Zasada od końca do końca
- Przyjaciel do przyjaciela
- Lista protokołów P2P
- Handel energią peer-to-peer
- Semantyczne sieci P2P
- Ekonomia dzielenia się
- Zmiana sponsora
- Zanik USB
- Bezprzewodowa sieć ad-hoc
Linki zewnętrzne
- Ghosh Debjani, Rajan Payas, Pandey Mayank Przesyłanie strumieniowe P2P-VoD: problemy projektowe i wyzwania związane z doświadczeniem użytkownika Zarchiwizowane 2017-02-19 w Wayback Machine Springer Proceedings, czerwiec 2014
- Słowniczek terminologii P2P
- Foundation of Peer-to-Peer Computing , wydanie specjalne, Elsevier Journal of Computer Communication, (red.) Javed I. Khan i Adam Wierzbicki, tom 31, wydanie 2, luty 2008
- Anderson, Ross J. „Służba wieczności” . Pragocrypt . 1996 .
- Marling Engle i JI Khan. Luki systemów P2P i krytyczne spojrzenie na ich rozwiązania Zarchiwizowane 2007-06-15 w Wayback Machine , maj 2006
- Stephanos Androutsellis-Theotokis i Diomidis Spinellis. Badanie technologii dystrybucji treści peer-to-peer Zarchiwizowane 2020-11-09 w Wayback Machine . ACM Computing Surveys, 36(4):335-371, grudzień 2004.
- Biddle, Peter, Paul England, Marcus Peinado i Bryan Willman, Darknet i przyszłość dystrybucji treści zarchiwizowane 27.07.2011 w Wayback Machine . W 2002 r. Warsztaty ACM na temat zarządzania prawami cyfrowymi , listopad 2002 r.
- John F. Buford, Heather Yu, inż. Keong Lua Sieci i aplikacje P2P . ISBN 0123742145 , Morgan Kaufmann, grudzień 2008
- Djamal-Eddine Meddour, Mubashar Mushtaq i Toufik Ahmed, „ Otwarte problemy w strumieniowym przesyłaniu multimediów P2P zarchiwizowane 22.08.2011 w Wayback Machine ”, w materiałach z 1. warsztatów komunikacji multimedialnej MULTICOMM 2006, które odbyły się w połączeniu z IEEE ICC 2006 s. 43–48, czerwiec 2006, Istambuł, Turcja.
- Detlef Schoder i Kai Fischbach, „ Podstawowe pojęcia w sieciach peer-to-peer (P2P) zarchiwizowane 15.09.2011 w Wayback Machine ”. W: Subramanian, R.; Goodman, B. (red.): P2P Computing: The Evolution of a Disruptive Technology , Idea Group Inc, Hershey. 2005
- Ramesh Subramanian i Brian Goodman (red.), Peer-to-Peer Computing: Evolution of a Disruptive Technology , ISBN 1-59140-429-0 , Idea Group Inc., Hershey, PA, Stany Zjednoczone, 2005.
- Shuman Ghosemajumder . Zaawansowane modele biznesowe oparte na technologii peer-to-peer zarchiwizowane 2012-10-13 w Wayback Machine . MIT Sloan School of Management , 2002.
- Silverthorne, Sean. Pobieranie muzyki: piraci czy klienci? Zarchiwizowane 2006-06-30 w Wayback Machine . Wiedza robocza Harvard Business School , 2004.
- Glasnost Archived 2014-10-05 at the Wayback Machine test kształtowania ruchu P2P ( Max Planck Institute for Software Systems )