Peer-to-peer

peer -to-peer (P2P) , w której połączone ze sobą węzły („peers”) dzielą między sobą zasoby bez korzystania ze scentralizowanego systemu administracyjnego
Sieć oparta na modelu klient-serwer , w której poszczególni klienci żądają usług i zasobów od scentralizowanych serwerów

peer-to-peer ( P2P ) to rozproszona architektura aplikacji , która dzieli zadania lub obciążenia między równorzędnymi. Rówieśnicy są równie uprzywilejowanymi, równorzędnymi uczestnikami sieci. Mówi się, że tworzą sieć węzłów peer-to-peer .

Partnerzy udostępniają część swoich zasobów, takich jak moc obliczeniowa, pamięć dyskowa czy przepustowość sieci , bezpośrednio innym uczestnikom sieci, bez potrzeby centralnej koordynacji przez serwery lub stabilne hosty. Peers są zarówno dostawcami, jak i konsumentami zasobów, w przeciwieństwie do tradycyjnego modelu klient-serwer, w którym konsumpcja i dostawa zasobów są podzielone.

Podczas gdy systemy P2P były wcześniej używane w wielu domenach aplikacji , architektura została spopularyzowana przez system udostępniania plików Napster , pierwotnie wydany w 1999 roku. Koncepcja ta zainspirowała nowe struktury i filozofie w wielu obszarach interakcji międzyludzkich. W takich kontekstach społecznych peer-to-peer jako mem odnosi się do egalitarnych sieci społecznościowych , które pojawiły się w całym społeczeństwie, umożliwione ogólnie przez technologie internetowe .

Rozwój historyczny

SETI@home powstała w 1999 roku

Chociaż systemy P2P były wcześniej używane w wielu domenach aplikacji, koncepcja ta została spopularyzowana przez systemy udostępniania plików , takie jak aplikacja do udostępniania muzyki Napster (pierwotnie wydana w 1999 r.). Ruch peer-to-peer umożliwił milionom użytkowników Internetu łączenie się „bezpośrednio, tworzenie grup i współpracę, aby stać się tworzonymi przez użytkowników wyszukiwarkami, wirtualnymi superkomputerami i systemami plików”. Podstawowa koncepcja przetwarzania peer-to-peer została przewidziana we wcześniejszych dyskusjach dotyczących systemów oprogramowania i sieci, sięgając wstecz do zasad określonych w pierwszej prośbie o komentarze , RFC 1.

Wizja Tima Bernersa-Lee dotycząca World Wide Web była zbliżona do sieci P2P, ponieważ zakładała, że ​​każdy użytkownik sieci będzie aktywnym redaktorem i współtwórcą, tworzącym i łączącym treści w celu utworzenia połączonej „sieci” łączy. Wczesny Internet był bardziej otwarty niż obecnie, kiedy dwie maszyny podłączone do Internetu mogły wysyłać do siebie pakiety bez zapór ogniowych i innych środków bezpieczeństwa. [ potrzebna strona ] Kontrastuje to z podobną do transmisji strukturą sieci, która rozwijała się przez lata. Jako prekursor Internetu, ARPANET była odnoszącą sukcesy siecią peer-to-peer, w której „każdy uczestniczący węzeł mógł żądać i udostępniać treści”. Jednak ARPANET nie był samoorganizujący się i brakowało mu możliwości „zapewnienia jakichkolwiek środków dla routingu opartego na kontekście lub zawartości poza„ prostym ”routingiem opartym na adresach”.

Dlatego powstał Usenet , rozproszony system przesyłania wiadomości, który jest często opisywany jako wczesna architektura peer-to-peer. Został opracowany w 1979 roku jako system wymuszający zdecentralizowany model kontroli. Podstawowym modelem jest klient-serwer z perspektywy użytkownika lub klienta, który oferuje samoorganizujące się podejście do serwerów grup dyskusyjnych. Jednak serwery grup dyskusyjnych komunikują się ze sobą jako partnerzy w celu rozpowszechniania artykułów z wiadomościami Usenetu w całej grupie serwerów sieciowych. Ta sama uwaga dotyczy protokołu SMTP e-mail w tym sensie, że podstawowa sieć agentów przesyłania poczty e -mail ma charakter peer-to-peer, podczas gdy peryferie klientów e-mail i ich bezpośrednie połączenia to ściśle relacja klient-serwer. [ potrzebne źródło ]

W maju 1999 roku, kiedy miliony ludzi korzystały z Internetu, Shawn Fanning wprowadził aplikację Napster do udostępniania muzyki i plików. Napster był początkiem sieci peer-to-peer, jakie znamy dzisiaj, w których „uczestniczący użytkownicy tworzą sieć wirtualną, całkowicie niezależną od sieci fizycznej, bez konieczności przestrzegania jakichkolwiek władz administracyjnych lub ograniczeń”.

Architektura

Sieć peer-to-peer jest zaprojektowana w oparciu o koncepcję równych węzłów równorzędnych, które jednocześnie działają zarówno jako „klienci”, jak i „serwery” dla innych węzłów w sieci. Ten model organizacji sieci różni się od klient-serwer , w którym komunikacja odbywa się zwykle do iz serwera centralnego. Typowym przykładem transferu plików w modelu klient-serwer jest File Transfer Protocol ), w której programy klienta i serwera są różne: klienci inicjują transfer, a serwery spełniają te żądania.

Routing i wykrywanie zasobów

Sieci peer-to-peer zazwyczaj implementują jakąś formę wirtualnej sieci nakładkowej na topologii sieci fizycznej, w której węzły w nakładce tworzą podzbiór węzłów w sieci fizycznej. Dane są nadal wymieniane bezpośrednio przez bazową TCP/IP , ale w warstwie aplikacji elementy równorzędne mogą komunikować się ze sobą bezpośrednio za pośrednictwem logicznych łączy nakładkowych (z których każdy odpowiada ścieżce w leżącej u podstaw sieci fizycznej). Nakładki służą do indeksowania i wykrywania sieci równorzędnych oraz uniezależniają system P2P od fizycznej topologii sieci. Na podstawie tego, w jaki sposób węzły są ze sobą połączone w sieci nakładkowej oraz w jaki sposób indeksowane i lokalizowane są zasoby, możemy sklasyfikować sieci jako nieustrukturyzowane lub ustrukturyzowane (lub jako hybrydy między tymi dwoma).

Sieci nieustrukturyzowane

Schemat sieci nakładkowej dla nieustrukturyzowanej sieci P2P , ilustrujący ad hoc charakter połączeń między węzłami

Nieustrukturyzowane sieci peer-to-peer nie narzucają określonej struktury sieci nakładkowej z założenia, ale są tworzone przez węzły, które losowo tworzą ze sobą połączenia. ( Gnutella , Gossip i Kazaa to przykłady nieustrukturyzowanych protokołów P2P).

Ponieważ nie ma globalnie narzuconej struktury, sieci nieustrukturyzowane są łatwe do zbudowania i umożliwiają zlokalizowane optymalizacje w różnych regionach nakładki. Ponadto, ponieważ rola wszystkich peerów w sieci jest taka sama, sieci nieustrukturyzowane są bardzo odporne na wysokie wskaźniki „odpływu” - to znaczy, gdy duża liczba peerów często dołącza i opuszcza sieć.

Jednak podstawowe ograniczenia sieci nieustrukturyzowanych wynikają również z tego braku struktury. W szczególności, gdy element równorzędny chce znaleźć żądany fragment danych w sieci, zapytanie wyszukiwania musi przejść przez sieć, aby znaleźć jak najwięcej elementów równorzędnych, które współużytkują dane. Flooding powoduje bardzo duży ruch sygnalizacyjny w sieci, zużywa więcej procesora /memory (wymagając, aby każdy element równorzędny przetwarzał wszystkie zapytania wyszukiwania) i nie gwarantuje, że zapytania wyszukiwania będą zawsze rozwiązywane. Ponadto, ponieważ nie ma korelacji między peerem a treścią przez niego zarządzaną, nie ma gwarancji, że zalewanie znajdzie peera, który ma pożądane dane. Popularne treści będą prawdopodobnie dostępne u kilku partnerów, a każdy, kto ich szuka, prawdopodobnie znajdzie to samo. Ale jeśli peer szuka rzadkich danych udostępnianych tylko przez kilka innych peerów, jest bardzo mało prawdopodobne, że wyszukiwanie zakończy się sukcesem.

Sieci strukturalne

Diagram sieci nakładki dla ustrukturyzowanej sieci P2P , wykorzystujący rozproszoną tablicę skrótów (DHT) do identyfikacji i lokalizacji węzłów/zasobów

W ustrukturyzowanych sieciach peer-to-peer nakładka jest zorganizowana w określoną topologię, a protokół zapewnia, że ​​każdy węzeł może skutecznie przeszukiwać sieć w poszukiwaniu pliku/zasobu, nawet jeśli zasób ten jest niezwykle rzadki.

Najpopularniejszy typ ustrukturyzowanych sieci P2P implementuje rozproszoną tablicę skrótów (DHT), w której wariant spójnego haszowania jest używany do przypisania własności każdego pliku do określonego peera. Umożliwia to rówieśnikom wyszukiwanie zasobów w sieci za pomocą tablicy skrótów : to znaczy pary ( klucz , wartość ) są przechowywane w DHT, a każdy uczestniczący węzeł może wydajnie pobrać wartość powiązaną z danym kluczem.

Rozproszone tablice skrótów

Jednak w celu efektywnego kierowania ruchem w sieci węzły w ustrukturyzowanej nakładce muszą utrzymywać listy sąsiadów, które spełniają określone kryteria. To czyni je mniej niezawodnymi w sieciach o wysokim wskaźniku zmian (tj. z dużą liczbą węzłów, które często dołączają i opuszczają sieć). Nowsza ocena rozwiązań P2P do wykrywania zasobów przy rzeczywistych obciążeniach zwróciła uwagę na kilka problemów w rozwiązaniach opartych na DHT, takich jak wysokie koszty reklamy/wykrywania zasobów oraz statyczna i dynamiczna nierównowaga obciążenia.

Znane sieci rozproszone korzystające z DHT obejmują Tixati , alternatywę dla rozproszonego modułu śledzącego BitTorrenta , sieć Kad , botnet Storm i YaCy . Niektóre wybitne projekty badawcze obejmują projekt Chord , Kademlia , narzędzie do przechowywania PAST , P-Grid , samoorganizującą się i powstającą sieć nakładkową oraz system dystrybucji treści CoopNet . Sieci oparte na DHT były również szeroko wykorzystywane do wydajnego wykrywania zasobów dla przetwarzania sieciowego , ponieważ pomagają w zarządzaniu zasobami i planowaniu aplikacji.

Modele hybrydowe

Modele hybrydowe to połączenie modeli peer-to-peer i klient-serwer. Typowym modelem hybrydowym jest posiadanie centralnego serwera, który pomaga rówieśnikom znaleźć się nawzajem. Spotify był przykładem modelu hybrydowego [do 2014 roku]. Istnieje wiele modeli hybrydowych, z których wszystkie stanowią kompromis między scentralizowaną funkcjonalnością zapewnianą przez ustrukturyzowaną sieć serwer/klient a równością węzłów zapewnianą przez nieustrukturyzowane sieci typu peer-to-peer. Obecnie modele hybrydowe mają lepszą wydajność niż czyste sieci nieustrukturyzowane lub sieci o czystej strukturze, ponieważ niektóre funkcje, takie jak wyszukiwanie, wymagają scentralizowanej funkcjonalności, ale korzystają ze zdecentralizowanej agregacji węzłów zapewnianej przez sieci nieustrukturyzowane.

System dystrybucji treści CoopNet

CoopNet (Cooperative Networking) był proponowanym systemem do odciążania rówieśników, którzy niedawno pobrali treści , zaproponowany przez informatyków Venkata N. Padmanabhan i Kunwadee Sripanidkulchai, pracujących w Microsoft Research i Carnegie Mellon University . Kiedy serwer doświadcza wzrostu obciążenia, przekierowuje przychodzące peery do innych peerów, którzy zgodzili się na dublowanie zawartość, odciążając w ten sposób saldo z serwera. Wszystkie informacje są przechowywane na serwerze. Ten system wykorzystuje fakt, że wąskim gardłem jest najprawdopodobniej przepustowość wychodząca niż procesor , stąd jego konstrukcja zorientowana na serwer. Przypisuje rówieśników do innych rówieśników, którzy są „blisko adresu IP ” do swoich sąsiadów [ten sam zakres prefiksów], próbując użyć lokalizacji. Jeśli z tym samym plikiem zostanie znalezionych wielu peerów, oznacza to, że węzeł wybierze najszybszego ze swoich sąsiadów. Media strumieniowe są przesyłane za pomocą pamięci podręcznej klientów poprzedniego strumienia, a następnie przesyłać go fragmentarycznie do nowych węzłów.

Bezpieczeństwo i zaufanie

Systemy peer-to-peer stanowią wyjątkowe wyzwania z punktu widzenia bezpieczeństwa komputerowego .

Jak każda inna forma oprogramowania , aplikacje P2P mogą zawierać luki . Jednak to, co czyni to szczególnie niebezpiecznym dla oprogramowania P2P, to fakt, że aplikacje peer-to-peer działają zarówno jako serwery, jak i klienci, co oznacza, że ​​mogą być bardziej podatne na zdalne luki w zabezpieczeniach .

Ataki trasujące

Ponieważ każdy węzeł odgrywa rolę w kierowaniu ruchu w sieci, szkodliwi użytkownicy mogą przeprowadzać różne „ataki trasujące” lub odmowę usługi ataki. Przykłady typowych ataków na routing obejmują „nieprawidłowe wyszukiwanie routingu”, w wyniku którego złośliwe węzły celowo przekazują niepoprawne żądania lub zwracają fałszywe wyniki, „nieprawidłowe aktualizacje routingu”, w przypadku których złośliwe węzły uszkadzają tablice routingu sąsiednich węzłów, wysyłając im fałszywe informacje, oraz „nieprawidłowy routing partycji sieciowej”. „gdzie nowe węzły dołączają, ładują się przez złośliwy węzeł, który umieszcza nowy węzeł w partycji sieci, która jest wypełniona przez inne złośliwe węzły.

Uszkodzone dane i złośliwe oprogramowanie

Rozpowszechnienie złośliwego oprogramowania różni się w zależności od różnych protokołów peer-to-peer. Badania analizujące rozprzestrzenianie się złośliwego oprogramowania w sieciach P2P wykazały na przykład, że 63% odpowiedzi na żądania pobrania w sieci gnutella zawierało jakąś formę złośliwego oprogramowania, podczas gdy tylko 3% treści w OpenFT zawierało złośliwe oprogramowanie. W obu przypadkach trzy najczęstsze typy złośliwego oprogramowania odpowiadały za zdecydowaną większość przypadków (99% w gnutella i 65% w OpenFT). Kolejne badanie analizujące ruch na Kazaa network odkrył, że 15% z 500 000 pobranych próbek plików było zainfekowanych przez jeden lub więcej z 365 różnych wirusów komputerowych , które zostały przetestowane.

Uszkodzone dane mogą być również rozpowszechniane w sieciach P2P poprzez modyfikację plików, które są już udostępniane w sieci. Na przykład w sieci FastTrack RIAA zdołała wprowadzić sfałszowane fragmenty do pobranych plików i pobranych plików (głównie plików MP3 ). Pliki zainfekowane wirusem RIAA były później bezużyteczne i zawierały złośliwy kod. Wiadomo również, że RIAA przesyłała fałszywą muzykę i filmy do sieci P2P w celu powstrzymania nielegalnego udostępniania plików. W rezultacie dzisiejsze sieci P2P odnotowały ogromny wzrost mechanizmów bezpieczeństwa i weryfikacji plików. Nowoczesne haszowanie , weryfikacja fragmentów i różne metody szyfrowania sprawiły, że większość sieci jest odporna na niemal każdy rodzaj ataku, nawet jeśli główne części danej sieci zostały zastąpione fałszywymi lub niefunkcjonalnymi hostami.

Odporne i skalowalne sieci komputerowe

Zdecentralizowany charakter sieci P2P zwiększa niezawodność, ponieważ eliminuje pojedynczy punkt awarii , który może być nieodłącznym elementem systemu opartego na kliencie-serwerze. Gdy przybywają węzły i rośnie zapotrzebowanie na system, zwiększa się również całkowita pojemność systemu, a prawdopodobieństwo awarii maleje. Jeśli jeden element równorzędny w sieci nie działa prawidłowo, cała sieć nie jest zagrożona ani uszkodzona. Natomiast w typowej architekturze klient-serwer klienci dzielą się z systemem tylko swoimi wymaganiami, ale nie udostępniają swoich zasobów. W takim przypadku, gdy więcej klientów dołącza do systemu, dostępnych jest mniej zasobów do obsługi każdego klienta, a jeśli serwer centralny ulegnie awarii, cała sieć zostanie wyłączona.

Rozproszone przechowywanie i wyszukiwanie

Wyniki wyszukiwania dla zapytania „ software libre ” przy użyciu bezpłatnej rozproszonej wyszukiwarki YaCy działającej w sieci peer-to-peer zamiast wysyłania żądań do scentralizowanych serwerów indeksujących (takich jak Google , Yahoo i inne korporacyjne wyszukiwarki)

Istnieją zarówno zalety, jak i wady sieci P2P związane z tematem tworzenia kopii zapasowych , odzyskiwania danych i dostępności. W scentralizowanej sieci administratorzy systemu są jedyną siłą kontrolującą dostępność udostępnianych plików. Jeśli administratorzy zdecydują się zaprzestać dystrybucji pliku, muszą po prostu usunąć go ze swoich serwerów i nie będzie on już dostępny dla użytkowników. Oprócz tego, że użytkownicy są bezsilni w decydowaniu o tym, co jest dystrybuowane w społeczności, sprawia to, że cały system jest podatny na zagrożenia i żądania ze strony rządu i innych dużych sił. Na przykład YouTube był naciskany przez RIAA , MPAA i przemysłu rozrywkowego w celu odfiltrowania treści chronionych prawem autorskim. Chociaż sieci serwer-klient są w stanie monitorować dostępność treści i zarządzać nią, mogą mieć większą stabilność w zakresie dostępności treści, które zdecydują się hostować. Klient nie powinien mieć problemów z dostępem do niejasnych treści, które są udostępniane w stabilnej, scentralizowanej sieci. Sieci P2P są jednak bardziej zawodne w udostępnianiu niepopularnych plików, ponieważ udostępnianie plików w sieci P2P wymaga, aby co najmniej jeden węzeł w sieci miał żądane dane, a węzeł ten musi być w stanie połączyć się z węzłem żądającym danych. Czasami trudno jest spełnić to wymaganie, ponieważ użytkownicy mogą w dowolnym momencie usunąć lub przerwać udostępnianie danych.

W tym sensie społeczność użytkowników w sieci P2P jest całkowicie odpowiedzialna za podejmowanie decyzji, jakie treści są dostępne. Niepopularne pliki ostatecznie znikną i staną się niedostępne, gdy więcej osób przestanie je udostępniać. Popularne pliki będą jednak bardzo łatwo rozpowszechniane. Popularne pliki w sieci P2P mają w rzeczywistości większą stabilność i dostępność niż pliki w sieciach centralnych. W scentralizowanej sieci zwykła utrata połączenia między serwerem a klientami wystarczy, aby spowodować awarię, ale w sieciach P2P połączenia między każdym węzłem muszą zostać utracone, aby spowodować awarię udostępniania danych. W systemie scentralizowanym administratorzy są odpowiedzialni za odzyskiwanie danych i tworzenie kopii zapasowych, podczas gdy w systemach P2P każdy węzeł wymaga własnego systemu tworzenia kopii zapasowych. Ze względu na brak władzy centralnej w sieciach P2P siły takie jak przemysł nagraniowy, RIAA , MPAA i rząd nie są w stanie usunąć ani zatrzymać udostępniania treści w systemach P2P.

Aplikacje

Dostarczanie zawartości

W sieciach P2P klienci zarówno dostarczają zasoby, jak i z nich korzystają. Oznacza to, że w przeciwieństwie do systemów klient-serwer, pojemność sieci peer-to-peer w zakresie obsługi treści może faktycznie wzrosnąć , gdy więcej użytkowników zacznie uzyskiwać dostęp do treści (szczególnie w przypadku protokołów takich jak Bittorrent , które wymagają od użytkowników udostępniania, patrz badanie pomiaru wydajności ). Ta właściwość jest jedną z głównych zalet korzystania z sieci P2P, ponieważ sprawia, że ​​koszty konfiguracji i eksploatacji są bardzo niskie dla oryginalnego dystrybutora treści.

Sieci wymiany plików

Wiele sieci udostępniania plików peer-to-peer , takich jak Gnutella , G2 i sieć eDonkey, spopularyzowało technologie peer-to-peer.

Naruszenia praw autorskich

Sieci peer-to-peer obejmują przesyłanie danych od jednego użytkownika do drugiego bez użycia serwera pośredniczącego. Firmy opracowujące aplikacje P2P były zaangażowane w liczne sprawy sądowe, głównie w Stanach Zjednoczonych, dotyczące konfliktów z autorskim . Dwie główne sprawy to Grokster przeciwko RIAA i MGM Studios, Inc. przeciwko Grokster, Ltd. W tej ostatniej sprawie Sąd jednogłośnie orzekł, że pozwane firmy udostępniające pliki typu peer-to-peer Grokster i Streamcast mogą zostać pozwane za nakłanianie do naruszenia praw autorskich.

Multimedialne

  • Protokoły P2PTV i PDTP .
  • Niektóre zastrzeżone aplikacje multimedialne wykorzystują sieć peer-to-peer wraz z serwerami strumieniowymi do strumieniowego przesyłania audio i wideo do swoich klientów.
  • Peercasting dla strumieni multiemisji.
  • Pennsylvania State University , MIT i Simon Fraser University realizują projekt o nazwie LionShare, którego celem jest ułatwienie udostępniania plików między instytucjami edukacyjnymi na całym świecie.
  • Osiris to program, który pozwala swoim użytkownikom na tworzenie anonimowych i autonomicznych portali internetowych dystrybuowanych za pośrednictwem sieci P2P.

Inne aplikacje P2P

Plik torrent łączy rówieśników

Implikacje społeczne

Zachęcanie do udostępniania zasobów i współpracy

Protokół BitTorrent : W tej animacji kolorowe paski pod wszystkimi 7 klientami w górnym obszarze powyżej reprezentują udostępniany plik, przy czym każdy kolor reprezentuje indywidualny fragment pliku. Po początkowym przeniesieniu elementów z nasion (duży system na dole), elementy są indywidualnie przenoszone od klienta do klienta. Oryginalny seeder musi wysłać tylko jedną kopię pliku, aby wszyscy klienci otrzymali kopię.

Współpraca między społecznością uczestników jest kluczem do dalszego sukcesu systemów P2P skierowanych do zwykłych użytkowników; osiągają one swój pełny potencjał tylko wtedy, gdy duża liczba węzłów wnosi zasoby. Jednak w obecnej praktyce sieci P2P często zawierają dużą liczbę użytkowników, którzy korzystają z zasobów współdzielonych przez inne węzły, ale którzy sami niczego nie udostępniają (często określany jako „problem freeloadera”). Freeloading może mieć głęboki wpływ na sieć, aw niektórych przypadkach może spowodować upadek społeczności. W tego typu sieciach „użytkownicy mają naturalne czynniki zniechęcające do współpracy, ponieważ współpraca pochłania ich własne zasoby i może pogorszyć ich wyniki”. Badanie atrybutów społecznych sieci P2P jest trudne ze względu na duże populacje obrotów, asymetrię zainteresowań i tożsamość o zerowych kosztach. Wdrożono różne mechanizmy zachęt, aby zachęcić lub nawet zmusić węzły do ​​wniesienia zasobów.

Niektórzy badacze badali korzyści płynące z umożliwienia społecznościom wirtualnym samoorganizacji i wprowadzenia zachęt do współdzielenia zasobów i współpracy, argumentując, że aspekt społeczny, którego brakuje w dzisiejszych systemach P2P, powinien być postrzegany zarówno jako cel, jak i środek samoorganizujących się społeczności wirtualnych do budować i pielęgnować. Trwające prace badawcze mające na celu zaprojektowanie skutecznych mechanizmów motywacyjnych w systemach P2P, opartych na zasadach teorii gier, zaczynają przybierać kierunek bardziej psychologiczny i informatyczny.

Prywatność i anonimowość

Niektóre sieci peer-to-peer (np. Freenet ) kładą duży nacisk na prywatność i anonimowość — to znaczy na zapewnienie, że treść komunikacji jest ukryta przed podsłuchem oraz że tożsamość/lokalizacja uczestników jest ukryta. Kryptografia klucza publicznego może służyć do szyfrowania , sprawdzania poprawności danych , autoryzacji i uwierzytelniania danych/wiadomości. Routing cebulowy i inne różne protokoły sieciowe (np. Tarzan) mogą służyć do zapewnienia anonimowości.

Sprawcy wykorzystywania seksualnego transmitowanego na żywo i innych cyberprzestępstw wykorzystywali platformy peer-to-peer do przeprowadzania anonimowych działań.

Implikacje polityczne

Prawo własności intelektualnej i nielegalne udostępnianie

Chociaż sieci peer-to-peer mogą być wykorzystywane do uzasadnionych celów, właściciele praw wybrali sieci peer-to-peer ze względu na udział w udostępnianiu materiałów chronionych prawem autorskim. Sieci peer-to-peer obejmują przesyłanie danych od jednego użytkownika do drugiego bez użycia serwera pośredniczącego. Firmy opracowujące aplikacje P2P były zaangażowane w liczne sprawy sądowe, głównie w Stanach Zjednoczonych, głównie w kwestiach związanych z autorskim . Dwie główne sprawy to Grokster przeciwko RIAA i MGM Studios, Inc. przeciwko Grokster, Ltd. W obu przypadkach technologia udostępniania plików została uznana za legalną, o ile twórcy nie mieli możliwości zapobieżenia udostępnianiu materiałów chronionych prawem autorskim. Aby ustalić odpowiedzialność karną za naruszenie praw autorskich w systemach peer-to-peer, rząd musi udowodnić, że pozwany naruszył prawa autorskie dobrowolnie w celu osobistego zysku finansowego lub korzyści handlowej. Dozwolonego użytku wyjątki zezwalają na pobieranie materiałów chronionych prawem autorskim w ograniczonym zakresie bez uzyskiwania pozwolenia od właścicieli praw. Dokumenty te to zazwyczaj doniesienia prasowe lub prace badawcze i naukowe. Pojawiły się kontrowersje dotyczące nielegalnego korzystania z sieci peer-to-peer w zakresie bezpieczeństwa publicznego i bezpieczeństwa narodowego. Kiedy plik jest pobierany przez sieć peer-to-peer, nie można wiedzieć, kto utworzył plik ani jacy użytkownicy są podłączeni do sieci w danym momencie. Wiarygodność źródeł jest potencjalnym zagrożeniem bezpieczeństwa, które można zaobserwować w przypadku systemów peer-to-peer.

Badanie zlecone przez Unię Europejską wykazało, że nielegalne pobieranie może prowadzić do wzrostu ogólnej sprzedaży gier wideo, ponieważ nowsze gry pobierają opłaty za dodatkowe funkcje lub poziomy. W artykule stwierdzono, że piractwo miało negatywny wpływ finansowy na filmy, muzykę i literaturę. Badanie opierało się na zgłaszanych przez samych siebie danych dotyczących zakupów gier i korzystania z nielegalnych stron do pobierania. Starano się usunąć skutki fałszywych i źle zapamiętanych odpowiedzi.

Neutralność sieci

Aplikacje peer-to-peer stanowią jeden z głównych problemów w kontrowersjach dotyczących neutralności sieci . Wiadomo , że dostawcy usług internetowych ( ISP ) ograniczają ruch związany z udostępnianiem plików P2P ze względu na wykorzystanie dużej przepustowości . W porównaniu z przeglądaniem stron internetowych, pocztą e-mail lub wieloma innymi zastosowaniami Internetu, w których dane są przesyłane tylko w krótkich odstępach czasu i stosunkowo niewielkich ilościach, udostępnianie plików P2P często wiąże się ze stosunkowo dużym wykorzystaniem przepustowości ze względu na ciągłe przesyłanie plików i koordynację roju/sieci pakiety. W październiku 2007 Comcast , jeden z największych dostawców szerokopasmowego Internetu w Stanach Zjednoczonych, zaczął blokować aplikacje P2P, takie jak BitTorrent . Ich uzasadnieniem było to, że P2P jest używany głównie do udostępniania nielegalnych treści, a ich infrastruktura nie jest zaprojektowana do ciągłego ruchu o dużej przepustowości. Krytycy zwracają uwagę, że sieci P2P mają legalne zastosowania i że jest to kolejny sposób, w jaki duzi dostawcy próbują kontrolować wykorzystanie i zawartość Internetu oraz kierować ludzi do klienta- serwera oparta na architekturze aplikacji. Model klient-serwer stwarza finansowe bariery wejścia dla małych wydawców i osób prywatnych i może być mniej wydajny w przypadku udostępniania dużych plików. W odpowiedzi na to ograniczanie przepustowości , kilka aplikacji P2P zaczęło wdrażać zaciemnianie protokołów, takie jak szyfrowanie protokołu BitTorrent . Techniki osiągania „zaciemniania protokołów” polegają na usuwaniu łatwych do zidentyfikowania właściwości protokołów, takich jak deterministyczne sekwencje bajtów i rozmiary pakietów, poprzez sprawienie, by dane wyglądały tak, jakby były losowe. Rozwiązaniem ISP dla wysokiej przepustowości jest Buforowanie P2P , w którym dostawca usług internetowych przechowuje część plików najczęściej używanych przez klientów P2P w celu zaoszczędzenia dostępu do Internetu.

Obecne badania

Naukowcy wykorzystali symulacje komputerowe, aby pomóc w zrozumieniu i ocenie złożonych zachowań jednostek w sieci. „Badania sieciowe często opierają się na symulacji w celu przetestowania i oceny nowych pomysłów. Ważnym wymogiem tego procesu jest to, że wyniki muszą być powtarzalne, aby inni badacze mogli powielać, weryfikować i rozszerzać istniejące prace”. Jeśli badania nie mogą być powtórzone, wówczas możliwości dalszych badań są utrudnione. „Mimo że wciąż pojawiają się nowe symulatory, społeczność naukowa skłania się ku zaledwie garstce symulatorów typu open source. Zapotrzebowanie na funkcje symulatorów, jak pokazują nasze kryteria i ankieta, jest wysokie. Dlatego społeczność powinna współpracować, aby uzyskać te funkcje w oprogramowaniu typu open source. Zmniejszyłoby to potrzebę stosowania niestandardowych symulatorów, a tym samym zwiększyłoby powtarzalność i reputację eksperymentów”.

Oprócz wszystkich wyżej wymienionych faktów, wykonano również prace nad symulatorami sieci ns-2 typu open source. Jeden problem badawczy związany z wykrywaniem i karaniem gapowiczów został zbadany za pomocą symulatora ns-2 tutaj.

Zobacz też

Linki zewnętrzne