Peer-to-Peer pushen

Wenn ich Peer-to-Peer sage, denken Sie wahrscheinlich an diese File-Sharing-Dienste, mit denen Sie kostenlos Musik, Filme und Pornografie über das Internet beziehen können. Bei Peer-to-Peer geht es jedoch um viel mehr als die Verletzung des Urheberrechts großer Plattenfirmen.

Obwohl der Begriff erst vor wenigen Jahren geprägt wurde, ist Peer-to-Peer tatsächlich die ursprüngliche Funktionsweise des Internets. Die Theorie war, dass alle Computer im Netzwerk erstklassige Bürger sein würden, von denen jeder in der Lage wäre, Ressourcen zu teilen oder Informationen miteinander auszutauschen. Damals begann vielleicht ein Student am MIT, auf einem Computer in Cambridge zu tippen und sich damit an einem Computer in Stanford anzumelden. In der Zwischenzeit könnte ein anderer Student in Stanford denselben Computer verwenden, um sich beim ersten System am MIT anzumelden. Beide Computer würden gleichzeitig das Netzwerk nutzen und Dienste für dieses anbieten. Die Verbindungen zwischen ihnen wären Verbindungen zwischen Gleichgestellten, das heißt Peer-to-Peer.

Wie sich herausstellte, wurde der Großteil des Internets nicht zu einem Peer-to-Peer-System. Stattdessen entwickelte sich das Netz nach einem anderen Modell. Kostengünstige Computer, sogenannte Clients, wurden auf die Schreibtische der Leute verteilt. Diese Maschinen wurden verwendet, um auf Dienste zuzugreifen, die von teureren zentralisierten Computern angeboten wurden, die mangels eines besseren Wortes Server genannt wurden. Einige der ersten Client-Server-Systeme ermöglichen den Benutzern die gemeinsame Nutzung von Dateien, indem sie diese auf zentralisierten Dateiservern ablegen. Die Server waren auch ein idealer Ort, um elektronische Post abzulegen.



Planeten wie die Erde gefunden

Heutzutage sind die Clients des Internets die Desktop- und Laptop-Computer, mit denen wir alle so vertraut sind. Die Server sind Webserver, Mailserver, Instant Messaging-Server und andere Server, auf die sich unsere Kunden verlassen. Es gibt noch mehr Server, die hinter den Kulissen arbeiten – Dinge wie DNS-Server, die das Domain Name System des Internets betreiben, Routing-Server, die zum Senden von Sprachverkehr durch das Netz verwendet werden (sogenannte Voice-over-IP-Systeme) und sogar Server für Unternehmen, die ihre Computer über das Netzwerk sichern möchten. Das Client-Server-Modell ist so erfolgreich, weil es relativ einfach zu verstehen, einzurichten und zu warten ist.

Aber es gibt ein großes Problem mit der Client-Server-Architektur: Sie ist anfällig. Wenn ein einzelner Server ausfällt, fallen im Wesentlichen alle Clients aus, die darauf angewiesen sind. Sie können dieses Problem minimieren, indem Sie mehrere Server haben, aber dann müssen Sie sicherstellen, dass alle synchronisiert bleiben. Tatsächlich muss der Server nicht einmal ausfallen – alles, was Sie brauchen, ist eine Unterbrechung des Netzwerks.

Peer-to-Peer ist eine grundlegend andere Denkweise über das Netzwerk, die nicht auf Clients und Servern basiert, sondern auf Kooperation und Kollaboration. Ein Peer-to-Peer-Backup-System kann den gesamten zusätzlichen Speicherplatz auf den Festplatten im gesamten Unternehmen verwenden, um zusätzliche Kopien wichtiger Dokumente und persönlicher E-Mails zu speichern. Ein Peer-to-Peer-Web-Publishing-System verwendet möglicherweise dieselben Festplatten, um Kopien von Websites zu speichern. Die Theorie hier ist, dass tausend leistungsschwache Clients immer noch schneller sind als der schnellste Server der Welt.

Leider kann es schwierig sein, Peer-to-Peer-Systeme zusammenzustellen. Der einfachste Weg, einen zu erstellen, besteht darin, dass jeder Knoten seine Anwesenheit an einen zentralen Server meldet. Personen, die dem Netzwerk beitreten möchten, melden sich dann am zentralen Computer an, um ihre Kollegen zu finden. Das funktioniert zwar, ist aber kein echtes Peer-to-Peer: Fahren Sie den zentralen Server herunter und das System bricht zusammen.

Aus diesem Grund hat sich die akademische Forschung zu Peer-to-Peer-Systemen hauptsächlich auf den Aufbau von Systemen konzentriert, die ohne zentrale Kontrolle funktionieren. Das ist schwierigeres Zeug! Computer müssen in der Lage sein, neue Peers zu entdecken, die auftauchen, und tolerant gegenüber Peers sein, die abstürzen. Manchmal zerbricht das Netzwerk in zwei oder mehr Teile. Daten müssen an mehreren Orten gespeichert werden. Versuchen Sie als zusätzliche Herausforderung, mit potenziell feindseligen Kollegen umzugehen, die vorgeben, gut zu sein.

Mikrochip in der Hand 2017

All diese Erfahrung könnte sich in zehn oder fünfzehn Jahren wirklich auszahlen. Betrachten Sie diese Beispiele:

  • Einer der schwächsten Punkte des Internets ist derzeit das Domain Name System, das von einem losen Zusammenschluss von Nameservern betrieben wird. Das Ausführen von DNS auf einem Peer-to-Peer-System stattdessen könnte seine Zuverlässigkeit dramatisch verbessern.
  • Wenn Ihr Unternehmen heute einen kleinen Webserver betreibt und die Site plötzlich sehr beliebt wird, kann der Server aufgrund des zusätzlichen Datenverkehrs abstürzen. Aber wenn alle Computer im Internet Teil eines globalen Peer-to-Peer-Webcaches wären, könnten kleine Unternehmen und Einzelpersonen ihr Material an die Massen veröffentlichen. Ein gutes System würde sogar eine böswillige Änderung des Webseiteninhalts verhindern, wenn er von anderen Computern bereitgestellt wurde.
  • Im Falle eines terroristischen Angriffs auf die Infrastruktur des Internets würde sich ein Peer-to-Peer-System weitaus wahrscheinlicher erholen als ein System, das von einer Top-Down-Kontrolle abhängt.

Eng verbunden mit der Idee von Peer-to-Peer ist das Konzept eines Overlay-Netzwerks. Dabei handelt es sich um Computernetzwerke, die über dem Internet betrieben werden, mit direkten Verbindungen zwischen Computern, die im Internet selbst möglicherweise geografisch weit entfernt sind. Gnutella, Kasaa und Morpheus sind alle Overlay-Netzwerke, ebenso wie das globale Netzwerk von Webservern, das von Akamai betrieben wird.

Um zu verstehen, warum Overlay-Netzwerke eine interessante Idee sind, müssen Sie zunächst verstehen, wie das Internet ohne sie funktioniert. Wenn ein Computer in Washington DC eine Verbindung zu einem Computer in Tokio herstellen möchte, schickt er normalerweise die Datenpakete einfach in die riesige Suppe des Internets. Schließlich landen die Pakete am anderen Ende.

Nach dem ursprünglichen Design des Internets würden die Pakete zwischen dem Computer in Washington und dem Computer in Tokio nun automatisch den schnellsten und effizientesten Weg nehmen. Leider funktioniert das heutige Internet nicht so. Ihr Internet Service Provider in Washington hat möglicherweise ein Schnäppchen mit einem ISP in England, um Pakete über den Atlantik auszutauschen. Der englische ISP könnte seinerseits einen Vertrag mit einem ISP in Deutschland haben. Und der deutsche ISP hat möglicherweise eine spezielle Leitung, die nach Japan führt, aber diese Leitung könnte überbucht und langsam sein. Es könnte sich herausstellen, dass der schnellste Weg, um Pakete von Washington nach Tokio zu bekommen, darin besteht, sie nach San Francisco und dann nach Japan zu schicken – ein Weg, der möglicherweise existiert, aber von der Politik abgeraten wird. Dies ist kein hypothetisches Beispiel: Ein solches byzantinisches Routing ist im heutigen Internet üblich.

Overlay-Netzwerke zwingen das Internet, Pakete unterschiedlich weiterzuleiten, indem sie sie zwischen bestimmten Computern verschieben. Sie haben beispielsweise ein Overlay-Netzwerk, das aus einem Computer in Washington, einem anderen in San Francisco und einem anderen in Tokio besteht. Indem Sie die Pakete von einem Ihrer Computer zum nächsten senden, können Sie die Routing-Richtlinie Ihres ISPs missachten und Ihre Pakete zwingen, einen Pfad Ihrer Wahl zu durchlaufen.

Wenn Sie Zugriff auf Computer an mehr als einem Standort haben, haben Sie möglicherweise selbst die Wunder von Overlay-Netzwerken erlebt. Ich habe zum Beispiel einen Computer in Belmont, MA, einen weiteren in Cambridge und einen weiteren in Boston. Jede Maschine wird von einem anderen ISP bedient. Manchmal kann ich keine Verbindung zwischen dem Computer in Belmont und dem in Boston herstellen. Während dieser Zeiten kann ich von Belmont nach Cambridge und dann von Cambridge nach Boston hüpfen. Im Wesentlichen habe ich mein eigenes Overlay-Netzwerk erstellt.

Die meisten Peer-to-Peer-Systeme erstellen Overlay-Netzwerke im Handumdrehen, wenn sie Staus oder Routing-Probleme im zugrunde liegenden Internet überwinden müssen. Overlay-Netzwerke sind auch ein großartiger Ort für Akademiker, um mit neuen Routing-Algorithmen zu experimentieren – Algorithmen, die zu neu und noch nicht getestet sind, um sie in der Internet-Infrastruktur loszulassen.

Peer-to-Peer ist eine ziemlich mächtige Sache. Was wir bisher gesehen haben – die Systeme zur Urheberrechtsverletzung – ist wirklich nur der Anfang. Peer-to-Peer könnte viele der grundlegenden Probleme überwinden, mit denen das Internet heute konfrontiert ist – Probleme der zentralen Kontrolle, anfälliger Server und die Schwierigkeit, mit der die meisten Unternehmen skalieren. Andererseits könnte Peer-to-Peer auch die Sicherheitsprobleme des Internets verschlimmern, indem es Hackern ermöglicht wird, große Angriffsnetzwerke aufzubauen. Peer-to-Peer könnte ein Segen für die Künstler und die Plattenindustrie sein, da sie ihr geistiges Eigentum zu einem viel günstigeren Preis als bisher veröffentlichen und verbreiten können. Doch bessere Peer-to-Peer-Systeme könnten den Plattenfirmen noch mehr schaden – und das nicht nur durch Urheberrechtsverletzungen.

Schon heute leisten Peer-to-Peer-Netzwerke beim Verteilen von Musik bessere Arbeit als die Labels; Netzwerke der nächsten Generation könnten Systeme für Werbung und sogar kollaboratives Filtern implementieren, um es für Benutzer effizienter zu machen, die Musik zu finden, die sie hören möchten. Peer-to-Peer-Systeme könnten sogar als eine Art Internetradio-System fungieren, das Hörspiel und die dazugehörige Payola überflüssig macht. Dies war im Wesentlichen der Plan von Napster, wie die Plattenfirmen während des Ermittlungsverfahrens während ihrer Klage erfuhren. Die wirkliche Bedrohung, die Peer-to-Peer für die Plattenfirmen darstellt, besteht darin, dass sie dadurch obsolet werden könnten.

Letztlich geht es bei der Peer-to-Peer-Technologie darum, die Zuverlässigkeit und Redundanz internetbasierter Systeme zu erhöhen. Aus diesem Grund hat die Tonträgerindustrie Angst davor, denn Peer-to-Peer kann verwendet werden, um Netzwerke zu schaffen, die die Branche nicht abschalten kann. Aber Peer-to-Peer kann auch verwendet werden, um Netzwerke zu schaffen, die Erdbeben, Kriege und Terroristen nicht schließen können. Letztendlich denke ich, dass wir besser dran sind, das Internet zu stärken, anstatt es zu schwächen.

die kartenspielmagie
verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen