Das Internet wiedergeboren

Wie die meisten Cyber-Bürger nutzen Sie das Internet für E-Mails, Web-Suchen, Chatten mit Freunden, Musik-Downloads und Kaufen von Büchern und Geschenken. Mehr als 600 Millionen Menschen nutzen diese Dienste weltweit – weit mehr, als man in den 1970er Jahren, als die Schlüsselkomponenten des Internets konzipiert wurden, hätte vorhersehen können. Geschätzte 3,9 Billionen US-Dollar an Geschäftstransaktionen werden 2003 über das Internet abgewickelt, und die Reichweite des Mediums wird immer globaler: Erstaunliche 24 Prozent der Brasilianer, 30 Prozent der Chinesen und 72 Prozent der Amerikaner gehen jetzt mindestens einmal im Monat online.

Trotz seiner enormen Auswirkungen ist das Internet von heute wie ein 1973er Buick, der mit Airbags und Emissionskontrollen ausgestattet ist. Seine jahrzehntealte Infrastruktur wurde mit dem Web und allem, was es ermöglicht (wie E-Commerce), plus Technologien wie Streaming Media, Peer-to-Peer-Dateifreigabe und Videokonferenzen ausgestattet; aber es ist immer noch ein 1973er Buick. Jetzt arbeitet eine Basisgruppe von fast 100 führenden Informatikern, unterstützt von schweren Industriesponsoren, daran, es durch ein neues, weitaus intelligenteres Modell zu ersetzen.

TR100 / 2003

Diese Geschichte war Teil unserer Ausgabe vom Oktober 2003



  • Siehe den Rest der Ausgabe
  • Abonnieren

Das Projekt heißt PlanetLab und wird laut Forschern innerhalb der nächsten drei Jahre dazu beitragen, das Internet wiederzubeleben, und Sie schließlich in die Lage versetzen,

* Vergessen Sie das Herumschleppen Ihres Laptops. Egal, wohin Sie gehen, Sie können Ihren gesamten privaten Computerarbeitsplatz, Programm für Programm und Dokument für Dokument, auf jedem Internet-Terminal sofort neu erstellen;

* Vermeiden Sie Störungen durch Internetwürmer und -viren, die 2002 durchschnittlich 81.000 US-Dollar an Reparaturkosten pro Unternehmen und Vorfall verursachten, da das Netzwerk selbst betrügerische Datenpakete erkennt und zerkleinert, bevor sie sich in Ihrem Büro oder zu Hause ausbreiten können ;

* sofortiges Abrufen von Video- und anderen bandbreitenintensiven Daten, egal wie viele andere Benutzer um dieselben Ressourcen konkurrieren;

* Archivieren Sie Ihre Steuererklärungen, Digitalfotos, Familienvideos und alle Ihre anderen Daten über das Internet selbst, sicher und unzerstörbar, jahrzehntelang, sodass Festplatten und beschreibbare CDs so urig erscheinen wie 78-RPM-Schallplatten.

Diese prognostizierten PlanetLab-Innovationen – mit dem Potenzial, Home Computing, E-Commerce und Unternehmensinformationstechnologie zu revolutionieren – können nicht in das bestehende Netz integriert werden; das wäre zu störend. Stattdessen bauen die PlanetLab-Forscher, die aus Princeton, MIT, der University of California, Berkeley und mehr als 50 anderen Institutionen stammen, ihr Netzwerk auf auf das Internet. Aber ihre neuen Maschinen, sogenannte Smart Nodes, werden ihre Rechenleistung und Datenspeicherfähigkeit enorm steigern, eine Idee, die schnell Unterstützung von der National Science Foundation und Branchenakteuren wie Intel, Hewlett-Packard und Google gefunden hat.

Seit dem Start im März 2002 hat PlanetLab 175 Smart Nodes an 79 Standorten in 13 Ländern verbunden, mit Plänen, bis 2006 1.000 Nodes zu erreichen. Es ist die neueste und heißeste von mehreren groß angelegten Forschungsbemühungen, die versucht haben, die Grenzen des Internets ( sehen Die Neuerfindungen des Internets ). Das Internet hat in Bezug auf seine Leistungsfähigkeit ein Plateau erreicht, sagt Larry Peterson, ein Informatiker aus Princeton und der Leiter der Initiative. Es ist richtig, auf einer anderen Ebene von vorne anzufangen. Das ist die Idee von PlanetLab.

Das Netzwerk Ist der Computer, endlich

Wie viele Revolutionen basiert PlanetLab auf einer verblüffend einfachen Idee, die seit langem existiert und vor allem von Sun Microsystems vorangetrieben wurde: Daten und Berechnungen von Desktop-Computern und einzelnen Mainframes in das Netzwerk selbst zu übertragen.

Dies ist jedoch mit dem heutigen Internet nicht möglich, das aus einfachen Maschinen besteht, die als Router bezeichnet werden und den Verfahren der 1970er Jahre folgen, um E-Mail-Anhänge, Webseiten und andere elektronische Dateien in einzeln adressierte Pakete zu zerlegen und an andere Maschinen weiterzuleiten. Abgesehen von dieser Funktion sind die Router dumm und unflexibel: Sie wurden nicht dafür entwickelt, die Rechenleistung zu bewältigen, die beispielsweise erforderlich ist, um Virenangriffe oder Engpässe an anderer Stelle im Netzwerk zu erkennen und darauf zu reagieren.

Die Smart Nodes von PlanetLab hingegen sind Standard-PCs, die von Benutzern hochgeladene benutzerdefinierte Software ausführen können. Kopien eines einzelnen Programms können gleichzeitig auf vielen Knoten auf der ganzen Welt ausgeführt werden. Jeder Knoten wird direkt an einen herkömmlichen Router angeschlossen, sodass er Daten mit anderen Knoten über das vorhandene Netz austauschen kann. (Aus diesem Grund nennen Informatiker PlanetLab ein Overlay-Netzwerk.) Um all dies zu verwalten, führt jeder Knoten eine Software aus, die die Ressourcen der Maschine – wie Festplattenspeicher und Rechenleistung – auf die vielen Benutzer von PlanetLab aufteilt ( siehe Planetary Pie, unten ). Wenn das Internet ein globales, elektronisches Nervensystem ist, dann gibt PlanetLab ihm endlich den Verstand.

Die Auszahlung sollte riesig sein. Intelligentere Netzwerke werden eine neue Generation verteilter Softwareprogramme fördern, die Überlastungen vermeiden, kritische Daten verteilen und das Internet sicher halten, auch wenn sie die Computerkommunikation im Allgemeinen schneller und zuverlässiger machen. Durch den schnellstmöglichen Ausbau des Netzwerks, so Peterson, hoffen die PlanetLab-Forscher, das Gefühl der Risikobereitschaft und des Experimentierens wiederherzustellen, das die frühen Tage des Internets beherrschte. Aber Peterson gibt zu, dass der Fortschritt nicht einfach ist. Wie bekommt man einen innovativen Service auf tausend Maschinen und testet ihn?

Dabei hilft, dass das Netzwerk nicht mehr nur eine Forschungs-Sandbox ist, wie es das ursprüngliche Internet während seiner Entwicklung war; Stattdessen ist es ein Ort, um Dienste bereitzustellen, die jeder Programmierer verwenden und verbessern kann. Und einer der ursprünglichen Architekten des Internets sieht dies als eine ungeheuer aufregende Eigenschaft. Es ist 2003, 30 Jahre nach der Erfindung des Internets, sagt Vinton Cerf, der Anfang der 1970er Jahre als Forscher an der Stanford University die grundlegenden Kommunikationsprotokolle des Internets mitentwickelte und heute Senior Vice President für Architektur und Technologie am MCI ist. Wir haben Millionen von Menschen da draußen, die an experimenteller Entwicklung interessiert und in der Lage sind, daran teilzunehmen. Was bedeutet, dass es nicht lange dauern sollte, diesen Buick zu ersetzen.

Brille die dich farbenblind macht

Köderwürmer

Die Achillesferse des heutigen Internets ist, dass es ein System ist, das auf Vertrauen aufbaut. Auf das Netz ausgelegt ist die Annahme, dass Benutzer an den Endpunkten des Netzwerks einander kennen und vertrauen; schließlich war das frühe Internet vor allem ein Werkzeug für einige Hundert Regierungs- und Universitätsforscher. Es liefert Pakete, unabhängig davon, ob sie legitim sind oder das elektronische Äquivalent von Briefbomben sind. Jetzt, da das Internet im kulturellen Mainstream explodiert ist, ist diese Annahme eindeutig überholt: Das Ergebnis ist ein Strom von Würmern, Viren und unbeabsichtigten Fehlern, die zu wirtschaftlich verheerenden internetweiten Verlangsamungen und Störungen führen können.

Nehmen Sie den Internet-Wurm Code Red, der am 12. Juli 2001 auftauchte. Er verbreitete sich schnell auf 360.000 Computern auf der ganzen Welt und entführte sie, um die Website des Weißen Hauses mit bedeutungslosen Daten zu überfluten – ein sogenannter Denial-of-Service Angriff, der die legitime Kommunikation unterbindet. Laut Computer Economics, einer unabhängigen Forschungsorganisation in Carlsbad, Kalifornien, dauerte die Bereinigung der infizierten Computer Monate und kostete Unternehmen mehr als 2,6 Milliarden US-Dollar.

Dank eines PlanetLab-Projekts, Netbait, könnten solche Szenarien der Vergangenheit angehören. Computer, die mit Code Red und anderen Würmern und Viren infiziert sind, senden häufig Testpakete aus, wenn sie nach ungeschützteren Systemen suchen, die infiziert werden können. Dumme Router geben diese Pakete weiter, und niemand ist klüger, bis die echte Invasion eintrifft und lokale Systeme heruntergefahren werden. Aber theoretisch könnte das richtige Programm, das auf Smart Routern ausgeführt wird, die Sonden abfangen, registrieren, woher sie kommen, und Administratoren helfen, eine netzwerkweite Infektion zu verfolgen und möglicherweise zu verhindern. Genau dafür wurde Netbait entwickelt, das von Forschern bei Intel und der UC Berkeley entwickelt wurde.

In diesem Frühjahr zeigte das Programm, wie es eine sich ausbreitende Epidemie kartieren kann. Brent Chun, der Autor von Netbait, ist einer von mehreren leitenden Forschern, die PlanetLab von Intel zugewiesen wurde, die beim Start des Netzwerks halfen, indem sie die Hardware für die ersten 100 Knoten spendeten. Chun führte Netbait Anfang dieses Jahres mehrere Monate lang auf 90 Knoten aus. Mitte März wurde ein sechsfacher Anstieg der Code Red-Sonden festgestellt, von etwa 200 Sonden pro Tag auf mehr als 1.200 – eine Empfindlichkeit, die weit über der eines einzelnen Standard-Routers liegt. Die von Netbait gesammelten Daten zeigten, dass eine Variante von Code Red begonnen hatte, seinen älteren Cousin zu verdrängen.

Wie sich herausstellte, bestand kaum Gefahr. Die Variante erwies sich als nicht bösartiger als ihre Vorgängerin, für die mittlerweile Heilmittel bekannt sind. Aber der größere Punkt war gemacht worden. Ohne eine globale Plattform wie PlanetLab als Aussichtspunkt wäre die Verbreitung einer neuen Code Red-Sorte möglicherweise erst viel später unentdeckt geblieben, als die Administratoren lokaler Systeme ihre Notizen verglichen. Bis dahin wäre jede erforderliche Reaktion viel kostspieliger gewesen.

Mit Netbait können wir Muster erkennen und die lokalen Systemadministratoren warnen, dass bestimmte Maschinen an ihrem Standort infiziert sind, sagt Peterson. Das ist etwas, worüber die Leute vorher nicht nachgedacht hatten. Durch das Ausgeben von Warnungen, sobald es Probe-Pakete erkennt, könnte Netbait sogar als Frühwarnsystem für das gesamte Internet fungieren.

Laut Chun könnte Netbait bis Jahresende Vollzeit auf PlanetLab laufen. Unter der Annahme, dass die Leute den Service für nützlich halten, wird er irgendwann auf das Radar der Leute in verschiedenen Unternehmen gelangen, sagt er. Es wäre dann einfach, sagt Chun, kommerziellen Internet-Service-Providern Netbait-Abonnements anzubieten oder die Software an Unternehmen mit ihrer eigenen weltweiten Computerinfrastruktur wie IBM, Intel oder Akamai zu lizenzieren.

Verkehrsmanager

So wie die Architekten des Internets nicht mit der Notwendigkeit gerechnet haben, sich gegen Heere von Hackern zu verteidigen, haben sie auch keine Blitzmassen vorhergesehen. Dies sind Scharen von Benutzern, die gleichzeitig eine Website besuchen und das Netzwerk, den Server der Site oder beides überlasten. (Die berühmteste Flash-Crowd bildete sich vielleicht 1999 während einer Victoria's-Secret-Dessous-Websendung, die während des Super Bowl beworben wurde. Innerhalb von Stunden stellten die Zuschauer 1,5 Millionen Anfragen an die Server des Unternehmens. Die meisten kamen nie durch.) Solche Ereignisse - oder ihre bösartigeren Cousins, Denial-of-Service-Angriffe, können Websites auslöschen, die nicht durch ein Netzwerk wie das von Akamai geschützt sind, das Kopien der Websites von Kunden auf seinen eigenen, weit verstreuten privaten Servern zwischenspeichert. Die Frage ist jedoch, wie viele Kopien erstellt werden sollen. Zu wenige, und die Überlastungen bleiben bestehen; zu viele, und die Server werden mit überschüssigen Kopien erstickt. Eine Lösung, die 1999 von den Forschern, die Akamai gründeten, veröffentlicht wurde, besteht darin, einfach eine feste Zahl festzulegen.

In nicht allzu ferner Zukunft werden PlanetLab-Knoten die Anzahl der zwischengespeicherten Kopien im laufenden Betrieb anpassen. So funktioniert das. Jeder Knoten widmet einen Teil seiner Prozessorzeit und seines Speichers einem Programm, das von Vivek Pai, einem Kollegen von Peterson in der Informatikabteilung in Princeton, entwickelt wurde. Die Software überwacht Anfragen nach Seiten-Downloads und kopiert sie, wenn sie erkennt, dass eine Seite stark nachgefragt wird, auf die Festplatte des Knotens, die sich wie der Speicher in einem typischen Webserver verhält. Bei steigender Nachfrage speichert das Programm die Seite automatisch auf zusätzlichen Knoten, um die Last zu verteilen, und passt die Anzahl der Replikate ständig an die Popularität der Seite an. Pai sagt, dass Simulationen eines Denial-of-Service-Angriffs auf ein PlanetLab-ähnliches Netzwerk gezeigt haben, dass Knoten, die mit der Princeton-Software ausgestattet sind, doppelt so viele Seitenanfragen absorbieren, bevor sie scheitern, wie diejenigen, die die von den Akamai-Gründern veröffentlichten Algorithmen ausführen.

Dieses neue Tool, bekannt als CoDeeN, läuft bereits Vollzeit auf PlanetLab; Jeder kann es verwenden, indem er einfach die Einstellungen seines Webbrowsers ändert, um eine Verbindung zu einem nahegelegenen PlanetLab-Knoten herzustellen. Es ist in Arbeit, daher ist der Service noch nicht vollständig zuverlässig. Pai glaubt jedoch, dass die Software ein Netzwerk mit Tausenden von Knoten unterstützen kann und schließlich ein kostenloses öffentliches Akamai erstellt. Mit diesem Tool könnten Internetbenutzer schneller und zuverlässiger auf jede beliebige Website zugreifen.

Aber das Verbannen von Flash-Massen allein wird die Verlangsamung des Internets nicht lösen. Andere PlanetLab-Software versucht, ein subtileres Problem anzugehen: das Fehlen einer anständigen Autobahnkarte des Netzwerks. Im Laufe der Jahre hat sich das Internet zu einem undurchsichtigen Gewirr von Routern und Backbone-Verbindungen entwickelt, die Tausenden konkurrierender Internetdienstanbieter gehören, die meisten davon Privatunternehmen. Pakete gehen rein, sie kommen heraus, und es gibt sehr wenig Transparenz oder Kontrolle darüber, was in der Mitte passiert, sagt Thomas Anderson, Informatiker an der University of Washington in Seattle.

Eine Lösung ist die als Scriptroute bekannte Software. Es wurde von Anderson und seinen Kollegen an der University of Washington entwickelt und ist ein verteiltes Programm, das intelligente Knoten verwendet, um Sonden zu starten, die sich durch bestimmte Regionen des Internets ausbreiten und Daten über ihre Reisen zurücksenden. Die Daten können zu einer Karte der aktiven Verbindungen innerhalb und zwischen den Netzen von Internetdienstanbietern kombiniert werden – zusammen mit Messungen der Zeit, die Pakete benötigen, um jede Verbindung zu durchlaufen. Es ist wie eine Luftaufnahme eines städtischen Autobahnsystems. Anderson sagt, dass Betreiber von Internetdienstanbietern wie AOL und Earthlink sowie Universitäten die Karten von Scriptroute verwenden könnten, um Netzwerkprobleme in ein bis drei Jahren schnell zu diagnostizieren und zu beheben.

Gezeitenwechsel

Daten intakt zu halten kann genauso knifflig sein wie die Übertragung: Fragen Sie jeden, der einen persönlichen digitalen Assistenten im Zug zurückgelassen hat oder einen Festplattencrash erlitten hat. Was benötigt wird, sagt der Berkeley-Informatiker John Kubiatowicz, ist eine Möglichkeit, Daten so zu verteilen, dass wir sie nicht physisch transportieren müssen, sondern immer verfügbar, unverwundbar gegen Verlust oder Zerstörung und für Unbefugte unzugänglich sind.

Das ist die große Vision von OceanStore, einem verteilten Speichersystem, das auch auf PlanetLab getestet wird. OceanStore verschlüsselt Dateien – ob Memos oder andere Dokumente, Finanzunterlagen oder digitale Fotos, Musik oder Videoclips – und zerlegt sie dann in überlappende Fragmente. Das System bewegt die Fragmente kontinuierlich und repliziert sie auf Knoten rund um den Planeten. Die Originaldatei kann nur aus einer Teilmenge der Fragmente wiederhergestellt werden, sodass sie praktisch unzerstörbar ist, selbst wenn mehrere lokale Knoten ausfallen. PlanetLab-Knoten verfügen derzeit über genügend Speicher, um es einigen Hundert Personen zu ermöglichen, ihre Aufzeichnungen im OceanStore zu speichern, sagt Kubiatowicz. Schließlich wären Millionen von Knoten erforderlich, um die Daten aller zu speichern. Kubiatowiczs Ziel ist es, eine Software zu entwickeln, die 100 Billionen Dateien oder 10.000 Dateien für jeden von 10 Milliarden Menschen verwalten kann.

Um den Überblick über verteilte Daten zu behalten, weist OceanStore den Fragmenten jeder einzelnen Datei einen eigenen ID-Code zu – eine sehr lange Zahl, die als Globally Unique Identifier bezeichnet wird. Wenn der Besitzer einer Datei die Datei abrufen möchte, weist ihr Computer einen Knoten, auf dem OceanStore ausgeführt wird, an, nach den nächsten Kopien von Fragmenten mit der richtigen ID zu suchen und sie wieder zusammenzusetzen.

Privatsphäre und Sicherheit sind eingebaut. Ein Besitzer, der eine Datei abrufen möchte, muss zunächst einen Schlüssel vorlegen, der mit heute üblichen Verschlüsselungsverfahren generiert und in einem passwortgeschützten Bereich seines PCs gespeichert wurde. Dieser Schlüssel enthält so viele Ziffern, dass es für andere im Wesentlichen unmöglich ist, ihn zu erraten und sich unbefugten Zugriff zu verschaffen. Der Schlüssel bietet Zugriff auf OceanStore-Verzeichnisse, die für Menschen lesbare Namen (wie internet.draft) Fragment-ID-Codes zuordnen. Die ID-Codes werden dann verwendet, um OceanStore nach den nächsten Kopien der benötigten Fragmente zu durchsuchen, die wieder zusammengesetzt und entschlüsselt werden. Und es gibt noch eine weitere Schutzebene: Die ID-Codes werden selbst aus den Inhalten der Daten beim Speichern der Inhalte mit einer sicheren kryptografischen Funktion generiert. Wie Verschlüsselungsschlüssel sind die Codes so lang (160 binäre Ziffern), dass selbst die fortschrittlichsten Supercomputer von heute sie nicht erraten oder fälschen können. Wenn die von OceanStore abgerufenen Daten also eine unveränderte ID aufweisen, kann der Eigentümer sicher sein, dass die Daten selbst nicht geändert oder beschädigt wurden.

Kubiatowicz möchte, dass OceanStore zu einem Dienstprogramm wird, das dem DSL- oder Kabel-Internetdienst ähnelt, wobei die Verbraucher eine monatliche Zugangsgebühr zahlen. Angenommen, Sie sind gerade von einer Reise zurückgekommen und haben eine Digitalkamera voller Bilder, schlägt er vor. Eine Möglichkeit besteht darin, diese Bilder auf Ihrem Heimcomputer zu speichern oder auf CDs zu schreiben. Eine andere Möglichkeit besteht darin, diese Bilder in OceanStore zu speichern. Sie kopieren sie einfach auf eine Partition Ihrer Festplatte und die Daten werden weltweit effizient repliziert. Diese Option könnte innerhalb von drei bis fünf Jahren verfügbar sein, prognostiziert er, aber in der Zwischenzeit müssen zwei Dinge passieren. Zunächst muss sein Team stabilere Versionen des OceanStore-Codes erstellen. Zweitens muss jemand genügend Knoten bereitstellen, um das System auf einen sinnvollen Maßstab zu vergrößern. Dass es sich bei jemandem wahrscheinlich um ein privates Unternehmen handelt, das in das Geschäft mit verteilten Speichern einsteigen möchte, prognostiziert Peterson. Ich könnte mir vorstellen, dass OceanStore das nächste Hotmail-ähnliche Startup als ersten Kunden anzieht, sagt er.

Abgesehen von der Bereitstellung von verteiltem, sicherem Speicher könnte OceanStore schließlich jeden Computer zu Ihrem persönlichen machen. Auf der nächsten Entwicklungsstufe könnte es Ihre gesamte Computerumgebung – Ihren PC-Desktop sowie alle von Ihnen ausgeführten Anwendungen und alle geöffneten Dokumente – im gesamten Netzwerk speichern und bei Bedarf wiederherstellen, selbst wenn Sie aufgetaucht sind an einem Internet-Terminal um die halbe Welt. Diese Funktion wäre nützlich für Geschäftsleute auf der Straße, für einen Arzt, der plötzlich eine Karte überprüfen muss, oder für einen Auftragnehmer, der von zu Hause aus einen Entwurf optimieren möchte. Mehrere Unternehmen arbeiten daran, diese Vision zu verwirklichen. Intel nennt es Internet Suspend/Resume, und Sun-Forscher testen verschiedene Ansätze zur Desktop-Mobilität. Aber PlanetLab könnte die Infrastruktur bereitstellen, die eine solche Technologie ermöglicht, indem es eine Möglichkeit bietet, die großen Datenmengen – möglicherweise mehrere zehn Gigabyte – zu verwalten, auf die PC-Benutzer regelmäßig angewiesen sind.

regeneron fetale Stammzellen

Wäscheliste

Solche Ideen mögen radikal erscheinen. Andererseits, vor gerade einmal einem Jahrzehnt, tat es auch der E-Commerce. Die Frage ist nun, aus welcher großen Idee Google oder Amazon.com des neuen, smarteren Internets wird. Per Charter kann PlanetLab nicht für gewinnbringende Unternehmen verwendet werden, aber Unternehmen können bald von der von ihm bereitgestellten Plattform profitieren. Wir möchten, dass es ein Ort ist, an dem Sie Dienste langfristig am Laufen halten – was uns dem Punkt viel näher bringt, an dem ein kommerzieller Nutzer es möglicherweise übernehmen oder gewinnbringend replizieren möchte, sagt Peterson. Das könnte passieren, wenn die jetzt laufenden Experimente zusammen mit den Methoden, die entwickelt werden, um den reibungslosen Betrieb des Netzes zu gewährleisten, ein zuverlässiges Modell für zukünftige intelligente Netze liefern. Wir wissen nicht, woher die nächste große Idee kommt, sagt Peterson. Unser Ziel ist es nur, das Spielfeld bereitzustellen.

Die frühen Industriesponsoren von PlanetLab, wie Intel und Hewlett-Packard, könnten zu den ersten gehören, die einspringen. HP Labs in Palo Alto, Kalifornien, zum Beispiel, installierten im Juni 30 PlanetLab-Knoten und planen, das Netzwerk zu nutzen, um Technologien auf der Straße zu testen das könnten bald Produkte werden. Ein Beispiel: eine von der Forscherin Susie Wee entwickelte Software, die ein CoDeeN-ähnliches Verteilungsnetzwerk nutzt, um hochauflösendes Streaming-Video an mobile Geräte zu liefern. Das Ziel besteht darin, keine Bandbreite zu verschwenden, und die Software von Wee würde genau dies tun, indem sie beispielsweise das Video eines Baseballspiels der Major League an einen einzigen lokalen Knoten streamt und die Daten dann in separate Streams aufteilt, die für die Bildschirmauflösungen der verschiedenen Zuschauer optimiert sind. Geräte - ob Desktop-PCs, drahtlose Laptops, PDAs oder Mobiltelefone. HP oder seine Lizenznehmer könnten einen solchen Service innerhalb von zwei Jahren auf den Markt bringen, sagt Wee. Projekte wie dieses, sagt Rick McGeer, der wissenschaftliche Verbindungsmann von HP Labs zu einer Reihe von Universitäten, bedeutet, dass PlanetLab nicht nur eine großartige experimentelle Testumgebung ist, sondern ein Ort, an dem Sie den nachweislichen Wert von Dienstleistungen sehen können, die Sie nicht erhalten im heutigen Internet.

Die Neuerfindungen des Internets

PlanetLab zielt darauf ab, das heutige dumme, einfache Internet-Kommunikationssystem in ein intelligenteres und viel flexibleres Netzwerk zu verwandeln, das Würmer abwehren, riesige Datenmengen mit perfekter Sicherheit speichern und Inhalte sofort bereitstellen kann. So fügt es sich in eine lange Tradition akademischer und staatlicher Forschungsprojekte ein, die grundlegende Netzwerk-, Übertragungs- und verteilte Computertechnologien entwickelt haben.

1969 ARPANET
Der erste große Versuch, Computer für die Kommunikation zu verwenden, und das Testgelände für die Standards, die das Internet definieren werden. Gebaut von Universitäten und Technologieunternehmen mit Mitteln der Advanced Research Projects Agency (jetzt DARPA) des US-Verteidigungsministeriums.
1973-1983 Das Internet
Ein Netzwerk kleinerer Netzwerke, in dem Computer Datenpakete austauschen, die gemäß dem Transport Control Protocol bzw. dem Internet Protocol (TCP/IP) formatiert und adressiert sind, die 1973 konzipiert wurden und im Januar 1983 offiziell die Protokolle des ARPANET ersetzten.
1992 MBone
Der Multicast-Backbone: ein System, das es vielen Personen ermöglicht, dieselben Echtzeitinformationen, wie beispielsweise Videoübertragungen, über das Internet anzuzeigen. Erstellt von Mitgliedern der Internet Engineering Task Force im Jahr 1992, um die Einschränkungen von Standard-Internetprotokollen zu überwinden, die ein bestimmtes Datenpaket nur an ein Ziel weiterleiten können.
neunzehnhundertsechsundneunzig Internet2
Ein Konsortium von mehr als 200 Universitäten, das Abilene geschaffen hat, ein Netzwerk aus Hochleistungsroutern und Glasfaserverbindungen. Abilene ist in der Lage, einen kompletten DVD-Film in etwa 36 Sekunden zu übertragen, bis zu 3.500 Mal schneller als eine typische DSL- oder Kabelverbindung zu Hause.

Das Gitter
Eine Sammlung öffentlicher und privater Organisationen und Projekte, die Software verwenden, die am US-Energieministerium und der University of Southern California entwickelt wurde, um verstreute Supercomputer, wissenschaftliche Instrumente und Datenspeichereinrichtungen zu einem Raster zu verbinden, das schwierige Rechenprobleme wie Screening meistern kann für neue Wirkstoffmoleküle.
2000 Teilnehmer
Das Active Network Backbone: ein Netzwerk, das gebaut wurde, um die Effizienz aktiver Netzwerke zu testen, in dem dem Netzwerk fast alle Intelligenzen entzogen sind – sogar die grundlegende Message-Passing-Software, die im heutigen Internet läuft – und Datenpakete die gesamte Software und Anweisungen enthalten benötigt, um sich an ihr Ziel zu bringen. Gefördert von DARPA und erstellt von SRI International, einem privaten Forschungsinstitut in Menlo Park, CA, und der University of Southern California.
2002 PlanetLab
Ein Versuch von Wissenschaftlern und Netzwerkforschern in Unternehmen, das dumme Internet von heute durch ein viel intelligenteres Netzwerk zu erweitern und schließlich zu ersetzen, das sich selbst auf Würmer und Viren überwachen, Engpässe automatisch beseitigen und PC-Umgebungen auf jedes Terminal auf der Erde portieren kann.
verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen