Das Internet ist kaputt

In seinem Büro inmitten des aus glänzendem Edelstahl und orangefarbenen Ziegeln bestehenden Wirrwarrs des Stata Center des MIT druckt der Internet Elder Statesman und ehemalige Chefprotokollarchitekt David D. Clark einen alten PowerPoint-Talk aus. Es datiert vom Juli 1992 und umfasst technische Themen wie Domänennamen und Skalierbarkeit. Aber auf einer Folie weist Clark auf die dunkle Seite des Internets hin: seinen Mangel an eingebauter Sicherheit.

In anderen stellt er fest, dass die schlimmsten Katastrophen manchmal nicht durch plötzliche Ereignisse, sondern durch langsame, inkrementelle Prozesse verursacht werden – und dass Menschen gut darin sind, Probleme zu ignorieren. Die Dinge werden langsam schlimmer. Die Leute passen sich an, bemerkte Clark in seiner Präsentation. Das Problem besteht darin, entfernten Elefanten den richtigen Angstgrad zuzuordnen.

Heute glaubt Clark, dass die Elefanten über uns sind. Ja, das Internet hat Wunder gewirkt: Der E-Commerce floriert und E-Mail ist zu einem allgegenwärtigen Kommunikationsmittel geworden. Fast eine Milliarde Menschen nutzen mittlerweile das Internet, und kritische Branchen wie das Bankwesen verlassen sich zunehmend darauf.



Gleichzeitig haben die Unzulänglichkeiten des Internets zu einer sinkenden Sicherheit und einer geringeren Fähigkeit zur Anpassung an neue Technologien geführt. Wir sind an einem Wendepunkt, einem Revolutionspunkt, argumentiert Clark jetzt. Und er liefert eine auffallend pessimistische Einschätzung, wo das Internet ohne dramatische Eingriffe landen wird. Wir könnten gerade an dem Punkt sein, an dem der Nutzen des Internets ins Stocken geraten ist – und vielleicht nach unten geht.

Tatsächlich ähnelt das Internet für den durchschnittlichen Benutzer heutzutage allzu oft dem New Yorker Times Square in den 1980er Jahren. Es war aufregend und lebendig, aber Sie haben darauf geachtet, den Kopf gesenkt zu halten, damit Ihnen keine Drogen angeboten, ausgeraubt oder von Wahnsinnigen angeprangert werden. Der Times Square wurde aufgeräumt, aber das Internet wird immer schlechter, sowohl auf Benutzerebene als auch – nach Ansicht von Clark und anderen – tief in seiner Architektur.

Im Laufe der Jahre, als sich Internetanwendungen verbreiteten – drahtlose Geräte, Peer-to-Peer-Filesharing, Telefonie – entwickelten Unternehmen und Netzwerkingenieure ausgeklügelte und zweckmäßige Patches, Plugs und Workarounds. Das Ergebnis ist, dass die ursprünglich einfache Kommunikationstechnologie zu einer komplexen und verworrenen Angelegenheit geworden ist. Bei all den Wundern des Internets ist es auch schwierig zu handhaben und mit jedem Tag zerbrechlicher.

Aus diesem Grund argumentiert Clark, dass es an der Zeit ist, die grundlegende Architektur des Internets zu überdenken, möglicherweise mit einem frischen Design neu zu beginnen – und ebenso wichtig mit einer plausiblen Strategie zum Nachweis der Realisierbarkeit des Designs, damit es eine Chance auf Umsetzung hat. Es ist nicht so, dass es auf Protokoll- oder Netzwerkebene eine Killertechnologie gibt, die wir irgendwie nicht integriert haben, sagt Clark. Wir müssen alle Technologien, die wir bereits kennen, zusammenführen und zusammenfügen, damit wir ein anderes Gesamtsystem erhalten. Hier geht es nicht darum, eine technologische Innovation zu entwickeln, die die Welt verändert, sondern um Architektur – die Teile auf andere Weise zusammenzufügen, um hochrangige Ziele zu erreichen.

Laserpointer grünes Licht

Ein solcher Ansatz gewinnt jetzt an Fahrt, angetrieben von der National Science Foundation. NSF-Manager arbeiten daran, einen Fünf- bis Sieben-Jahres-Plan zu erstellen, der schätzungsweise 200 bis 300 Millionen US-Dollar an Forschungsgeldern kosten wird, um saubere Architekturen zu entwickeln, die Sicherheit bieten, neue Technologien aufnehmen und einfacher zu verwalten sind.

Sie hoffen auch, eine Infrastruktur zu entwickeln, mit der sich beweisen lässt, dass das neue System wirklich besser ist als das bisherige. Wenn uns das gelingt, was wir zu tun versuchen, ist dies größer als alles, was wir als Forschungsgemeinschaft bisher in der Informatik getan haben, sagt Guru Parulkar, ein an den Bemühungen beteiligter NSF-Programmmanager. In Bezug auf seine Mission und Vision ist es eine sehr große Sache. Aber jetzt stehen wir erst am Anfang. Es hat das Potenzial, das Spiel zu verändern. Es könnte auf die nächste Stufe gehoben werden, um zu erkennen, was das Internet sein könnte, das aufgrund der Herausforderungen und Probleme nicht möglich war.

Firewall-Nation
Wenn AOL seine Software aktualisiert, trägt die neue Version eine Nummer: 7.0, 8.0, 9.0. Die neueste Version heißt AOL 9.0 Security Edition. Heutzutage geht es bei der Verbesserung der Nutzbarkeit des Internets weniger darum, die neueste coole Anwendung bereitzustellen; es geht ums überleben.

Im August veröffentlichte IBM eine Studie, aus der hervorgeht, dass virenverseuchte E-Mails und kriminelle Sicherheitsangriffe im ersten Halbjahr 2005 um 50 Prozent gestiegen sind, wobei Regierungen und die Finanzdienstleistungs-, Fertigungs- und Gesundheitsbranche im Fadenkreuz standen. Im Juli berichteten das Pew Internet und das American Life Project, dass 43 Prozent der US-Internetnutzer – 59 Millionen Erwachsene – angaben, Spyware oder Adware auf ihren Computern zu haben, allein aufgrund des Besuchs von Websites. (In vielen Fällen lernten sie dies aus der plötzlichen Zunahme von Fehlermeldungen oder Einfrieren.) Ganze 91 Prozent hatten ein gewisses Abwehrverhalten angenommen – beispielsweise bestimmte Arten von Websites vermeiden oder keine Software herunterladen. Gehen Sie in eine Bar in der Nachbarschaft, und die Leute reden über Firewalls. Das sei vor drei Jahren einfach nicht der Fall gewesen, sagt Susannah Fox, stellvertretende Direktorin des Pew-Projekts.

Dann gibt es Spam. Ein führendes Online-Sicherheitsunternehmen, Symantec, sagt, dass zwischen dem 1. Juli und dem 31. Dezember 2004 der Spam-Anstieg bei Unternehmen, die von Symantec überwacht wurden, um 77 Prozent gestiegen ist. Die reinen Zahlen sind erschütternd: Die wöchentliche Spam-Gesamtzahl stieg im Durchschnitt von 800 Millionen auf mehr als 1,2 Milliarden Nachrichten, und 60 Prozent aller E-Mails waren laut Symantec Spam.

Aber vielleicht am bedrohlichsten sind Botnets – Ansammlungen von Computern, die von Hackern entführt werden, um Fernsteuerungsaufgaben wie das Versenden von Spam oder das Angreifen von Websites auszuführen. Diese Art der Entführung im Großhandel – die durch die breite Einführung von ständig verfügbaren Breitbandverbindungen noch stärker wird – hat harte Kriminalität hervorgebracht: digitale Erpressung. Hacker drohen mit zerstörerischen Angriffen gegen Unternehmen, die ihren finanziellen Ansprüchen nicht gerecht werden. Laut einer Studie eines Forschers der Carnegie Mellon University waren 17 von 100 befragten Unternehmen mit solchen Angriffen bedroht.

Einfach ausgedrückt hat das Internet keine inhärente Sicherheitsarchitektur – nichts, was Viren, Spam oder ähnliches aufhält. Schutzmaßnahmen wie Firewalls und Antispam-Software sind Add-ons, Sicherheitspatches in einem digitalen Wettrüsten.

Der Informationstechnologie-Beratungsausschuss des Präsidenten, eine Gruppe mit einem Who-is-Who von Infotech-CEOs und akademischen Forschern, sagt, die Situation sei schlecht und werde immer schlimmer. Heutzutage nimmt die Bedrohung eindeutig zu, schrieb der Rat in einem Anfang 2005 veröffentlichten Bericht. Die meisten Indikatoren und Studien zu Häufigkeit, Auswirkungen, Umfang und Kosten von Cyber-Sicherheitsvorfällen – sowohl bei Organisationen als auch bei Einzelpersonen – weisen auf ein kontinuierlich steigendes Niveau hin und verschiedene Angriffsarten.

Und wir haben noch nicht einmal einen wirklichen Akt des Cyberterrors gesehen, den digitalen Pearl Harbor, der 2000 vom ehemaligen Weißen Haus-Terroristen-Zaren Richard Clarke denkwürdig vorhergesagt wurde (siehe A Tangle of Wires ). Betrachten Sie das Stromnetz des Landes: Es ist auf eine kontinuierliche netzwerkbasierte Kommunikation zwischen Kraftwerken und Netzmanagern angewiesen, um ein Gleichgewicht zwischen Produktion und Nachfrage aufrechtzuerhalten. Ein gut platzierter Angriff könnte einen kostspieligen Stromausfall auslösen, der einen Teil des Landes lahmlegen würde.

Das Fazit des Beiratsberichts könnte nicht krasser ausfallen: Die IT-Infrastruktur ist hochgradig anfällig für vorsätzliche Angriffe mit potenziell katastrophalen Auswirkungen.

Das System funktioniere so gut, wie es nur dank der Geduld der Virenautoren selbst funktioniert, sagt Jonathan Zittrain, Mitbegründer des Berkman Center for Internet and Society an der Harvard Law School und Inhaber des Lehrstuhls für Internet Governance and Regulation an der University of Oxford . Mit ein oder zwei zusätzlichen Codezeilen könnten die Viren die Festplatten ihrer Hosts bereinigen oder leise falsche Daten in Tabellenkalkulationen oder Dokumente unterstellen. Nehmen Sie einen der Top-Ten-Viren und fügen Sie ihnen ein bisschen Gift hinzu, und der Großteil der Welt wacht an einem Dienstagmorgen auf und kann nicht im Internet surfen – oder findet dort, wenn möglich, viel weniger.

Patchwork-Problem
Die ursprünglichen Protokolle des Internets, die in den späten 1960er Jahren geschmiedet wurden, wurden entwickelt, um eines sehr gut zu machen: die Kommunikation zwischen einigen Hundert akademischen und staatlichen Benutzern zu erleichtern. Die Protokolle unterteilen digitale Daten effizient in einfache Einheiten, die als Pakete bezeichnet werden, und senden die Pakete über eine Reihe von Netzwerkroutern an ihre Ziele. Sowohl die Router als auch die PCs, auch Knoten genannt, haben eindeutige digitale Adressen, die als Internet Protocol oder IP-Adressen bekannt sind. Das ist es im Grunde. Das System ging davon aus, dass allen Benutzern im Netzwerk vertraut werden kann und dass die über das Internet verbundenen Computer meist feste Objekte sind.

Dem Design des Internets war es gleichgültig, ob sich die Informationspakete zu einem bösartigen Virus oder einem Liebesbrief summierten; es hatte keine Vorkehrungen, um viel zu tun, außer die Daten an ihren Bestimmungsort zu bringen. Es nahm auch keine Knoten auf, die sich bewegten – wie beispielsweise PDAs, die sich an einem der unzähligen Standorte mit dem Internet verbinden konnten. Im Laufe der Jahre ist eine Reihe von Patches entstanden: Firewalls, Antivirensoftware, Spamfilter und dergleichen. Ein Patch weist jedem mobilen Knoten jedes Mal eine neue IP-Adresse zu, wenn er sich an einen neuen Punkt im Netzwerk bewegt.

[ Klicken Sie hier, um grafische Darstellungen der vier Ziele von David D. Clark für eine neue Internetarchitektur anzuzeigen.]

Offensichtlich halten Sicherheitspatches nicht mit. Das liegt zum Teil daran, dass verschiedene Leute unterschiedliche Patches verwenden und nicht jeder sie religiös aktualisiert; einige Leute haben keine installiert. Und der gängigste Mobility-Patch – die IP-Adressen, die sich ständig ändern, wenn Sie sich bewegen – hat Nachteile. Wenn Ihr mobiler Computer jedes Mal, wenn er sich mit dem Internet verbindet, eine neue Identität erhält, erkennen die Websites, mit denen Sie regelmäßig zu tun haben, nicht, dass Sie es sind. Dies bedeutet zum Beispiel, dass die Webseite Ihrer bevorzugten Fluggesellschaft möglicherweise kein Reservierungsformular mit Ihrem Namen und Ihrer bereits ausgefüllten Vielfliegernummer ausgibt. Die ständig wechselnde Adresse bedeutet auch, dass Sie mit Serviceunterbrechungen rechnen müssen, wenn Sie das Internet nutzen, um beispielsweise eine Streaming-Radiosendung auf Ihrem PDA zu hören. Es bedeutet auch, dass jemand, der mit einem mobilen Gerät online eine Straftat begeht, schwerer aufzuspüren ist.

Nach Ansicht vieler Experten auf diesem Gebiet gibt es noch grundlegendere Gründe, sich Sorgen zu machen. Patches schaffen ein immer komplizierteres System, das schwieriger zu verwalten, zu verstehen und zu verbessern wird. Wir sind seit 30 Jahren auf dem Weg, das Internet schrittweise zu verbessern und Probleme zu beheben, die wir sehen, sagt Larry Peterson, Informatiker an der Princeton University. Wir sehen Schwachstellen, wir versuchen, sie zu patchen. Dieser Ansatz hat sich seit 30 Jahren bewährt. Aber es gibt Grund zur Sorge. Wenn Sie ohne langfristigen Plan nur das nächste Problem beheben, das Sie sehen, erhalten Sie ein immer komplexeres und spröderes System. Es erschwert den Einsatz neuer Dienste. Dies erschwert die Verwaltung aufgrund der zusätzlichen Komplexität all dieser hinzugefügten Punktlösungen. Gleichzeitig besteht die Sorge, dass wir irgendwann in eine Sackgasse geraten. Es wird Probleme geben, die wir nicht ausreichend beheben können.

Der Patchwork-Ansatz zieht Beschwerden sogar vom Gründer eines Unternehmens nach sich, das im Wesentlichen ein ausgeklügelter und genialer Patch für einige der Mängel des Internets ist. Tom Leighton ist Mitbegründer und Chefwissenschaftler von Akamai, einem Unternehmen, das dafür sorgt, dass die Webseiten und Anwendungen seiner Kunden immer verfügbar sind, auch wenn sich viele Kunden anmelden oder ein wichtiges Glasfaserkabel durchtrennt wird. Akamai überwacht Netzwerkprobleme genau, speichert strategisch Kopien der Website eines Kunden auf Servern auf der ganzen Welt und greift bei Bedarf auf diese Server zu. Aber während sein Unternehmen sein Geld mit dem Patchen des Netzes verdient, sagt Leighton, dass das gesamte System grundlegende Änderungen in der Architektur erfordert. Wir sind gerade dabei, Löcher im Deich zu stopfen, sagt Leighton, ein MIT-Mathematiker, der auch Mitglied des Informationstechnologie-Beratungsausschusses des Präsidenten und Vorsitzender des Unterausschusses für Cybersicherheit ist. Es gibt immer mehr Löcher, und mehr Ressourcen werden die Löcher stopfen, und es werden weniger Ressourcen verwendet, um das Spiel grundlegend zu verändern, um das Internet zu verändern.

Wenn Leighton Ressourcen sagt, spricht er von Milliarden von Dollar. Nehmen wir zum Beispiel Microsoft. Seine Software vermittelt zwischen Internet und PC. Heutzutage wird von den 6 Milliarden US-Dollar, die Microsoft jährlich für Forschung und Entwicklung ausgibt, etwa ein Drittel oder 2 Milliarden US-Dollar direkt für Sicherheitsmaßnahmen ausgegeben. Die Entwicklung des Internets, die Entwicklung von Bedrohungen aus dem Internet, die versuchen könnten, in Systeme einzudringen – seien es Webserver, Webbrowser oder E-Mail-basierte Bedrohungen – hat die Gleichung wirklich verändert, sagt Steve Lipner, Microsofts Director of Security Strategy und Engineering-Strategie. Ich glaube, vor zehn Jahren haben die Leute hier in der Branche Software für neue Funktionen, neue Leistung, Benutzerfreundlichkeit, was auch immer, entwickelt. Heute schulen wir alle für Sicherheit. Dies konzentriert sich nicht nur darauf, Ressourcen aus anderer Forschung abzuschöpfen, sondern kann sogar Forschungen behindern, die finanziert werden. Einige Innovationen seien im Labor belassen worden, sagt Lipner, weil Microsoft nicht sicher sein könne, ob sie den Sicherheitsstandards entsprechen.

Natürlich würden einige argumentieren, dass Microsoft jetzt versucht, den jahrelangen Verkauf unsicherer Produkte wettzumachen. Aber das Microsoft-Beispiel weist an anderer Stelle Parallelen auf. Eric Brewer, Direktor des Forschungslabors von Intel in Berkeley, CA, stellt fest, dass Sicherheitsausgaben wie eine Steuer sind und die Nation Milliarden und Abermilliarden von Dollar kosten. Diese Steuer zeigt sich als erhöhte Produktpreise, als Ausgaben der Unternehmen für Sicherheitsdienste und Schadensbehebung, als Anteil der Prozessorgeschwindigkeit und des Speichers, der für die Ausführung von Abwehrprogrammen verwendet wird, als die von Spam verbrauchte Netzwerkkapazität und als die Kosten für die durchschnittliche Person versuchen, dem Online-Minenfeld des Kaufs der neuesten Firewalls auszuweichen. Wir können die Dinge absolut in Ruhe lassen. Aber es hat diese kontinuierliche 30-Prozent-Steuer, und die Steuer könnte steigen, sagt Brewer. Die Strafe dafür, dass es nicht [repariert] wird, ist nicht sofort tödlich. Aber die Dinge werden langsam schlimmer und können so schlimm werden, dass die Leute das Internet nicht so oft nutzen, wie sie möchten.

Auch die bestehende Internet-Architektur steht neuen Technologien im Weg. Netzwerke aus intelligenten Sensoren, die gemeinsam Dinge wie Fabrikbedingungen, das Wetter oder Videobilder überwachen und interpretieren, könnten die Computerverarbeitung genauso verändern wie billige PCs vor 20 Jahren. Aber sie haben ganz andere Kommunikationsanforderungen. Zukünftige Netzwerke werden keine PCs sein, die an Mainframes andocken. Es geht darum, dass ein Auto das Auto daneben kontaktiert. All dies geschieht in einem eingebetteten Kontext. Alles läuft von Maschine zu Maschine und nicht von Mensch zu Mensch, sagt Dipankar Raychaudhuri, Direktor des Wireless Information Network Laboratory (Winlab) an der Rutgers University. Mit der heutigen Architektur würde die Verwirklichung einer solchen Vision immer mehr Patches erfordern.

Architekturübersicht
Wenn Clark über die Schaffung einer neuen Architektur spricht, sagt er, dass die Arbeit mit der Festlegung von Zielen beginnen muss. Geben Sie dem Medium zunächst eine grundlegende Sicherheitsarchitektur – die Möglichkeit, zu authentifizieren, mit wem Sie kommunizieren, und zu verhindern, dass Spam und Viren jemals Ihren PC erreichen. Bessere Sicherheit sei die wichtigste Motivation für diese Neugestaltung, sagt Clark. Zweitens: Machen Sie die neue Architektur praktikabel, indem Sie Protokolle entwickeln, die es Internetdienstanbietern ermöglichen, den Datenverkehr besser zu leiten und zusammenzuarbeiten, um fortschrittliche Dienste anzubieten, ohne ihr Geschäft zu beeinträchtigen. Drittens: Ermöglichen Sie zukünftigen Computergeräten jeder Größe, sich mit dem Internet zu verbinden – nicht nur PCs, sondern auch Sensoren und eingebettete Prozessoren. Viertens: Fügen Sie Technologie hinzu, die das Netzwerk einfacher zu verwalten und widerstandsfähiger macht. Ein neues Design sollte es beispielsweise allen Teilen des Netzwerks ermöglichen, aufkommende Probleme – seien es technische Pannen, Staus oder replizierende Würmer – zu erkennen und an die Netzwerkadministratoren zu melden.

Die gute Nachricht ist, dass einige dieser Ziele gar nicht so weit entfernt sind. Die NSF hat in den letzten Jahren mehr als 30 Millionen US-Dollar für die Unterstützung und Planung solcher Forschungen ausgegeben. Akademische und Unternehmensforschungslabore haben eine Reihe vielversprechender Technologien hervorgebracht: Möglichkeiten zur Authentifizierung, wer online ist; Möglichkeiten, Kriminelle zu identifizieren und gleichzeitig die Privatsphäre anderer zu schützen; Möglichkeiten zum Hinzufügen von drahtlosen Geräten und Sensoren. Obwohl niemand sagt, dass eine einzelne dieser Technologien in eine neue Architektur integriert wird, bieten sie einen Ausgangspunkt, um zu verstehen, wie ein neues Internet tatsächlich aussehen könnte und wie es sich vom alten unterscheiden würde.

Einige vielversprechende Technologien, die in diese neue Architektur integriert werden könnten, stammen von PlanetLab, das Peterson von Princeton in den letzten Jahren gefördert hat (siehe The Internet Reborn, Oktober 2003). In diesem immer noch wachsenden Projekt haben Forscher auf der ganzen Welt Software entwickelt, die auf die dummen Internet-Router von heute aufgepfropft werden kann. Ein Beispiel ist Software, die den Internetverkehr nach Würmern durchschnüffelt. Die Software sucht nach verräterischen Paketen, die von wurminfizierten Maschinen auf der Suche nach neuen Hosts gesendet werden, und kann Systemadministratoren vor Infektionen warnen. Andere Software-Prototypen erkennen das Entstehen von Datenstaus und entwickeln effizientere Wege, den Verkehr um diese herum umzuleiten. Solche Algorithmen könnten Teil einer grundlegend neuen Infrastruktur werden, sagt Peterson.

Ein zweiter Satz von Technologien könnte dabei helfen, die Internetkommunikation zu authentifizieren. Es wäre ein großer Segen für die Internetsicherheit, wenn Sie sicher sein könnten, dass eine E-Mail von Ihrer Bank wirklich von Ihrer Bank stammt und nicht von einem Betrüger, und wenn die Bank sicher sein könnte, dass diese Person, wenn sich jemand in Ihr Konto einloggt, bist wirklich du und nicht jemand, der deine Kontonummer gestohlen hat.

Die Authentifizierungspflicht liegt heute beim Internetnutzer, der ständig aufgefordert wird, Informationen unterschiedlicher Art anzugeben: Passwörter, Sozialversicherungsnummern, Personalausweisnummern, Kreditkartennummern, Vielfliegernummern, PIN-Nummern usw. Aber wenn Millionen von Benutzern ständig diese Toröffnungszahlen eingeben, macht es Spyware oder einem Dieb, der den drahtlosen Internetverkehr schnüffelt, viel einfacher, zu stehlen, Betrug zu begehen und Schaden anzurichten.

Liebe Sprache Bedeutung urbanes Wörterbuch

Eine sich weiterentwickelnde Lösung, entwickelt von Internet2 – einem Forschungskonsortium mit Sitz in Ann Arbor, MI, das fortschrittliche Internet-Technologien für den Einsatz durch Forschungslabors und Universitäten entwickelt – schafft effektiv einen Mittelsmann, der die Arbeit erledigt. Shibboleth genannt, vermittelt die Software zwischen einem Sender und einem Empfänger; Es überträgt die entsprechenden ID-Nummern, Passwörter und andere identifizierende Informationen sicher durch den zentralen Austausch digitaler Zertifikate und andere Mittel an die richtigen Empfänger für Sie. Es macht nicht nur die Verbreitung von Informationen sicherer, sondern trägt auch zum Schutz der Privatsphäre bei. Dies liegt daran, dass nur die Attribute einer Person offengelegt werden, die für eine bestimmte Transaktion relevant sind, und nicht die vollständige Identität der Person.

Derzeit wird Shibboleth von Universitäten verwendet, um den Zugang zu Online-Bibliotheken und anderen Ressourcen zu vermitteln; Wenn Sie sich einloggen, kennt die Hochschule Ihr Attribut – Sie sind eingeschriebener Student – ​​und nicht Ihren Namen oder andere persönliche Daten. Dieses Grundkonzept lässt sich erweitern: Ihr Beschäftigungsstatus könnte Ihnen die Tore zu den Servern Ihres Unternehmens öffnen; Ihr Geburtsdatum könnte es Ihnen ermöglichen, Wein online zu kaufen. Ein ähnliches Schema könnte einer Bank das Vertrauen geben, dass der Online-Kontozugriff legitim ist, und umgekehrt einem Bankkunden das Vertrauen geben, dass die Bankkommunikation wirklich von der Bank stammt.

Shibboleth und ähnliche Technologien in der Entwicklung können und werden als Patches verwendet. Einige ihrer Grundelemente könnten aber auch in eine Internet-Ersatzarchitektur eingebaut werden. Die meisten Leute betrachten das Internet als eine so dominierende Kraft, sie denken nur, wie sie es ein wenig besser machen können, sagt Clark. Ich sage: ‚Hey, denk anders über die Zukunft nach. Wie soll unsere Kommunikationsumgebung in 10 bis 15 Jahren aussehen? Was ist dein Ziel?'

Der Teufel, den wir kennen
Es sei daran erinnert, dass das Internet trotz all seiner Fehler, all seiner architektonischen Klugheit und Unsicherheit und der Kosten, die mit dem Patchen verbunden sind, immer noch seine Arbeit erledigt. Jeder Versuch, eine bessere Version zu implementieren, steht vor enormen praktischen Problemen: Alle Internet Service Provider müssten zustimmen, alle ihre Router und Software zu ändern, und jemand müsste die Rechnung bezahlen, die wahrscheinlich viele Milliarden Dollar betragen wird. Aber NSF schlägt nicht vor, das alte Netzwerk aufzugeben oder der Welt gewaltsam etwas Neues aufzuzwingen. Vielmehr geht es im Wesentlichen darum, eine bessere Mausefalle zu bauen, zu zeigen, dass sie besser ist, und eine Umstellung auf die Nachfrage der Benutzer zu ermöglichen.

Zu diesem Zweck sieht die NSF den Bau einer weitläufigen Infrastruktur vor, die etwa 300 Millionen US-Dollar kosten könnte. Es würde Forschungslabore in den Vereinigten Staaten umfassen und möglicherweise mit Forschungsbemühungen im Ausland verknüpft werden, wo neue Architekturen umfassend trainiert werden können. Mit einem optischen Hochgeschwindigkeits-Backbone und intelligenten Routern wäre dieser Prüfstand weitaus aufwendiger und repräsentativer als die kleineren, eingeschränkteren Prüfstände, die heute im Einsatz sind. Die Idee ist, dass neue Architekturen mit realem Internetverkehr kampferprobt werden. Sie hoffen, dass dies genug Mehrwert bietet, dass die Leute langsam und selektiv bereit sind, zu wechseln, und vielleicht genug Zugkraft bekommen, dass die Leute umsteigen, sagt Parulkar. Aber er räumt ein, dass in zehn Jahren, wie sich die Dinge entwickeln, jedermanns Vermutung ist. Es könnte sich um eine parallele Infrastruktur handeln, die Menschen für selektive Anwendungen nutzen könnten.

[ Klicken Sie hier, um grafische Darstellungen der vier Ziele von David D. Clark für eine neue Internetarchitektur anzuzeigen.]

Skeptiker behaupten jedoch, dass ein intelligenteres Netzwerk noch komplizierter und damit fehleranfälliger sein könnte als das ursprüngliche Barebone-Internet. Konventionelle Weisheit besagt, dass das Netzwerk dumm bleiben sollte, aber dass die intelligenten Geräte an seinen Enden intelligenter werden sollten. Ich bin mit dem aktuellen Stand der Dinge nicht zufrieden. Ich bin mit Spam nicht zufrieden; Ich bin mit der Anfälligkeit für verschiedene Angriffsformen nicht zufrieden, sagt Vinton Cerf, einer der Erfinder der grundlegenden Protokolle des Internets, der kürzlich mit einer eigens für ihn geschaffenen Berufsbezeichnung zu Google kam: Chief Internet Evangelist. Ich möchte jedoch unterscheiden, dass die primären Vektoren, die viele Probleme verursachen, Löcher in Betriebssystemen sind. Es ist eher so, als würden sich die Betriebssysteme nicht sehr gut schützen. Man könnte argumentieren: „Warum muss das Netzwerk das tun?“

Laut Cerf werden die Daten umso weniger effizient übertragen, je mehr Sie das Netzwerk bitten, Daten zu untersuchen – beispielsweise um die Identität einer Person zu authentifizieren oder nach Viren zu suchen. Es ist wirklich schwer, ein Ding auf Netzwerkebene zu haben, das dieses Zeug macht, was bedeutet, dass Sie die Pakete zu etwas Größerem zusammenstellen müssen und somit alle Protokolle verletzen, sagt Cerf. Das kostet unglaublich viele Ressourcen. Dennoch sieht Cerf Wert in der neuen NSF-Initiative. Wenn Dave Clark … einige Vorstellungen und Ideen sieht, die dramatisch besser wären als das, was wir haben, halte ich das für wichtig und gesund, sagt Cerf. Ich wundere mich jedoch über etwas. Der Zusammenbruch des Netzes oder eine große Sicherheitskatastrophe wird seit einem Jahrzehnt vorhergesagt. Und natürlich hat sich eine solche Katastrophe noch nicht ereignet – zumindest nicht bis zum Zeitpunkt dieser Ausgabe von Technologieüberprüfung ging in Druck.

Die Bemühungen der NSF, das Medium intelligenter zu machen, stoßen auch gegen die libertäre Kultur des Internets, sagt Zittrain von Harvard. Das NSF-Programm ist in erster Linie ein würdiges, weil es mit der Prämisse beginnt, dass das gegenwärtige Netz einigen seiner ursprünglichen Grundlagen und damit verbundenen Grundsätze entwachsen ist, sagt Zittrain. Aber es besteht auch die Gefahr, dass jeder Versuch, die technische Verfassung des Netzes neu zu schreiben, so viel schwieriger und selbstbewusster gegenüber den nichttechnischen Angelegenheiten wird, die auf dem Spiel stehen, dass die Heilung schlimmer sein könnte als das Problem.

Dennoch sieht Zittrain Gefahren voraus, wenn keine vernünftigen Maßnahmen ergriffen werden. Er postuliert, dass die Sicherheitsprobleme des Internets und der Diebstahl geistigen Eigentums eine Gegenreaktion hervorrufen könnten, die einem harten Durchgreifen des Mediums gleichkäme – von der Verschärfung der Kontrolle der Softwarehersteller über ihre Betriebssysteme bis hin zu Sicherheitssperren durch Unternehmen. Und wenn es doch zu einem digitalen Pearl Harbor kommt, reagiert die Bundesregierung natürlich reflexartig mit plumpen Reformen und Kontrollen. Wenn es zu solchen Verschärfungen kommt, werden wir, so Zittrain, ein Internet bekommen, das seiner Meinung nach sicherer – und weniger interessant ist.

Aber alle Seiten sind sich einig, dass sich die Dauerprobleme des Internets verschlimmern und gleichzeitig die Abhängigkeit der Gesellschaft davon wächst. Noch vor wenigen Jahren stieß die Arbeit von Forschern wie Peterson außerhalb der Netzwerk-Community auf kein großes Interesse. Aber in diesen Tagen geben Clark und Peterson den politischen Entscheidungsträgern in Washington Briefings. Es wird anerkannt, dass einige dieser Probleme möglicherweise sehr ernst sind. Man könnte argumentieren, dass sie schon immer da waren, sagt Peterson. Aber es gibt eine breitere Anerkennung auf höchster Ebene der Regierung, dass dies wahr ist. Wir kommen an den Punkt, an dem wir die Leute im Büro für Wissenschafts- und Technologiepolitik des Präsidenten informieren. Das habe ich ausdrücklich getan, und andere tun das auch. Soweit ich weiß, ist das ziemlich neu.

Vor der Tür von Clarks Büro am MIT verkündet ein Namensschild, das von einem Witzbold-Kollegen angebracht wurde, dass es sich um das Büro von Albus Dumbledore handelt – dem weisen Schulleiter der Hogwarts-Schule für Hexerei und Zauberei, einer zentralen Figur in den Harry-Potter-Büchern. Aber während Clark in früheren Jahren vielleicht Magie gewirkt hat und dabei geholfen hat, die ursprünglichen Internetprotokolle in eine robuste Kommunikationstechnologie zu verwandeln, die die Welt verändert hat, hat er nicht mehr viel Kontrolle darüber, was als nächstes passiert.

Aber weil wir keine Macht haben, besteht eine größere Chance, dass wir mit dem Versuch allein gelassen werden, sagt er. Und so gackert Clark wie Dumbledore über neue Generationen von technischen Zauberern. Mein Ziel mit der Forderung nach einem frischen Design ist es, unseren Geist von den aktuellen Zwängen zu befreien, damit wir uns eine andere Zukunft vorstellen können, sagt er. Der Grund, warum ich dies betone, ist, dass das Internet so groß und so erfolgreich ist, dass es wie eine Dummheit erscheint, jemanden loszuschicken, um ein anderes zu erfinden. Ob das Endergebnis eine ganz neue Architektur ist – oder nur eine Reihe effektiver Änderungen an der bestehenden – spielt am Ende möglicherweise keine Rolle. Angesichts der Verwurzelung des Internets werden die Bemühungen erfolgreich sein, sagt er, wenn sie zumindest die Forschungsgemeinschaft dazu bringen, auf gemeinsame Ziele hinzuarbeiten und dazu beiträgt, die Kriechbewegung in die richtige Richtung zu erzwingen.

Grundlagen für eine neue Infrastruktur
Die aufkommenden Bemühungen der NSF, eine saubere Internetarchitektur zu schaffen, werden auf eine breite Palette bestehender Forschungsarbeiten zurückgreifen. Im Folgenden finden Sie eine Auswahl wichtiger Bemühungen zur Verbesserung von allem, von der Sicherheit bis zur drahtlosen Kommunikation.

Wie funktioniert das Einfrieren von Eiern

PLANETLAB
Princeton Universität
Princeton, New Jersey
Fokus: Schaffung eines Internet-Overlay-Netzwerks aus Hardware und Software – derzeit 630 Computer in 25 Ländern –, das Funktionen ausführt, die von der Suche nach Würmern bis zur Optimierung des Datenverkehrs reichen.

EMULAB
Universität von Utah
Salt Lake City, UT
Fokus: Eine Software- und Hardware-Testumgebung, die Forschern eine einfache und praktische Möglichkeit bietet, das Internet für eine Vielzahl von Forschungszielen zu emulieren.

DETER/Universität Süd
Kalifornisches Institut für Informationswissenschaften
Marina del Rey, Kalifornien
Fokus: Ein Forschungsprüfstand, in dem Forscher simulierte Cyberangriffe sicher starten, analysieren und Abwehrstrategien entwickeln können, insbesondere für kritische Infrastrukturen.

WINLAB (Labor für drahtlose Informationsnetzwerke)
Rutgers University
New Brunswick, New Jersey
Fokus: Entwickelt drahtlose Netzwerkarchitekturen und -protokolle, die auf die Bereitstellung des mobilen Internets abzielen. Führt Forschungen zu allem durch, von Hochgeschwindigkeitsmodems bis hin zum Spektrummanagement.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen