Grid-Computing

Wird sich die Internetgeschichte wiederholen?

Könnte sein. Bereits in den 1980er Jahren schuf die National Science Foundation das NSFnet: ein Kommunikationsnetzwerk, das wissenschaftlichen Forschern einen einfachen Zugang zu ihren neuen Supercomputerzentren ermöglichen soll. Ganz schnell schloss sich ein kleineres Netzwerk nach dem anderen an – und das Ergebnis war das Internet, wie wir es heute kennen. Die Wissenschaftler, deren Bedürfnisse das NSFnet ursprünglich erfüllte, sind von den Online-Massen kaum in Erinnerung.

Schneller Vorlauf bis 2002. In diesem Sommer wird die National Science Foundation mit der Installation der Hardware für das TeraGrid beginnen, einen transkontinentalen Supercomputer, der für die Rechenleistung das tun soll, was das Internet für Dokumente getan hat. Zunächst werden Cluster von High-End-Mikrocomputern an vier Standorten eingerichtet: dem National Center for Supercomputing Applications an der University of Illinois in Urbana-Champaign; das Argonne National Laboratory des US-Energieministeriums außerhalb von Chicago; Caltech in Pasadena, Kalifornien; und das San Diego Supercomputer Center der University of California, San Diego. Bis Anfang nächsten Jahres werden diese vier Cluster dann so eng miteinander vernetzt sein, dass sie sich wie eine Einheit verhalten.



Dieser virtuelle Computer wird Probleme mit bis zu 13,6 Billionen Gleitkommaoperationen pro Sekunde oder Teraflops durcharbeiten – achtmal schneller als der derzeit leistungsstärkste akademische Supercomputer. Diese Geschwindigkeit wird es Wissenschaftlern ermöglichen, einige der rechenintensivsten Aufgaben des Forschungsprogramms zu bewältigen – von Problemen bei der Proteinfaltung, die die Grundlage für neue Wirkstoffdesigns bilden, über Klimamodellierung bis hin zur Ableitung von Inhalt und Verhalten des Kosmos aus astronomischen Daten.

Darüber hinaus wird das TeraGrid ein Paradebeispiel für das sein, was als Grid-Computing bekannt wurde – die massive Integration von Computersystemen, um eine Leistung zu bieten, die von einer einzelnen Maschine nicht erreicht werden kann. Die Integration dieser Systeme wird so transparent sein, dass der Benutzer nicht mehr merkt, dass er sich in einem Netzwerk befindet, wie der Autofahrer darauf achtet, welcher Zylinder gerade zündet. Für Benutzer, die sich beim TeraGrid anmelden, sieht das System wie ein weiterer Satz von Programmen aus, die auf ihren Bürocomputern ausgeführt werden. Aber dieser Blick täuscht: Was wie Anwendungen auf dem lokalen Desktop-Rechner aussieht, könnten tatsächlich Datenanalysetools sein, die auf dem Cluster in San Diego laufen, oder Visualisierungssoftware, die Bits in Argonne verarbeitet. Die Dateien, an denen TeraGrid-Benutzer arbeiten, können aus Datenbanken bestehen, die über das ganze Land verstreut sind und Tausende von Gigabyte enthalten – auch bekannt als. Terabyte.

Grid-Computing-Visionäre hoffen, dass dies nur der Anfang sein wird – dass das 53-Millionen-Dollar-TeraGrid eine neue Ära des Grid-Computing für die Massen einleiten wird, so wie das NSFnet die Barrieren niederriss, die zum Aufblühen des Internets führten. Allein in den letzten ein oder zwei Jahren wurden Dutzende solcher Projekte in Europa, Asien und den Vereinigten Staaten angekündigt, und es wird wahrscheinlich noch mehr kommen. Und die Entwickler von Grid-Computing entscheiden sich jetzt für einen einzigen Standard, den Globus Toolkit, der Grid-Projekte, die auf der ganzen Welt in Entwicklung sind, zu einem weltweiten Netzwerk abgreifbarer Computerleistung zusammenführen wird.

Gründe, warum Fanfiction schlecht ist

Völlig transformierend fasst Larry Smarr, Direktor des California Institute for Telecommunications and Information Technology, Grid Computing zusammen. Smarr, bekannt für seine Rolle bei der Entwicklung des Kommunikationssystems, das sich zum Rückgrat des Internets entwickelt hat, sagt, dass die Technologie das ist, worauf das Internet in den letzten drei Jahrzehnten aufbaut. In der ersten Phase, erklärt er, haben wir die Kabel hochgezogen und alle Computer angeschlossen. Dann begannen wir mit dem World Wide Web, alle Online-Dokumente einzubinden. Jetzt, sagt er, werden wir beim Grid-Computing alles andere einbinden (siehe Planet Internet, TR März 2002).

Dies bedeutet, dass Benutzer das Internet als nahtloses Computeruniversum erleben werden. Softwareanwendungen, Datenbanken, Sensoren, Video- und Audiostreams – alle werden als Dienste wiedergeboren, die im Cyberspace leben und sich selbst zusammensetzen und wieder zusammensetzen, um die anstehenden Aufgaben zu erfüllen. Einmal an das Netz angeschlossen, wird ein Desktop-Computer Rechenleistung von allen anderen Computern im Netz beziehen. Was wir sehen, sagt Smarr, ist das Entstehen einer neuen Infrastruktur, auf der zuerst die Wissenschaft und dann die gesamte Wirtschaft aufgebaut werden.

Computer als Dienstprogramm

Das ist eine große Aufgabe. Aber es beschreibt sicherlich die Hoffnung bei IBM, dem Hauptauftragnehmer für das TeraGrid sowie für ähnliche nationale Netze in Europa. David Turek, Vice President of Emerging Technologies bei IBMs Server Group, vergleicht Grid Computing mit dem bekannten Stromnetz: Um einen Haartrockner zu benutzen, stecke ihn einfach in eine Steckdose, sagt er. Sie müssen sich nicht um die Konstruktion der Turbine in den Niagarafällen oder die Physik der Kraftübertragung kümmern. Genau so möchte Turek die Leute über Rechenleistung denken. In unserer Zukunftsvision: Wenn Sie ein Kunde sind, der beispielsweise gelegentlich 10 Teraflops benötigt, kaufen Sie keine Maschine, die die meiste Zeit nicht ausgelastet ist; kaufe es aus dem Netz. Grid Computing wird also in unsere Vision von Computing als Dienstprogramm einfließen.

Während Unternehmen wie IBM die groß angelegten Grids bauen würden, werden viele Anwender laut Turek eigene Grids aufbauen wollen. Sie könnten sehen, wie 10 bis 20 Abteilungen zusammenkommen, um ein campus- oder unternehmensweites Grid zu schaffen, von denen jede einen Teil der Computerleistung beisteuert, die sie kontrollieren, sagt er. In einem anderen Szenario könnten mehrere unabhängige Unternehmen, wie etwa Rüstungsunternehmen, fast dasselbe tun, um virtuelle Organisationen zu erstellen – Ad-hoc-Grids, die es ihnen ermöglichen, die proprietären Daten und Software des anderen zu verwenden, um beispielsweise einen Vorschlag für ein neues Militär vorzubereiten Flugzeug. Deshalb werden wir das Grid nicht als etwas befürworten, das nur mit IBM-Technologie möglich ist, erklärt Turek. Schließlich, sagt er, sei die Wahrscheinlichkeit, dass alle fünf dieselben Server haben, ziemlich gering, wenn fünf Unternehmen in einem Grid zusammenkommen wollen.

Und das, fügt Turek hinzu, ist das Schöne am Globus Toolkit: eine Reihe von Open-Source-Softwaretools, die sich schnell zum De-facto-Standard für Grid-Computing entwickeln, ähnlich wie das Hypertext Transfer Protocol (HTTP). der Standard zum Verlinken von Dokumenten im Web. Tatsächlich ist die wachsende Akzeptanz von Globus maßgeblich für die heutige Aufregung im Grid-Computing verantwortlich.

Die Idee ist, dass das Netzwerk die grundlegenden Mechanismen für das Verschieben von Daten bereitstellt, während Globus Mechanismen für die gemeinsame Nutzung von Ressourcen bereitstellt, erklärt Carl Kesselman vom Information Sciences Institute der University of Southern California. Kesselman hat das Globus Toolkit in den letzten fünf Jahren in Zusammenarbeit mit Ian Foster, einem Informatiker der University of Chicago, der das Labor für verteilte Systeme bei Argonne leitet, entwickelt.

Die von Globus bereitgestellten Mechanismen sind für den Betrieb des Rechennetzes ebenso wichtig wie Ampeln für den Stadtverkehr. Ein Satz von Globus-Softwaretools zum Beispiel erkennt automatisch, wo im Grid eine erforderliche Datenbank oder ein erforderliches Programm zu finden ist. Andere Tools ermöglichen eine einmalige Anmeldung, damit der Benutzer nicht ständig nach Passwörtern für Site für Site für Site gefragt wird. Wieder andere teilen einen Rechenjob in mehrere Teilaufgaben auf und verteilen sie auf die verschiedenen Systeme im Raster. Und am wichtigsten ist, dass Globus Tools zur Implementierung von Sicherheitsfunktionen bietet, die beispielsweise sicherstellen, dass ein externes Programm, das versucht, mit Ihrem Computer zu interagieren, einem legitimen Zweck dient und nicht von einem böswilligen Hacker gesendet wurde.

Natürlich ist nichts davon völlig neu: Es sei daran erinnert, so Kesselman, dass ARPAnet [der vom Militär gebaute Vorfahr des Internets] in den 1960er Jahren gebaut wurde, um Benutzern auf einem Campus gemeinsamen Zugriff auf Ressourcen auf einem anderen Campus zu ermöglichen. Ebenso, wie er betont, waren Methoden zum Zerlegen von Rechenaufgaben in kleinere Teile für mehrere Maschinen in den 1970er und 1980er Jahren ein beständiges Forschungsthema.

Aber erst in den 1990er Jahren, sagt Kesselman, habe die rapide zunehmende Leistungsfähigkeit von Computern und Netzwerken diesen als Distributed Computing bezeichneten Trend aus den Labors geholt. Ein Ergebnis war eine Flut von Experimenten im Bereich des sogenannten Peer-to-Peer-Computings, die sich auf die eine oder andere Weise der Nutzung der Rechenleistung und der Speicherkapazität von Desktop-Computern im Leerlauf widmeten. Zu den bekanntesten dieser Bemühungen zählen Napster, das MP3-Musik-Filesharing-System, und SETI @ home , in dem Radioteleskopdaten aus dem Projekt zur Suche nach außerirdischer Intelligenz über das Internet auf PCs verteilt werden.
Zur gleichen Zeit begann die Hochleistungscomputer-Community jedoch eine Reihe weniger bekannter, aber viel ehrgeizigerer Experimente im Metacomputing. Die Idee war, dass viele verteilte Computer wie ein riesiger Computer funktionieren. Die Tastatur und das Display der Metamaschine würden wie üblich auf dem Desktop von jemandem sitzen. Aber sein Zentralprozessor könnte tatsächlich ein Supercomputer in Illinois sein, während sein Grafikprozessor eine Immersive-Virtual-Reality-Einrichtung in Kalifornien sein könnte. Es hat funktioniert, sagt Kesselman – das einzige Problem war, dass Experimentatoren das Rad jedes Mal neu erfinden mussten. Es gebe noch keine Standardsoftware für Distributed Computing, sagt er, keine Infrastruktur, die das unterstützt.

Der Wendepunkt der Technologie fand 1995 auf einer Supercomputing-Konferenz statt, die vom Institute of Electrical and Electronics Engineers und der Association for Computing Machinery gesponsert wurde. Dort wurden in einer Demonstration namens I-Way elf separate Hochgeschwindigkeitsnetze kurzzeitig zu einem riesigen Metacomputer verbunden. Die Besucher des San Diego Convention Center konnten mit einem interaktiven Modell des Ökosystems der Chesapeake Bay oder einer hochauflösenden Simulation kollidierender Spiralgalaxien spielen – insgesamt etwa 60 Anwendungen. Foster, der das Team leitete, das einen Teil der dem System zugrunde liegenden Software erstellte, war besonders beeindruckt von der möglichen Verwendung von I-Way im kollaborativen Design. In einer Demonstration, erinnert er sich, haben sich Forscher von Argonne mit denen des Industriekonzerns Nalco Fuel Tech zusammengetan, um eine Virtual-Reality-Simulation für die Konstruktion von Verbrennungsanlagen zu erstellen. Benutzer an verschiedenen Standorten könnten gemeinsam durch die Verbrennungsanlage fliegen, Injektoren an verschiedenen Stellen platzieren und gemeinsam die Auswirkungen auf die Leistung untersuchen, erinnert er sich.

Die Demonstration hatte ihre beabsichtigte Wirkung. I-Way hat die Leute davon überzeugt, dass Grid Computing großes Potenzial hat, sagt Foster. Ein wichtiger Gewinn war, dass die US-amerikanische Defense Advanced Research Projects Agency im Oktober 1996 das Globus-Projekt von Kesselman und Foster finanzierte, um eine solide Grundlage für Grid-Computing zu schaffen. Auf der Supercomputer-Konferenz 1997 demonstrierten Foster und Kesselman ein Grid mit rund 80 Standorten weltweit, auf dem Globus-Software ausgeführt wurde – eine weitere Leistung, die nach Fosters Ansicht die Menschen davon überzeugte, dass Grid-Computing sinnvoll und real ist. Zu diesem Zeitpunkt hatten Foster und Kesselman sogar angefangen, es Grid-Computing zu nennen, indem sie mit der Analogie zum Stromnetz spielten.

Physik und darüber hinaus

Nach der Einführung des Konzepts schien Grid Computing plötzlich den Bedarf von Wissenschaftlern auf der ganzen Welt zu decken. In Genf zum Beispiel plante das Hochenergie-Physiklabor der Europäischen Organisation für Kernforschung (bekannt unter dem Akronym CERN) bereits seinen Teilchenbeschleuniger der nächsten Generation, den Large Hadron Collider – ein Versuch, der eine überwältigende Menge an Daten. Wir schätzten, dass der Collider bei seiner Inbetriebnahme im Jahr 2006 acht bis 10 Petabyte an Teilchenkollisionsdaten pro Jahr produzieren würde, sagt Fabrizio Gagliardi, Direktor des jährlichen CERN-Seminars über Computer für Physiker. Das sind Petabyte-Millionen Gigabyte.

Teile dieser immensen Datenlast müssten an die Institutionen weltweit verteilt werden, die an CERN-Experimenten teilnehmen. Und da die interessanteste Physik in den seltensten Ereignissen zu finden ist, erklärt Gagliardi, würden Wissenschaftler jedes Bit dieser Daten auf verschiedene Weise verarbeiten – auf der Suche nach Hinweisen auf das theoretisch vorhergesagte, aber schwer fassbare Higgs-Boson oder Teilchen, die die mysteriöse Eigenschaft, die als Supersymmetrie bekannt ist. Kurz gesagt, der Collider wies auf ein enormes Datenverwaltungsproblem hin, für das bestehende Computersysteme ungeeignet schienen. Wir haben eine Computerarchitektur für das definiert, was wir brauchen würden, erinnert sich Gagliardi. Dann kauften wir ein System von Werkzeugen, um es zu bauen – und stellten fest, dass die Informatiker bereits Lösungen gefunden hatten.

Eigentlich mehrere Lösungen. An der University of Virginia arbeitete der Informatiker Andrew Grimshaw seit 1993 an einem attraktiven und durchdachten Satz von Grid-Computing-Protokollen namens Legion. (Legion wird jetzt von Avaki aus Cambridge, MA, das Grimshaw gegründet hat, vermarktet.) Globus hatte jedoch den Vorteil, offen zu sein: Im Interesse einer möglichst breiten und raschen Verbreitung hatten Foster und Kesselman beschlossen, die Entwickler des mittlerweile berühmten Linux-Betriebssystems und stellen den Globus-Quellcode allen Benutzern zur Verfügung, die ihn haben wollten, damit sie ihn studieren, damit experimentieren und Verbesserungen vorschlagen können.

Das Ergebnis war, dass Globus die Grundlage für das European DataGrid wurde, ein dreijähriges Demonstrations- und Softwareentwicklungsprojekt, das am 1. Januar 2001 mit einer Zusage von 13,5 Millionen Euro (rund 12 Millionen US-Dollar) von der Europäischen Union gestartet wurde. Bis Anfang 2002 hatte das DataGrid mehr als 100 Computer eingesetzt – 20 am CERN, die anderen an Standorten auf dem ganzen Kontinent, so Gagliardi, heute Direktor des DataGrid. Das Projekt hat sich auch über die Teilchenphysik hinaus auf zwei weitere wissenschaftliche Disziplinen ausgeweitet, die mit ähnlich gewaltigen Herausforderungen bei der Datenverarbeitung und -verarbeitung konfrontiert sind: Erdbeobachtung und Biologie.

Inzwischen wird Grid Computing von Wissenschaftlern in den Vereinigten Staaten noch stärker angenommen – und Globus ist wieder die erste Wahl für praktisch jedes große Projekt. Einer der ersten, der in Gang kam, war das Grid Physics Network. Diese Initiative wurde von Foster und dem Physiker Paul Avery von der University of Florida organisiert und im September 2000 mit 11,9 Millionen US-Dollar von der National Science Foundation ins Leben gerufen. Es konzentriert sich auf die riesige Menge physikalischer Daten, die von vier verschiedenen Quellen erzeugt werden: zwei spezialisierte Teilchendetektoren, die am Large Hadron Collider untergebracht sind; das Laser Interferometer Gravitational Wave Observatory, eine Caltech-MIT-Kollaboration, die Gravitationswellen von Pulsaren und dergleichen nachweisen wird; und der Sloan Digital Sky Survey, ein internationaler Versuch, die lichtschwächsten Sterne und Galaxien zu kartieren – insgesamt mehr als 100 Millionen Himmelskörper. Zu den neueren Initiativen gehört das Network for Earthquake Engineering Simulation Grid der NSF, ein Versuch, Beobachtungen und Computersimulationen zu integrieren, die jetzt auf etwa 20 verschiedene Labore verteilt sind, mit dem Ziel, effektivere Designs für erdbebensichere Strukturen zu erstellen.

Und jetzt gibt es natürlich das TeraGrid – das Gitter, wo Ihr Geld ist, wo Ihr Mund ist, wie es Charles Catlett von Argonne nennt. Wir reden seit Jahren, sagt Catlett, die Geschäftsführerin des Projekts. Damit das TeraGrid jedoch hält, was es verspricht, müssen die leistungsstarken Mikrocomputer-Cluster an seinen vier physischen Standorten durch ein dediziertes Netzwerk mit 40 Gigabit pro Sekunde verbunden werden, das sich direkt am zerklüfteten Rand des Staates befindet von der Kunst. Dies wird uns viel darüber zeigen, wie die Software in einer Produktionsumgebung wirklich funktioniert, sagt Catlett. Er spricht über die Globus-Software, die Internetprotokolle, das Linux-Betriebssystem – alles.

Auf technischer Seite besteht laut Catlett eine der großen Herausforderungen darin, sicherzustellen, dass Globus erfolgreich skalieren kann. Es sei wichtig, sicherzustellen, dass die Dienste und Protokolle von Globus Hunderte oder Tausende von Mal mehr Geräten verarbeiten können, als sie jetzt verarbeiten. Natürlich, stimmt Foster zu, gibt es noch viel zu tun.

Dann gibt es die geschäftliche Seite. Hier stellt sich Grid Computing die gleiche Frage, die so viele der überoptimistischen Dotcoms versenkt hat: Wie wird Geld mit dieser Technologie verdient? Wenn Computer ein Dienstprogramm ist, sagt Foster, wer bezahlt dann die Infrastruktur? Für welche Leistungen sind die Menschen bereit zu zahlen? Wo ist insbesondere die Killer-App, die unverzichtbare Anwendung, die das Wachstum des Grid-Computings so vorantreiben wird, wie es die Tabellenkalkulation beim Personal Computing getan hat? Die meisten aktuellen Grid-Projekte haben die Phase „Wenn wir es bauen-sie-werden-kommen“ kaum überschritten.

Andererseits, sagt Foster, haben wir einige Ideen. Ein bemerkenswertes Beispiel ist das Access Grid, ein von Argonne entwickeltes System, das wie so vieles im Grid-Computing auf Globus basiert und große, standortübergreifende Meetings über das Internet sowie Vorträge und kollaborative Arbeitssitzungen unterstützt. Es verbindet bereits mehr als 80 Hochschul- und Industriestandorte rund um den Globus. Da immer mehr große wissenschaftliche Projekte wie das TeraGrid und das DataGrid ans Netz gehen, so Foster, gibt es darüber hinaus allen Grund zu der Annahme, dass sie als Laboratorien für neue Grid-Anwendungen dienen werden, die dann mit riesigen Einschlag. Schließlich kam die Killer-App des Internets, das World Wide Web, nicht aus einem Konzernlabor. Es kam aus dem CERN.

Gitter freigeschaltet

Während das Web eine schwierige Aufgabe sein mag, haben die Befürworter des Grid-Computing den Weg für die erhoffte Kommerzialisierung der Technologie geebnet, indem sie sich auf so wichtige Themen wie die Festlegung von Standards konzentriert haben. Denken Sie daran, wie viel wir daraus gewonnen haben, dass auf jedem Computer das Internetprotokoll ausgeführt wird, sagt Foster. Um die gleiche Universalität für Grid-Computing zu erreichen, hat sich die US-Grid-Community mit denen Europas und Asiens zusammengeschlossen, um das Global Grid Forum zu gründen – eine Organisation nach dem Muster des Standardisierungsgremiums des Internets, der Internet Engineering Task Force. Das Ziel des Forums ist es sicherzustellen, dass Globus, Legion und alle anderen Grid-Protokolle nahtlos zusammenarbeiten können. Wenn jeder Computer Standardmethoden zum Verwalten von Authentifizierung, Autorisierung, Beschreibung von Ressourcenfunktionen und Aushandeln des Zugriffs auf Ressourcen verwendet, ist das ein großer Gewinn, sagt Foster.

Die Grid-Pioniere bilden ebenfalls Allianzen mit ihren Pendants im kommerziellen Peer-to-Peer-Computing. In der Praxis scheinen Peer-to-Peer-Bemühungen jedoch am effektivsten für Probleme zu sein, die leicht in unzählige kleine, unabhängige Teile zerlegt werden können – eine Kategorie, die normalerweise nicht die komplexen physikalischen Simulationen und virtuellen Immersionsanwendungen umfasst, bei denen Grid-Computing glänzt wirklich. Dennoch, so Foster, sei das Potenzial für Synergien klar. Aus diesem Grund wurden die Globus-Protokolle bereits in industrietaugliche Peer-to-Peer-Systeme wie die an der University of Wisconsin-Madison entwickelten Condor-Protokolle und die Entropia-Plattform von Entropia in San Diego integriert, die beide darauf ausgelegt sind, die ungenutzte Kapazität der vernetzten Workstations einer Organisation.

Der Lohn für solche Bemühungen besteht darin, dass die Computerindustrie das Grid-Computing mittlerweile sehr ernst zu nehmen scheint – das bemerkenswerteste Beispiel ist IBM. Im vergangenen August erhielt Big Blue gleichzeitig den Auftrag zum Bau nationaler Netze in Großbritannien und den Niederlanden sowie von TeraGrid in den USA und kündigte an, viele seiner Serversysteme netzfähig zu machen. Diese Initiative, die bedeuten würde, dass Server in vielen Institutionen und Organisationen schnell und einfach an Grid-Netzwerke angeschlossen werden könnten, sei genauso groß oder größer als das Engagement von IBM für Linux, das bereits rund 1 Milliarde US-Dollar betrug. (Tatsächlich hatte IBM Globus bereits verwendet, um seine eigenen F&E-Labore in den USA, Israel, der Schweiz und Japan zu verbinden.)

Doch IBM ist damit kaum allein. Im vergangenen November gaben acht weitere Computerhersteller – Compaq, Cray, Silicon Graphics, Sun Microsystems und Veridian in den USA sowie Fujitsu, Hitachi und NEC in Japan – bekannt, dass sie das Globus Toolkit auf ihren Maschinen als Standardplattform für Grid-Computing. Anfang des Jahres schloss Microsoft dann einen Vertrag mit Argonne ab, um das bestehende Globus Toolkit auf Windows XP zu übersetzen, so Todd Needham, Manager der University Research Programs Group des Softwaregiganten.

wer hat die meme erfunden

Nicht zuletzt sollte der Schritt von Microsoft den Tag beschleunigen, an dem Heim- und Bürocomputer millionenfach ans Netz gehen können, einfach per Plug-In. Aber vielleicht ebenso bedeutsam symbolisiert er auch die sich schnell entwickelnde Allianz zwischen Grid Computing und Web Services, eine ähnliche Technologie, die in den letzten Jahren unabhängig entstanden ist und in leicht unterschiedlicher Form unter anderem von Microsoft, IBM und Sun übernommen wurde. Wie beim Grid-Computing dreht sich auch die Idee der Webdienste um zukünftige Softwareanwendungen, die aus Programmen und Daten erstellt werden, die im Internet leben, nicht auf dem Computer des Benutzers. Der Hauptunterschied zwischen dieser Idee und Grid-Computing besteht darin, dass Web-Services-Software tendenziell viel enger an die Protokolle des World Wide Web sowie an webbasierte Standards wie XML gebunden ist.

Aber auch hier ist das Synergiepotenzial offensichtlich, wie Microsofts und IBMs Umarmung von Globus nahe legen. Im Januar schlugen Foster, Kesselman, Jeffrey Nick von IBM und Steven Tuecke von Argonne eine Open Grid Services Architecture vor, die die beiden Ansätze integrieren würde, und kündigten an, dass dieses Framework als Version 3.0 des Globus Toolkit implementiert werden würde. IBM, Microsoft, Platform Computing, Entropia und Avaki haben ihre Unterstützung der neuen Architektur angekündigt, weitere Unternehmen sollen folgen.
Und in Zukunft? Die Geschichte werde sich tatsächlich wiederholen, erklärt Grid-Computing-Verfechter Smarr – nur dass die Explosion der Grid-Aktivität selbst den Internet-Boom der 1990er Jahre in den Schatten stellen könnte. In Zukunft werden von Smarr Netze jeder Größe miteinander verbunden. Die Supernodes werden wie TeraGrid vernetzte Cluster von Supercomputern sein, die Benutzern auf nationaler oder internationaler Ebene dienen. Die zahlreichen mittelgroßen Knoten werden Software wie Entropia verwenden, um die Leistung mehrerer Desktop- und Laptop-PCs zu nutzen. Wenn das TeraGrid und andere Superknoten wie zentrale Elektrizitätskraftwerke sind, erklärt Smarr, werden diese kleineren Knoten wie Sonnenenergiekollektoren sein, die eine diffuse, aber enorme Ressource einfangen.

Noch zahlreicher werden die Millionen einzelner Knoten sein: persönliche Maschinen, die Benutzer an das Stromnetz anschließen, um ihren Strom bei Bedarf zu beziehen. Wenn sich beispielsweise die Mitglieder einer Bürgergruppe Sorgen über ein geplantes Entwicklungsprojekt machten, könnten sie das Grid verwenden, um dieselben Simulationen durchzuführen, die die beteiligten Entwickler und Regierungsbeamten verwendeten. Auf diese Weise konnten sie die Auswirkungen der Entwicklung auf alles vom Grundwasser über Verkehrsmuster bis hin zur Beschäftigung leicht erkennen. Durch den Einsatz netzbasierter Tele-Immersion-Technologien konnten die Bürger sogar durch das simulierte Projekt gehen und ein realistisches Gefühl dafür bekommen, wie es sich anfühlt, dort zu sein.
Und dank der drahtlosen Revolution werden Mikroknoten überall sein. Aufgrund der Miniaturisierung der Komponenten, sagt Smarr, werden wir Milliarden von Endpunkten haben, die Sensoren, Aktoren und eingebettete Prozessoren sind. Sie werden in allem sein, den Stress in Brücken überwachen, die Umwelt überwachen – letztendlich werden sie sogar in unseren Körpern sein und unsere Herzen überwachen.

Und deshalb, betont er, müssen wir jetzt ein solides Fundament für das Netz legen, Sicherheit und alles andere von Anfang an einbauen. Wir können es nicht im Nachhinein tun, sagt er. Der Planet baut die Netzinfrastruktur auf, von der er für den Rest des 21. Jahrhunderts leben wird.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen