Networked Computing: Grundlagen und Anwendungen

16.05.2006 von Klaus Manhart
Das Koppeln von Rechnern hat neue Technologien und Anwendungen hervorgebracht. Cluster-, Grid-, Peer-to-Peer- und Distributed Computing sind die wichtigsten davon. Ihre Ausrichtung und Anwendungen unterscheiden sich jedoch gravierend.

Dass das Ganze mehr ist als die Summe seiner Teile bewahrheitet sich auch bei Rechnernetzen. Der intelligente Zusammenschluss von Rechnern bringt neue Technologien hervor, die weit über das hinaus gehen, was gewöhnliche Client-Server-Strukturen in Unternehmen leisten.

Cluster-, Grid-, Peer-to-Peer- und Distributed Computing sind die wichtigsten dieser Rechnerverbünde. Sie spielen in Wissenschaft und Wirtschaft zum Teil bereits heute, zum Teil in den nächsten Jahren, eine herausragende Rolle. Viele Fachleute interpretieren diesen Komplex der Vernetzung und des verteilten Rechnens auf Verbundbasis als nächsten Evolutionsschritt in der IT, der Internet und WWW hinter sich lässt.

Cluster: Einsatzbereiche

In vielen Unternehmen schon heute verbreitet sind Cluster. Sie werden dort eingesetzt für Lastverteilungs- oder Hochverfügbarkeitslösungen - etwa im Bereich von Datenbank- und Webservern. Über die Kopplung von Rechnern kann gewährleistet werden, dass Rechenanforderungen gleichmäßig verteilt werden oder kritische Systeme nach dem Ausfall eines Servers problemlos weiter arbeiten.

Die Idee des Grid Computing ist hingegen im kommerziellen Bereich noch weitgehend neu. Anders als bei Clustern zapft man bei Grids die Ressourcen externer Rechner oder auch ganzer Cluster an, virtualisiert und integriert sie. Eine natürliche Tendenz für Grids ist dabei die Ausdehnung auf immer größere Benutzergruppen und Communities.

Eng verwandt mit Grids und oft zusammen in einen Topf geworfen wird die Technik des Distributed Computing. Im Vordergrund steht hier das Lösen einer rechenintensiven Aufgabe, die auf mehrere, meist weltweit verstreute Rechner verteilt wird. P2P-Systeme dürften wiederum für die meisten alte Bekannte sein. Sie haben sich in der Praxis vor allem in Form der umstrittenen Tauschbörsen bewährt, sind aber auch für andere Einsatzgebiete geeignet.

Wie sich die einzelnen Rechnerverbünde genau definieren, worin sie sich unterscheiden und welche Anwendungen es gibt stellen wir Ihnen im folgenden vor.

Cluster: Das Grundprinzip

Bei einem Cluster werden mehrere unabhängige Computer über Software und Netzwerk zu einem Verbund von Rechnern vereinigt. Es besteht aus mindestens zwei Computern - im Fachjargon „Knoten“ -, die über eine Verbindungstechnik wie Ethernet miteinander gekoppelt sind. Die Knoten sind in der Regel normale Standard-PCs, zum Teil auch Workstations, Server oder gar Supercomputer.

Nach außen hin verhalten sich die Knoten in einem Cluster wie ein virtueller Prozessor. Das Ganze wirkt wie ein einziger Rechner, der Aufträge entgegen nimmt, auf die einzelnen Knoten verteilt und bearbeitet.

Im Vergleich zu einem leistungsstarken, teuren Superrechner hat ein Cluster vor allem zwei Vorteile: Es setzt sich normalerweise aus billigen Low-Cost Komponenten zusammen und ist skalierbar. Das Cluster kann jederzeit vergrößert werden, indem einfach neue Rechner dem System zur Verfügung gestellt werden.

Ist die Hard- und Software auf allen Knoten identisch, handelt es sich um ein homogenes, andernfalls um ein heterogenes Cluster. Von einem Cluster im engeren Sinn spricht man erst dann, wenn die Knoten exklusiv zum Verbund gehören und einen gemeinsamen Datenbestand verarbeiten.

Cluster: Aufbau

Für die Verbindung kommt bei kleineren Clustern aus Kostengründen Fast- oder Gigabit-Ethernet zum Einsatz. Größere Cluster werden gerne mit Hochgeschwindigkeitsnetzen wie SCI (Scalable Coherent Interface), Infiniband oder Quadrics betrieben. Letztere bieten nicht nur hohe Übertragungsgeschwindigkeiten, sondern auch niedrige Latenzzeiten. Dafür sind sie auch entsprechend teuer.

Zu bedenken ist auch, dass mit der Größe eines Clusters die Kommunikationskosten steigen. Je mehr Knoten ein Cluster umfasst, um so höher ist der Anteil an der Gesamtrechenleistung, den das Cluster für die Administration aufwenden muss.

Hochverfügbarkeits-Cluster

In der Praxis werden Cluster-Systeme vor allem für drei Zielanwendungen eingesetzt. Hohe Ausfallsicherheit, hohe Rechenleistung und hoher Datendurchsatz.

Hohe Ausfallsicherheit wird mit Hochverfügbarkeits- oder HA-Clustern (High Availibility Cluster) erreicht. Dazu koppelt man beispielsweise einen kritischen Datenbank-Server mit einem zweiten Rechner. Tritt auf dem Datenbank-Server ein Fehler auf, werden die auf diesem Rechner laufenden Dienste auf den anderen Knoten migriert. Das Zweitsystem übernimmt im Fehlerfall die Aufgaben des Primärsystems.

Bei HA-Clustern unterscheidet man zwischen Aktiv/Passiv- und Aktiv/Aktiv-Clustern. Sind beide Knoten aktiv (Aktiv/Aktiv) ist eine Lastverteilung zwischen den Knoten möglich. Bei Ausfall des einen Knotens übernimmt der andere dessen Arbeit ganz. Bei einem Aktiv/Passiv-Cluster arbeitet dagegen immer nur ein Server – das Primärsystem. Der zweite, wartende Server ist das Standby-System und muss bei Ausfall des Primärsystems aktiviert werden.

Einsatzgebiet und Verwaltung der HA-Cluster

In der Praxis spielen HA-Cluster bei unternehmenskritischen Anwendungen wie Datenbank, Webserver oder E-Mail eine große Rolle. Auch in hoch kritischen Umgebungen, in denen maximale Ausfallzeiten von nur wenigen Minuten im Jahr erlaubt sind, leisten HA-Cluster gute Dienste.

Wenn kritische Computersysteme für Katastrophenszenarien abgesichert werden, werden die Cluster-Knoten oft mehrere Kilometer getrennt in verschiedenen Rechenzentren platziert. Tritt der „worst case“ ein, kann der Knoten im nicht betroffenen Rechenzentrum dann die gesamte Last übernehmen. Diese Art räumlich weit verteilter Cluster nennt man auch „stretched Cluster“.

Für die Verwaltung von HA-Clustern stehen Cluster Manager zur Verfügung, die Vorgänge wie den Failover vom Primärsystem zum Standby-System im Fehlerfall automatisieren. Um den Ausfall eines Rechners im Cluster zu erkennen wird meist der so genannte Cluster Heartbeat in Verbindung mit einer Voting Disk verwendet - ein Signal, das über eine Netzwerkverbindung zwischen den Clusterknoten ausgetauscht wird. Verstummt der Heartbeat eines Rechners kann man einen Ausfall annehmen und ein Failover einleiten. Damit wird die Übernahme der Dienste vom Primärsystem - wie Datenbank-, Web- oder Application Server – auf das Standby-System initiiert.

Eine solide Open-Source-Basis ist das Linux-High-Availability-Projekt, kurz Linux-HA (http://linux-ha.org/). Dessen Ziel ist es, Linux-Systeme zur Hochverfügbarkeit aufzurüsten. Heartbeat, das kürzlich in der Version 2.0 frei gegeben wurde, ist dabei die Kernkomponente des Projektes. Ein relativ weit verbreitetes kommerzielles System ist Oracle RAC (Oracle Real Application Cluster), eine zusätzliche Option des Datenbankmanagementsystems von Oracle.

Load Balancing und High Performance Cluster

Die zweite Anwendung von Clustern ist das Load-Balancing. Load-Balancing-Cluster verteilen die Rechnerlasten auf mehrere Maschinen. Statt durch Aufrüstung einzelner Computer wird der Performancebedarf hier durch das Hinzufügen zusätzlicher Computer erfüllt. Die Lastverteilung erfolgt in der Regel über eine redundant ausgelegte, zentrale Instanz, den Load Balancer.

Mögliche Einsatzgebiete sind Umgebungen mit hohen oder wechselnden Anforderungen an die Computerperformance. Ein typisches Beispiel sind Shop-Systeme, die zu bestimmten Zeiten wie vor Weihnachten höher belastet sind als zu anderen.

Die dritte Cluster-Applikation ist die Verteilung von Rechenaufgaben. High Performance Cluster (HPC) dienen zur Abarbeitung von Rechenaufgaben, die auf mehrere Knoten distributiert werden. Dazu werden die Aufgaben in „Portionen“ aufgeteilt und parallel auf mehreren Knoten ausgeführt. HP-Cluster finden sich oft im wissenschaftlichen Bereich.

Beowulf und Wolfpack

Leider lässt sich nicht jedes Rechenproblem durch ein HP-Cluster schneller lösen. Um Nutzen aus dem Cluster zu ziehen, muss sich das Problem auf mehrere Computer verteilen lassen. Das ist nicht immer möglich, beispielsweise dann nicht, wenn man Berechnungen anstellt, deren Teilergebnisse sich auf Teilergebnisse vorheriger Rechnungen beziehen. Oft kommt es auch vor, dass die Knoten untereinander viele Daten austauschen müssen oder dass sie ständig auf einen gemeinsamen Datenbestand wie etwa eine Datenbank zugreifen müssen.

Dienen die Knoten in einem Cluster ausschließlich zum Berechnen und bestehen sie aus handelsüblichen PCs, die unter Linux laufen, spricht man von einem Beowulf-Cluster. Läuft Windows, ist es ein Wolfpack-Cluster.

Besonders beliebt sind Beowulf-Cluster. Ihnen gemeinsam ist, dass die Knoten aus Standardkomponenten zusammengebaut werden, auf denen ein freies Betriebssystem arbeitet. Von der Einordnung her liegen Beowulf-Cluster zwischen reinen High Performance Clustern und COWs, Cluster of Workstations. Anders als bei einem COW, einem reinen Verbund aus Workstations, sind im Beowulf-Cluster alle Knoten exklusiv dem Cluster unterstellt.

Beowulf Cluster

Beowulf-Cluster stammen ursprünglich von den beiden NASA-Wissenschaftlern Thomas Sterling und Donald Becker, die 1994 einen Parallelrechner aus handelsüblichen Komponenten „von der Stange“ bauen wollten. Ihr Ziel war es, einen billigen, aber effizienten und leistungsfähigen Supercomputer zu konstruieren, der es ihnen ermöglicht, große Datenmengen auszuwerten.

Das erste lauffähige System bestand aus 16 Knoten mit Intel 486-DX4-Prozessoren, das über ein 10 Mbit/s schnelles Ethernet verbunden waren. Für die Kommunikation wurde ein Nachrichtenaustauschsystem installiert. Inzwischen haben es einige Beowulf-Cluster in die Top500-Liste der schnellsten Supercomputer der Welt geschafft. Eine Beispiel-Installation eines Beowulf-Cluster finden Sie hier.

Grid Computing

Einen Schritt weiter als Cluster Computing geht Grid Computing. Grids – abgeleitet von Electrical Power Grid, dem Stromnetz - sind ebenfalls IT-Verbünde, allerdings mit hohem Abstraktionsgrad. Im Unterschied zum Cluster nehmen Grids verteilte Ressourcen externer Rechner, die verschiedenen Organisationen angehören können, in Anspruch. Die NASA beispielsweise nutzt ein Grid, wenn ein Flugzeug Probleme meldet. In diesem Fall durchkämmt eine Grid-Software quer über die USA verteilte Datenbanken, um Informationen über die Maschine zu finden.

Der Schlüsselterm beim Grid-Computing ist der Begriff der „Ressource“. Eine Ressource ist ein IT-Element, das in ein Grid eingebunden wird - beispielsweise spezielle Hardware, Prozessorleistung, Datenbanken, Dateien oder Software.

Im Grid werden diese Ressourcen in einer virtuellen Organisation integriert und über das Internet zugänglich gemacht. Über eine Schnittstelle lässt sich feststellen, welche Ressourcen vorhanden oder gerade frei sind, um diese dann gezielt anzusprechen. Dabei ist die geographische Position der Ressource nicht mehr von Interesse.

Unterschiede: Cluster und Grid

Die Unterschiede zwischen Grid und Cluster müssten damit bereits deutlich sein. Ein Cluster stellt nur reine Rechnerleistung zur Verfügung, und das auf lokal begrenztem Gebiet. Ein Grid hingegen stellt über die eigentlichen Rechnerleistung hinaus auch Daten, Applikationen etc bereit – und das nicht nur lokal, sondern weltweit. Die folgende Tabelle listet die Unterschiede im Detail auf.

Formal ist ein Grid durch drei typische Merkmale gekennzeichnet.

Einen Software-Architekturstandard für Grid-Systeme beschreibt derzeit die Open Grid Service Architecture (OGSA). Das von der Globus Alliance entwickelte Globus Toolkit ist derzeit die einzig verfügbare Implementierung von OGSA, sie gilt als De-facto-Standard. Nähere und zusätzliche Details zu Grid-Standards und -Software erfahren Sie in einem eigenen Beitrag.

Arten von Grids

Data Grids

Je nach Art der vernetzten Objekte und nach Anwendungsszenarien lassen sich mehrere Typen von Grids unterscheiden. Die dominierenden Grids sind Computational Grids. Bei diesen Grids geht es vor allem um Rechenleistung - die Ressourcen jedes einzelnen Rechners werden zusammengefasst, um die Gesamtrechenleistung zu erhöhen. Eine typische Anwendung ist das On-Demand-Computing.

Bei Data Grids steht statt der Rechenleistung der Zugriff auf verteilte Datenbestände im Vordergrund. Das oben erwähnte NASA-Beispiel wäre ein Data Grid. Es nutzt geographisch verteilte Datenpools, daneben können auch Data Warehouses oder digitale Bibliotheken eingebunden werden.

Zahlreicher als reine Data Grids sind Grids, bei denen geographisch verteilte Daten rechenintensiv bearbeitet werden. Dabei werden die Daten mit zusätzlicher verteilter Rechenkapazität über WWW-Schnittstellen gleich verarbeitet.

Computational Grids und Data Grids können unter Resource Grids subsumiert werden. Die allgemeinen Eigenschaften dieser Grids sind, dass sie Betriebssmittel für verteilte Anwendungen bereitstellen.

Service Grids

Der zweite, wichtige Typ von Grids neben Resource Grids sind Service Grids. Ein Service Grid ist abstrakter als ein Resource Grid – es bildet die Betriebsmittel der Resource Grids auf eine höhere Ebene ab. In einem Service Grid treten damit die Ressourcen selbst nicht mehr in Erscheinung - auch nicht in virtualisierter Form. Gegenüber den Benutzern werden nur noch „Dienste“ angeboten, die bei der Auftragsbearbeitung auf die geeigneten Ressourcen zugreifen. Für ein Service Grid sind Standards wie OGSA, XML, SOAP, UDDI, WSDL und WSRF relevant.

Service Grids werden häufig mit einem Rollenmodell assoziiert, in dem verschiedene Resource-Provider ihre Ressourcen als „Utilities“ in das System einbringen. Der Grid-Service-Provider übernimmt den Nutzungsservice, definiert das Dienste-Spektrum und rechnet sowohl gegenüber den Resource-Providern als auch gegenüber den Benutzern ab. Service Grids werden von bestimmten IT-Dienstleistern wie Sun oder IBM angeboten.

Information Grids

Ein Information Grid schließlich als dritter Gridtyp liefert lediglich Daten. Das Internet mit den darauf aufsetzenden Diensten wie WWW, FTP usw. kann als universelles und omnipotentes Information Grid betrachtet werden, wobei die Informationen beispielsweise HTML-Seiten, CGI-Skripte oder Files sein können.

Die folgende Abbildung zeigt den Zusammenhang zwischen Resource Grid, Service Grid und Information Grid noch einmal grafisch auf.

Grid Computing erlebt derzeit einen regelrechten Boom. Eine ganze Reihe von wissenschaftlichen und Industrie-Projekten befasst sich mit dem Thema. So will zum Beispiel das vom Bundesministerium für Bildung und Forschung geförderte Projekt D-Grid eine deutsche Grid-Infrastruktur schaffen. Weitere Grid-Initiativen finden Sie beim BMFW.

Eine ausführliche, sehr übersichtliche deutschsprachige Liste mit Grid-Projekten aus verschiedenen Wissenschaftsdisziplinen finden Sie hier. Weitere Übersichten finden Sie hier und hier. Auch Software-Konzerne wie IBM, Sun und Oracle betreiben Grid-Projekte. Detaillierte Informationen darüber und zu Grid-Computing Protokollen und Anwendungen finden Sie im Beitrag Grid Computing, der in den nächsten Wochen bei tecCHANNEL erscheint.

Distributed Computing

Recht fließend geht Grid Computing in Distributed Computing (DC) über. Beim „Verteilten Rechnen“ delegiert ein zentraler Server Rechenaufgaben auf mehrere, unter Umständen weltweit verteilte Clients. Aus den Teilergebnissen ermittelt ein Zentralrechner das Gesamtergebnis.

DC und Computational Grids sind eng verwandt. Gelegentlich werden beide Begriffe auch als synonym behandelt, denn in beiden Fällen geht es vorrangig um die Verteilung von Rechenleistung. DC-Projekte nutzen allerdings in der Regel eigene Protokolle, die weder offen noch standardisiert sind und auf den speziellen Zweck zugeschnitten sind. Zudem läuft DC immer über eine zentrale Instanz, die die Aufgaben verteilt und die Ergebnisse wieder zusammen setzt.

Distributed Computing: Prinzip

Für gewöhnlich wird für Distributed Computing das Internet als Kommunikationsmedium genutzt. Die populären Projekte gehen dabei nach folgendem Prinzip vor: Jeder Netzuser, der Interesse hat, kostenlose CPU-Leistung seines Rechners zu spenden, lädt die Projekt-Software herunter und installiert sie auf seinem PC. Das Programm läuft im Hintergrund und bedient sich des Rechners nur dann, wenn CPU-Leistung zur Verfügung steht - wenn also der PC gerade nicht oder nur mäßig benutzt wird.

Während dieser Zeit bearbeitet der Rechner eine einzelne Teilaufgabe des Projektes. Nach der Fertigstellung dieser Teilaufgabe wird das Ergebnis per Internet an den Zentral-Server geschickt, der die Teilberechnung auswertet und in den Gesamtprozess integriert.

Nach Empfang der Daten übergibt der Zentral-Server dem Programm auf dem teilnehmenden Rechner eine neue Aufgabe per Datenleitung. In der Regel wickelt das Client-Programm die komplette Verarbeitung selbständig ab, einschließlich Wiederaufnahme der Berechnung bei Unterbrechung und Übermittlung des Ergebnisses.

Distributed Computing: Projekte

Verteiltes Rechnen hat vor allem im wissenschaftlichen Bereich Einzug gehalten. Eines der ersten Projekte, das die Technik des verteilten Rechnens nutzte, war SETI@home von der University of California. SETI@home sucht nach Signalen in radioastronomischen Daten, die von außerirdischen Intelligenzen stammen könnten und verwendet hierzu die ungenutzte Rechenleistung angeschlossener Internet-Clients.

Ein anderes populäres DC-Projekt ist Folding at home (deutsche Site), bei dem die Faltung von Proteinen berechnet wird. Die Proteinfaltung und die Proteinaggregation sind sehr rechenintensive Vorgänge. Die entsprechenden Algorithmen werden in dem Projekt so verteilt, dass für jeden Computer, der an dem Projekt teilnimmt, eine angemessene Zunahme der Simulationsgeschwindigkeit erreicht wird.

Ein drittes Beispiel ist das Krebsforschungsprojekt auf der Grid.org-Plattform, welches in Zusammenarbeit mit dem Centre for Computational Drug Discovery der Oxford University sowie der National Foundation for Cancer Research (NFCR) entstand, und bei dem nahezu drei Millionen PCs an der Sichtung von erfolgversprechenden Molekülen für Krebstherapeutika mitwirkten. Das laufende Projekt hatte bis Oktober 2005 mehr als 440.000 CPU-Jahre gerechnet.

Auch in Mathematik und Informatik hilft die Verteilung von Rechenleistung bei der Lösung von Problemen. „Global Internet Mersennee Prime Search“ sucht mit Hilfe von Distributed Computing nach der so genannten mersenneschen Primzahl, RC5-72 will einen 72 Bit langen RC5-kodierten Schlüssel knacken.

Peer-to-Peer-Netzwerke

Seit Napster und Co. sind Peer-to-Peer-Netzwerke hinlänglich bekannt. Hinter dem Schlagwort Peer-to-Peer verbirgt sich aber mehr als nur die beliebten, aber zwielichtigen Filesharing-Systeme - nämlich Netzwerke, die auf den Prinzipien Dezentralität und Selbstorganisation aufbauen.

Peer-to-Peer-Netzwerke kommen grundsätzlich ohne zentrale Kontrollinstanz kommen aus – was sie von den anderen Verbundrechenarten grundlegend unterscheidet. Sie bestehen aus einem Netz gleichberechtigter Rechner, bei denen jeder Knoten gleichzeitig die Client- und Server-Rolle inne hat. Die Kommunikation erfolgt ohne Umwege direkt miteinander.

Allerdings können P2P-Netze auch in hybrider Form existieren, bei denen die Teilnehmer mit einem zentralen Server kommunizieren. Diese zentral organisierten Systeme beinhalten entweder einen Discovery-Server, der beim Auffinden weiterer Peers hilft, oder aus einem Discovery- und Look-up-Server. Letzterer hält dabei eine Liste von Dateien im Netz vor, so dass das Suchen und Beziehen von Daten im Netz beschleunigt wird.

Vor- und Nachteile von P2P

P2P-Netzwerke versprechen im Vergleich zu klassischen Client-Server-Architekturen eine bessere Skalierbarkeit, niedrigere IT-Betriebskosten, selbstorganisierte und dezentrale Koordination von bislang unausgelasteten oder limitierten Ressourcen, höhere Fehlertoleranz sowie eine bessere Unterstützung spontaner Vernetzung und Kommunikation. Dem stehen als Nachteile gegenüber, dass bei P2P-Netzen die Zuverlässigkeit fehlt, eine zentrale Datensicherung unmöglich ist und die Administration nicht von Profis erledigt wird.

Dafür erschließen sich durch P2P-Netzwerke neue Anwendungsszenarien, die mit herkömmlichen Ansätzen kaum praktikabel realisierbar sind. Derzeit beschränken sich existierende Anwendungen vor allem auf Filesharing und Zusammenarbeit (Collaboration).

Die aktuellen Filesharing-Projekte wie Gnutella und Kazaa basieren auf dem Konzept des rein dezentralen Peer-to-Peer und enthalten keine zentralen Server. Napster hingegen bestand ursprünglich aus einem hybriden Peer-to-Peer-Verbund. Dass sich ein rein dezentraler Ansatz hier durchgesetzt hat, hat einen einsichtigen Grund: Ein Netz ohne zentrale Instanz erschwert Überwachungsversuche und Zensur und begünstigt die Anonymität der Teilnehmer.

Collaboration

Neben Filesharing ist derzeit auch Collaboration eine Domäne von P2P-Netzen. Ein Beispiel, wie Zusammenarbeit auf P2P-Basis aussehen kann, ist das Freenet-Projekt, derzeit noch im Beta-Stadium. Freenet will Daten aller Art über das Internet anonym verbreiten. Jeder Rechner tritt dabei über eine frei erhältliche Java-Software dem dezentral organisierten Peer-to-Peer-Verbund bei.

Neben der Veröffentlichung von Informationen eignet sich Freenet auch zur zeitversetzten Kommunikation, das heißt, sowohl E-Mail-Systeme als auch Diskussionsforen können sinnvoll auf Freenet aufbauen. Eine deutschsprachige Beschreibung des Projektes finden Sie hier.

Fazit

Cluster, Grid, Distributed Computing und P2P Netzwerke setzen auf Vernetzung, haben ansonsten aber nicht viel gemeinsam. Distributed Computing hat vor allem im wissenschaftlichen Bereich seine Domäne, P2P-Netzwerke bilden derzeit die Infrastruktur von privaten Tauschbörsen, Cluster und Grids sind eher auf Unternehmensbedürfnisse zugeschnitten.

Während Cluster aber schon seit vielen Jahren etabliert sind, müssen Grids ihre Erwartungen erst erfüllen. Noch dominieren hier wissenschaftliche Anwendungen, doch Experten erwarten von der Technologie umwerfende Umwälzungen in der kommerziellen IT. (hal)

Die folgende Tabelle zeigt abschließend noch einmal im Überblick alle wesentlichen Parameter der vier Rechnerverbünde.

Cluster, Grid-, Distributed Computing und P2P im Vergleich

Cluster

Grid

Distributed Computing

P2P

Ziel

Hochverfügbarkeit, Rechenleistung, Lastverteilung

Integration und Nutzung verteilter Ressourcen

Verteiltes Rechnen, eine Zentrale verteilt die Aufgaben

Dezentraler Datenaustausch, Kommunikation und Zusammenarbeit

Verbindung

Ethernet oder Highspeed-Netze

Internet

Internet

Internet

Teilnehmer-Verteilung

Gebäude, Firmengelände

Weltweit

Weltweit

Weltweit