Grid Computing

Definition - Was bedeutet Grid Computing?

Grid Computing ist eine Prozessorarchitektur, die Computerressourcen aus verschiedenen Domänen kombiniert, um ein Hauptziel zu erreichen. Beim Grid-Computing können die Computer im Netzwerk gemeinsam an einer Aufgabe arbeiten und somit als Supercomputer fungieren.

In der Regel arbeitet ein Grid an verschiedenen Aufgaben innerhalb eines Netzwerks, kann aber auch an speziellen Anwendungen arbeiten. Es wurde entwickelt, um Probleme zu lösen, die für einen Supercomputer zu groß sind, und gleichzeitig die Flexibilität zu bewahren, zahlreiche kleinere Probleme zu verarbeiten. Computing Grids bieten eine Mehrbenutzerinfrastruktur, die den diskontinuierlichen Anforderungen einer großen Informationsverarbeitung gerecht wird.

Technische.me erklärt Grid Computing

Ein Grid ist durch parallele Knoten verbunden, die einen Computercluster bilden, der auf einem Betriebssystem, Linux oder freier Software ausgeführt wird. Die Größe des Clusters kann von einer kleinen Arbeitsstation bis zu mehreren Netzwerken variieren. Die Technologie wird über verschiedene Computerressourcen auf eine Vielzahl von Anwendungen angewendet, beispielsweise auf mathematische, wissenschaftliche oder pädagogische Aufgaben. Es wird häufig in Strukturanalysen, Webdiensten wie ATM-Banking, Back-Office-Infrastrukturen sowie in der Wissenschafts- oder Marketingforschung eingesetzt.

Die Idee des Grid Computing wurde erstmals Anfang der neunziger Jahre von Carl Kesselman, Ian Foster und Steve Tuecke ins Leben gerufen. Sie entwickelten den Globus Toolkit-Standard, der Raster für das Datenspeichermanagement, die Datenverarbeitung und das intensive Rechenmanagement enthielt.

Grid Computing besteht aus Anwendungen, die für Computerprobleme verwendet werden und in einer parallelen Netzwerkumgebung verbunden sind. Es verbindet jeden PC und kombiniert Informationen zu einer rechenintensiven Anwendung.

Grids verfügen über eine Vielzahl von Ressourcen, die auf unterschiedlichen Software- und Hardwarestrukturen, Computersprachen und Frameworks basieren, entweder in einem Netzwerk oder unter Verwendung offener Standards mit spezifischen Richtlinien, um ein gemeinsames Ziel zu erreichen.

Netzoperationen werden im Allgemeinen in zwei Kategorien eingeteilt:

  • Datenraster: Ein System, das große verteilte Datenmengen verarbeitet, die für die Datenverwaltung und die kontrollierte Benutzerfreigabe verwendet werden. Es werden virtuelle Umgebungen erstellt, die verteilte und organisierte Forschung unterstützen. Das Southern California Earthquake Center ist ein Beispiel für ein Datenraster. Es verwendet ein mittleres Softwaresystem, das eine digitale Bibliothek, ein verteiltes Dateisystem und ein fortlaufendes Archiv erstellt.
  • CPU Scavenging Grids: Ein Cycle Scavenging-System, das Projekte nach Bedarf von einem PC auf einen anderen verschiebt. Ein bekanntes CPU-Scavenging-Grid ist die Suche nach außerirdischen Intelligenzberechnungen, die mehr als drei Millionen Computer umfassen.

Grid Computing wird vom Global Grid Forum standardisiert und von der Globus Alliance mithilfe des Globus Toolkit angewendet, dem De-facto-Standard für Grid Middleware, der verschiedene Anwendungskomponenten enthält.

Die Grid-Architektur wendet das vom Global Grid Forum definierte Protokoll an, das Folgendes umfasst:

  • Netzsicherheitsinfrastruktur
  • Überwachungs- und Erkennungsdienst
  • Protokoll zur Zuweisung und Verwaltung von Netzressourcen
  • Globaler Zugriff auf Sekundärspeicher und GridFTP