Das Grid kennt keine Grenzen

Erst geht es langsam. Und dann ganz schnell. Grid-Computing galt in der Öffentlichkeit lange als eine Art Bermuda-Dreieck der Informationstechnologie – es schien nur Ressourcen zu schlucken und wenige Ergebnisse zu produzieren. Doch weltweit haben Wissenschaftler einen Knoten nach dem anderen geknüpft, um räumlich weit verstreute Computer zur Bewältigung gewaltiger Datenmengen zu vernetzen. Zwei Einrichtungen der Helmholtz-Gemeinschaft, die Forschungszentren Jülich und Karlsruhe, sind maßgeblich daran beteiligt. Inzwischen stehen mehrere Grid-Systeme bereits in oder kurz vor der praktischen Anwendung und zeigen, welches große Potenzial in Grid-Computing steckt. Rechner-Kapazität aus der Steckdose.

Den Anfang der Grid-Idee bildete eine große Vision: Rechen- und Speicherkapazität sollten zur Verfügung stehen wie Strom aus der Steckdose oder Wasser aus der Leitung. Daher auch das Wort Grid. Es heißt „Gitter“ und wird im Englischen oft für Strom- oder Wassernetze benutzt. Daran wollten die US-Wissenschaftler Ian Foster und Carl Kesselmann bewusst erinnern, als sie 1998 mit ihrem Buch „The Grid: Blueprint for a New Computing Infrastructure“ den Begriff einführten.

Die Infrastruktur für ein weltumspannendes Grid gibt es eigentlich schon. Es ist das Internet sowie die daran angeschlossenen Computer. Vor allem für viele PCs gilt, dass deren Rechenkapazität nur zu Bruchteilen ausgeschöpft wird. Auf dieser Erkenntnis beruht beispielsweise SETI@home, eine der ersten praktischen Anwendungen eines Grid-Computing-Konzeptes. Search for Extraterrestrial Intelligence (SETI) – also Suche nach außerirdischer Intelligenz – ist ein Forschungsprojekt, bei dem die Daten von Radioteleskopen nach Funksignalen einer außerirdischen Zivilisation untersucht werden. Dazu nutzt SETI mit Hilfe der Grid-Software SETI@home die Kapazität privater PCs in der ganzen Welt.

Was einer nicht kann, schaffen viele gemeinsam

Grid-Computing könnte immer da zum Einsatz kommen, wo so große Datenmengen anfallen, dass einzelne Rechner oder lokale Rechner-Netze überfordert sind. Das ist zum Beispiel bei aufwändigen Simulationen der Fall, etwa für die Meteorologie. Auch die Elementarteilchenforschung erzeugt wahre Datenfluten. Deswegen wird zurzeit ein globales Grid für den neuen Teilchenbeschleuniger (Large Hadron Collider, LHC) geknüpft, der am Centre Européenne pour la Recherche Nucléaire (CERN), der Europäischen Organisation für Kernforschung in Genf entsteht. Das Forschungszentrum Karlsruhe ist der wichtigste deutsche Partner beim Aufbau dieses Netzes. Das Forschungszentrum Jülich hingegen beschäftigt sich mit der Entwicklung der UNICORE-Software. Sie wird einen einheitlichen und sicheren Zugang zu Grid-Ressourcen wie beispielsweise Hochleistungscomputern und großen Datenspeichern sowie die koordinierte Nutzung im Rahmen komplexer Workflows ermöglichen.

Wie reden elektronische Superhirne miteinander?

UNICORE ist sozusagen die gemeinsame Sprache – die Middleware – für die Zentralhirne unter den europäischen Höchstleistungscomputern. Das europäische Forschungsprojekt DEISA (Distributed European Infrastructure for Supercomputing Applications) verknüpft elf Rechenzentren zu einem europäischen Verbund. Eines dieser Zentren ist das Zentralinstitut für angewandte Mathematik (ZAM) am Forschungszentrum Jülich der Helmholtz-Gemeinschaft. Die dort entwickelte Software UNICORE sorgt im DEISA Projekt für das Datenmanagement und macht den Anwendern den Zugriff auf die unterschiedlichen Anwendungen und die Höchstleistungscomputer der DEISA Partner möglich.

Dietmar Erwin vom Forschungszentrum Jülich erläutert: „Aktuell koordinieren wir das europäische UniGrids Projekt. Dabei wird die nächste Generation von UNICORE entwickelt.“ Unicore/GS (für Grid Services) soll zum kommenden Standard der Grid-Welt kompatibel sein. So können später einmal unterschiedliche Grid-Systeme kooperieren. UNICORE ist als Open-Source-Software frei verfügbar. Im Gegensatz dazu sind kommerziell genutzte Software-Systeme häufig mit Lizenzen geschützt. „Solche Lizenzbeschränkungen werden in der wissenschaftlichen Welt schon durch die Richtlinien für die Vergabe von Fördergeldern ausgeschlossen“, erklärt Klaus-Peter Mickel vom Institut für Wissenschaftliches Rechnen am Forschungszentrum Karlsruhe. So kann jeder Wissenschaftler kostenlos von der Software profitieren.

Physiker werfen nichts weg

Die Karlsruher Wissenschaftler arbeiten an einem anderen Grid als ihre Jülicher Kollegen. Sie weben mit am Datennetz des neuen Teilchenbeschleunigers LHC am CERN. Er wird ab 2008 in jeder Sekunde so viele Daten erzeugen, wie auf eine CD passen. Diese Mengen müssen bewältigt und gespeichert werden – „denn Physiker werfen nichts weg“, weiß Mickel schmunzelnd zu berichten. Die Ressourcen dafür bietet ein weltumspannendes Grid. Es besteht aus vier Schichten, so genannten „Tiers“. Die erste Schicht bilden zehn internationale Großdatenzentren, von denen das Forschungszentrum Karlsruhe eines ist. Ende April erst hat das Hochleistungsnetz zwischen sieben dieser Zentren einen wichtigen Test bestanden: Vom CERN floss zehn Tage lang ein kontinuierlicher Datenstrom mit durchschnittlich 600 Megabyte pro Sekunde. Zum Vergleich: Eine übliche DSL-Leitung schafft nur den 4800sten Teil davon, nämlich etwa 0,125 Megabyte pro Sekunde.

An die Großdatenzentren schließen sich als zweite Schicht hundert mittelgroße Computerzentren sowie – in der dritten Schicht – tausend kleinere Rechenzentren an. Alle diese Computer stehen weltweit verstreut, und von ihnen aus werden wiederum die Arbeitsplatzrechner der etwa 8000 beteiligten Wissenschaftler auf allen fünf Kontinenten bedient. Von dieser enormen Rechenkapazität profitieren dann Forscher in Afrika ebenso wie in Europa oder Australien – das Grid kennt keine Grenzen.

Media Contact

Dietmar Erwin Helmholtz-Gemeinschaft

Weitere Informationen:

http://www.helmholtz.de

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Bakterien für klimaneutrale Chemikalien der Zukunft

For­schen­de an der ETH Zü­rich ha­ben Bak­te­ri­en im La­bor so her­an­ge­züch­tet, dass sie Me­tha­nol ef­fi­zi­ent ver­wer­ten kön­nen. Jetzt lässt sich der Stoff­wech­sel die­ser Bak­te­ri­en an­zap­fen, um wert­vol­le Pro­duk­te her­zu­stel­len, die…

Batterien: Heute die Materialien von morgen modellieren

Welche Faktoren bestimmen, wie schnell sich eine Batterie laden lässt? Dieser und weiteren Fragen gehen Forschende am Karlsruher Institut für Technologie (KIT) mit computergestützten Simulationen nach. Mikrostrukturmodelle tragen dazu bei,…

Porosität von Sedimentgestein mit Neutronen untersucht

Forschung am FRM II zu geologischen Lagerstätten. Dauerhafte unterirdische Lagerung von CO2 Poren so klein wie Bakterien Porenmessung mit Neutronen auf den Nanometer genau Ob Sedimentgesteine fossile Kohlenwasserstoffe speichern können…

Partner & Förderer