Digitale Superhirne verarbeiten Milliarden Flops

Dass die Datenvolumina in Unternehmen wachsen, ist unumstritten. Informationen im zweistelligen Terabyte-Bereich sind längst keine Seltenheit mehr und stellen auch neue Herausforderungen an Rechnerleistung und Kapazitäten. Ein Thema, mit dem sich auch die Wissenschaft bei der Entwicklung so genannter Super-Computer auseinander setzt. Insgesamt seien nach Angaben des Branchendienstes Primeur Live (http://www.hoise.com/) hierzulande unglaubliche 20 Flops an Rechenleistung installiert – das entspricht 20 Billionen oder 20.000 Milliarden Operationen in der Sekunde. Die in Fachkreisen „Numbercruncher“ genannten Riesenrechner stehen etwa beim Deutschen Wetteramt in Offenbach, in den Rechenzentren der Universitäten Heidelberg und Hannover, am Konrad-Zuse-Zentrum für die Informationstechnik in Berlin oder bei BMW in München.

Die Hochleistungscomputer lösen umfangreiche mathematische Probleme für Strömungs-Simulationen, Klimaforschung, Wettervorhersagen, virtuelle Crashtests, Simulationen von Atombombentests, Astrophysik oder medizinische Forschung. Doch auch in der Telekommunikation und im Bankenwesen wird immer öfter High Performance Computing (HPC) angewendet.

Spitzenreiter aus Japan

In Deutschland und Europa gibt es keine HPC-Industrie. Allerdings findet die wichtigste europäische Supercomputer-Konferenz alljährlich in Heidelberg statt (http://www.supercomp.de/). Zu diesem Anlass präsentierte Organisator Hans-Werner Meuer, Professor an der Universität Mannheim, auch dieses Jahr die Top-500 der schnellsten Rechner der Welt (http://www.top500.org/). Einsamer Spitzenreiter ist momentan der Klimarechner „Earth Simulator“ von NEC mit einer Rechenleistung von 35 TFlops. Der Koloss, für den eigens ein neues Gebäude in Tokyo errichtet wurde, verbindet verschiedene komplexe Simulationssysteme miteinander. So wird das Klima mit den globalen Wasserläufen und Ozeanen in ein Modell integriert. „Der Earth Simulator rechnet etwa fünfmal schneller als die Nummer 2 des Rankings, ASCI White von Intel“, kommentiert Meuer. Anders als ihre amerikanischen Mitbewerber setzen die Japaner auf Vektorverarbeitung. Meuers Einschätzung lautet: „Nach Numerical Wind Tunnel von Fujitsu ist erstmals seit 1995 wieder ein Vektorrechner das schnellste System. Ich gehe davon aus, dass der Earth Simulator seine Top-Position wie damals das Fujitsu-Modell für mindestens zwei Jahre halten kann.“

Neue Speicherdimensionen

Natürlich müssen die Ergebnisse der umfangreichen Berechnungen auch entsprechend gespeichert werden. Viele HPC-Rechner verfügen über integrierte Speicherfunktionen. Diese proprietären Lösungen genügen heutigen Anforderungen nach Online-Verteilung der Informationen und Höchstverfügbarkeit oft nicht mehr. Für den schnellsten Superrechner Europas bei der Französischen Atomenergiekommission (CEA) laufen 50 Terabyte Daten über ein dediziertes Storage Area Network (SAN) in eigens entwickelte Plattensysteme. In Maryland entsteht für den Biokonzern Applera (http://www.applera.com/) momentan eines der größten Hochleistungsrechenzentren für Bioinformatik. EMC realisiert dort eine automatisierte und vernetzte Speicherinfrastruktur für 150 Terabyte Kapazität (zur Pressemeldung). Dazu Tama Olver, CIO bei Applera: „Informationen können in offenen Umgebungen besser, verlässlicher und effizienter verteilt werden. Dazu sind vernetzte Lösungen mit hoch performanten Speichersystemen und innovativer Speicher-Software nötig.“

Die astronomischen Informationsvolumina in der Bioinformatik entstehen unter anderem bei der Entschlüsselung der menschlichen Genstruktur. Ohne die Hilfe von Superrechnern kann die Datenflut zum menschlichen Erbgut nicht bewältigt werden. Der HPC-Hersteller IBM kündigt deshalb für 2005 die nächsten Superlative an. Dann soll die schnellste Rechenmaschine der Welt „Blue Gene“ vorgestellt werden. Eine Billiarde Rechenoperationen wird das System mit einer Million Prozessoren abarbeiten. Damit ist der Supercomputer 80.000 mal schneller, als der Rechner, der Gari Casparov 1997 im Schach besiegt hat.

Media Contact

EMC

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Diamantstaub leuchtet hell in Magnetresonanztomographie

Mögliche Alternative zum weit verbreiteten Kontrastmittel Gadolinium. Eine unerwartete Entdeckung machte eine Wissenschaftlerin des Max-Planck-Instituts für Intelligente Systeme in Stuttgart: Nanometerkleine Diamantpartikel, die eigentlich für einen ganz anderen Zweck bestimmt…

Neue Spule für 7-Tesla MRT | Kopf und Hals gleichzeitig darstellen

Die Magnetresonanztomographie (MRT) ermöglicht detaillierte Einblicke in den Körper. Vor allem die Ultrahochfeld-Bildgebung mit Magnetfeldstärken von 7 Tesla und höher macht feinste anatomische Strukturen und funktionelle Prozesse sichtbar. Doch alleine…

Hybrid-Energiespeichersystem für moderne Energienetze

Projekt HyFlow: Leistungsfähiges, nachhaltiges und kostengünstiges Hybrid-Energiespeichersystem für moderne Energienetze. In drei Jahren Forschungsarbeit hat das Konsortium des EU-Projekts HyFlow ein extrem leistungsfähiges, nachhaltiges und kostengünstiges Hybrid-Energiespeichersystem entwickelt, das einen…

Partner & Förderer