Supercomputer für modernste Forschung

Die Max-Planck-Gesellschaft beschafft für das Rechenzentrum Garching einen IBM-Supercomputer. Die Installation des neuen Systems soll bis zum Jahr 2008 abgeschlossen sein. Der Supercomputer wird mit seiner Leistung von über 100 Billionen Rechenschritten pro Sekunde zur Lösung wissenschaftlicher Herausforderungen eingesetzt, die von der Erforschung der Anfänge des Universums bis hin zur Untersuchung nanophysikalischer Zusammenhänge reichen.

Ab dem Jahr 2008 wird ein neuer IBM-Supercomputer den Max-Planck-Wissenschaftlern helfen, komplexe und aufwändige Simulationen durchzuführen. „Mit dem neuen Supercomputer sind die Wissenschaftler in der Lage, wettbewerbsfähige und modernste Forschung auf dem Gebiet der numerischen Simulationen betreiben zu können“, erklärt Stefan Heinzel, Direktor des Rechenzentrums Garching, wo sich die neue Anlage befinden wird. Das Rechenzentrum Garching ist das gemeinsame Rechenzentrum der Max-Planck-Gesellschaft und des Max-Planck-Instituts für Plasmaphysik in Garching. Mit 45 Jahren Erfahrung im Supercomputerbereich zählt das Rechenzentrum Garching weltweit zu den zivilen Supercomputerzentren mit der längsten Tradition.

Der IBM-Supercomputer wird Forscher aus den verschiedensten wissenschaftlichen Disziplinen unterstützen – beispielsweise in den Materialwissenschaften. Hier soll der Supercomputer einen Beitrag zum besseren Verständnis der Eigenschaften und Funktionen von Nano-, Polymer- und Kolloid-Systemen und Membranen leisten. Außerdem soll er im Bereich des rechnergestützten Werkstoff-Designs und zur 3D-Mustererkennung in makromolekularen Systemen eingesetzt werden.

Wissenschaftler des Max-Planck-Instituts für Plasma-Physik werden das neue System für realistische Simulationen von Turbulenzen in Fusionsanlagen einsetzen, und damit einen Beitrag zur Energieforschung für das weltweit laufende „ITER“-Fusions-Projekt leisten. Astrophysikalische Projekte werden kosmologische Simulationen der Strukturentstehung des Universums umfassen, komplexe Interaktionsprozesse in Supernovae und deren Auswirkungen auf die Kosmologie, Gravitations-Kollapse und Gravitationsschwingungen, sowie kosmologische Tests zur Enthüllung des Geheimnisses der schwarzen Materie. Zudem soll die Erforschung der Gleichgewichtseigenschaften von neuen Quanten-Phasen in ungeordneten Quanten-Systemen zu neuen Erkenntnissen auf dem Gebiet quantenmechanischer Berechnungsmodelle, dem Quantum Computing, führen.

Die neue, Power-Prozessor-basierte Anlage der Max-Planck-Gesellschaft ist darauf ausgelegt, eine Höchstleistung von mehr als 100 TeraFlops/s, das sind 100 Billionen Rechenschritte pro Sekunde, zu erzielen. Es übertrifft damit die Leistung des momentan eingesetzten Supercomputing-Systems um bis zum Zwanzigfachen. Wenn die Installation der Anlage im Jahr 2008 abgeschlossen ist, wird sie zu den stärksten Supercomputern in Europa zählen. Ausgerüstet ist sie mit der neuen IBM-POWER6-Technik, der nächsten Stufe der IBM-POWER-Mikroprozessorfamilie – einem besonders leistungsfähigen System. Nicht zuletzt deshalb entschied sich die Max-Planck-Gesellschaft nach einer europäischen Ausschreibung schließlich für das Angebot des Unternehmens IBM. „Die neue Anlage ist ein weiteres Glied in einer langen Kette bahnbrechender IBM Supercomputer, von Deep Blue und ASCI White bis hin zu ASC Purple, und wird auf dem Gebiet des Supercomputings in Europa einen bedeutenden Fortschritt darstellen“, erklärt Dave Turek, Vice President, IBM Deep Computing. „IBM möchte als engagierter Partner die Max-Planck-Gesellschaft bei der Lösung einiger der herausfordernden, wissenschaftlichen Probleme der Menschheit unterstützen.“

Zusätzlich zum neuen Supercomputer erhält die Max-Planck-Gesellschaft die nächste Generation des IBM Blue Gene-Systems. Diese Technik ist optimiert für den Einsatz von hochskalierbaren und kommunikationsintensiven Anwendungen. „Noch wichtiger dabei ist,“ so Hermann Lederer, Leiter der Anwendungsunterstützung im Rechenzentrum Garching, „dass die nächste Generation des Blue Gene-Systems uns bei der Vorbereitung, Entwicklung und Optimierung von Anwendungen auf dem zukünftigen Gebiet des Peta-Scale-Computings behilflich sein wird.“ Peta Scale bedeutet Rechenleistungen bis zu Petaflops/s – das wären dann eine Billiarde Rechenschritte pro Sekunde.

Media Contact

Dr. Andreas Trepte Max-Planck-Gesellschaft

Weitere Informationen:

http://www.mpg.de

Alle Nachrichten aus der Kategorie: Bildung Wissenschaft

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Anlagenkonzepte für die Fertigung von Bipolarplatten, MEAs und Drucktanks

Grüner Wasserstoff zählt zu den Energieträgern der Zukunft. Um ihn in großen Mengen zu erzeugen, zu speichern und wieder in elektrische Energie zu wandeln, bedarf es effizienter und skalierbarer Fertigungsprozesse…

Ausfallsichere Dehnungssensoren ohne Stromverbrauch

Um die Sicherheit von Brücken, Kränen, Pipelines, Windrädern und vielem mehr zu überwachen, werden Dehnungssensoren benötigt. Eine grundlegend neue Technologie dafür haben Wissenschaftlerinnen und Wissenschaftler aus Bochum und Paderborn entwickelt….

Dauerlastfähige Wechselrichter

… ermöglichen deutliche Leistungssteigerung elektrischer Antriebe. Überhitzende Komponenten limitieren die Leistungsfähigkeit von Antriebssträngen bei Elektrofahrzeugen erheblich. Wechselrichtern fällt dabei eine große thermische Last zu, weshalb sie unter hohem Energieaufwand aktiv…

Partner & Förderer