Große Daten ganz klein

„Lassen Sie uns über das Wetter sprechen“, sagt Clemens-August Thole vom Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen SCAI in St. Augustin: „Ab 2008 wird beim Deutschen Wetterdienst die Prognose für die kommenden Tage etwa 20 Mal vorausberechnet. Da entstehen im Jahr etwa 2,5 Petabyte an Daten.“

Ein Petabyte entspricht etwa 2 000 Festplatten mit 500 Gigabyte Speicherplatz. Um diese Menge klein zu kriegen, hat Thole mit seinem Team eine Software entwickelt, die Wetterdaten im Grib-Format um den Faktor 2,5 reduzieren.

„Für die Simulationen wird Deutschland mit einen Netz von Gitterpunkten überzogen“, so Prof. Dr. Rudolph Lorentz. „Die Simula-tionsergebnisse an benachbarten Punkten sind nicht unabhängig voneinander. So reicht es, wenn wir die Werte an einem Gitterpunkt gut vorhersagen können, um die Datengröße wesentlich zu reduzieren.“

Auch aus der Automobilindustrie sind Simulationen nicht mehr wegzudenken. Allerdings benötigt bereits ein virtueller Crash mehrere Gigabyte Speicherplatz. „Pro Tag fährt so ein Modell etwa 100 bis 150 Mal im Rechner gegen die Wand“, sagt Rodrigo Iza-Teran. Da kommen schnell Daten von 100 Terabyte und mehr zusammen. Als ersten Schritt für die Kompression geben die Entwicklungs-Ingenieure die Genauigkeit der gespeicherten Daten vor, zum Beispiel ein Millimeter für Fahrzeugcrashs. Bei diesem Quantisieren wird bewusst ein Datenverlust in Kauf genommen.

Alle weiteren Komprimierungsschritte sind verlustfrei, das heißt die Daten lassen sich wieder 1:1 herstellen. Je nach Anwenderbedarf können die Wissenschaftler von SCAI eine Kompression um den Faktor 10, 7 oder 5 anbieten. „Der Ansatz ähnelt der Videocodierung“, sagt Thole. „Ein Trick besteht darin, zu ermitteln welche Bauteile sich bewegen ohne sich zu deformieren. Ein anderer ist, die sich verändernden Inhalte möglichst gut vorherzusagen.“ Fast alle deutschen Automobilhersteller setzen die Software ein. Grund: Sie sparen wertvollen Speicherplatz und der Datenaustausch läuft reibungslos. Zudem lassen sich komprimierte Daten einfacher und schneller visualisieren. Die Dekompression ist mittlerweile in viele Postprocessoren integriert, so dass sich die Files ohne einen Zwischenschritt zum Entzippen öffnen.

Für ihre Entwicklung zur Kompression von Simulationsergebnissen erhalten Rodrigo Iza-Teran, Prof. Dr. Rudolph Lorentz und Clemens-August Thole den Joseph-von-Fraunhofer-Preis 2007. Die Jury überzeugte zum einen die hervorragenden mathematischen Methoden und zum anderen der große Erfolg, den die Kompressionsverfahren bei den Anwendern erzielt haben.

Media Contact

Dr. Janine Drexler Fraunhofer-Gesellschaft

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Neue universelle lichtbasierte Technik zur Kontrolle der Talpolarisation

Ein internationales Forscherteam berichtet in Nature über eine neue Methode, mit der zum ersten Mal die Talpolarisation in zentrosymmetrischen Bulk-Materialien auf eine nicht materialspezifische Weise erreicht wird. Diese „universelle Technik“…

Tumorzellen hebeln das Immunsystem früh aus

Neu entdeckter Mechanismus könnte Krebs-Immuntherapien deutlich verbessern. Tumore verhindern aktiv, dass sich Immunantworten durch sogenannte zytotoxische T-Zellen bilden, die den Krebs bekämpfen könnten. Wie das genau geschieht, beschreiben jetzt erstmals…

Immunzellen in den Startlöchern: „Allzeit bereit“ ist harte Arbeit

Wenn Krankheitserreger in den Körper eindringen, muss das Immunsystem sofort reagieren und eine Infektion verhindern oder eindämmen. Doch wie halten sich unsere Abwehrzellen bereit, wenn kein Angreifer in Sicht ist?…

Partner & Förderer