Dafür werden heute Tausende von Prozessoren auf einer Plattform zusammen geschaltet. Doch wenn viele Computer parallel an einer Aufgabe rechnen, werden sie nicht automatisch schneller, denn häufig ist ihre Software dafür gar nicht ausgelegt.
Noch vor wenigen Jahren konnte man davon ausgehen, dass Computerprogramme mit jeder neuen Rechnergenerationen schneller wurden.
Mit den immer kleineren Prozessoren stieß man jedoch an physikalische Grenzen, so dass die Chipindustrie dazu überging, die Rechner mit mehreren Prozessorkernen auszustatten. Für besonders rechenintensive Aufgaben werden zudem tausende Computer in Hochleistungsnetzwerken zusammengeschlossen. „Das Problem dabei ist, dass die Programmiersprachen und Werkzeuge, mit denen wir die neuen Rechnerarchitekturen programmieren, auf rund vierzig Jahre alten Rechenmodellen beruhen. Damals haben die Computer aber noch nicht mehrere Millionen Aufgaben parallel berechnen können“, erklärt Sebastian Hack, Professor für Programmierung der Universität des Saarlandes und Forscher am Intel Visual Computing Institute der Saar-Uni.
Nach Meinung von Sebastian Hack nutzen die Computerprogramme heute die Möglichkeit der Hardware, viele Probleme gleichzeitig zu bearbeiten, noch viel zu wenig aus. Oftmals entstünden auch Engpässe und Flaschenhälse im System, weil Daten nicht schnell genug aus den zahlreichen Arbeitsspeichern geladen werden oder schon gelöste Aufgaben auf die Weiterbearbeitung warten. „Man stelle sich vor, ein Kochrezept wird nicht nur von einem Koch befolgt, sondern soll gleichzeitig von zehn Köchen in einer Küche umgesetzt werden. Da muss auch erst geklärt werden, wer welchen Kochtopf benutzen darf und ob die Vorräte für alle ausreichen“, vergleicht der Informatiker. Bei zehn Arbeitsschritten eines Kochrezeptes ginge das noch einfach, nicht aber bei Hundert Millionen Rechenaufgaben, die etwa für die Vorhersage eines Hurrikans in Sekundenschnelle gelöst werden müssten.
Die Computersimulation von physikalischen Modellen, die etwa auch der Medizin und Pharmazie wichtige Erkenntnisse bringen, benötigt daher noch viel Handarbeit. So muss die Simulationssoftware immer wieder individuell an die Anforderungen der Hochleistungsrechner angepasst werden. „Hier setzt unser Forschungsprojekt an: Wir wollen durch neue Methoden und Werkzeuge diese Anpassung vereinfachen und zum Teil automatisieren. Da die zu lösenden Aufgaben meist sehr komplex sind, werden wir den Programmierer nicht ersetzen können, wir werden aber seine Arbeit erleichtern und beschleunigen können“, meint Sebastian Hack. Im Visier haben die Forscher dabei vor allem die Compiler, die vom Menschen geschriebene Programme in eine dem Rechner verständliche Sprache übersetzen. „Es ist nahezu unmöglich, die verfügbare Rechenleistung automatisch auszunutzen. Das erfordert normalerweise einen mühsamen und kostspieligen manuellen Prozess, dessen Ergebnisse man mit einer neuen Rechnergeneration wieder wegwerfen muss. Genau diesen Prozess wollen wir effizienter gestalten, in dem wir dem Programmierer die richtigen Werkzeuge an die Hand geben.“, erläutert der Informatiker.
An dem von der Bundesregierung geförderten Forschungsprojekt arbeiten neben der Forschergruppe von Professor Hack auch Wissenschaftler im Team von Computergraphik-Professor Philipp Slusallek am Intel Visual Computing Institute (IVCI) der Universität des Saarlandes und am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) mit. Außerdem sind Forscher der Universität Mainz und des Karlsruher Institut für Technologie (KIT) beteiligt. Die Federführung hat das Höchstleistungsrechenzentrum der Universität Stuttgart (HLRS). Neben den Forschungsinstituten sind außerdem mehrere große Industriepartner beteiligt, nämlich der amerikanische Hersteller von Superrechnern, die Firma Cray Computer (Deutschland), das Pharma-Unternehmen Böhringer Ingelheim sowie die Firma RTT, die mit der Raytracing-Technologie hoch auflösende Computergraphik erstellt. Das Forschungsprojekt mit dem Titel „Effiziente und offene Compiler-Umgebung für semantisch annotierte parallele Simulation“ (ECOUSS) ist auf drei Jahre angelegt und wird mit 1,69 Millionen Euro vom Bundesforschungsministerium gefördert. Rund 600.000 Euro davon fließen an das IVCI der Universität des Saarlandes und weitere 400.000 Euro an das DFKI in Saarbrücken.
Fragen beantworten:
Sebastian Hack, Professor für Programmierung der Universität des Saarlandes
Friederike Meyer zu Tittingdorf | idw
Weitere Informationen:
http://www.uni-saarland.de
Weitere Berichte zu: > Computergraphik > Computerprogramm > DFKI > Hochleistungsrechner > IVCI > Kochrezept > Pervasive Computing > Programmierung > Prozessor > Rechner > Rechnerarchitektur > Rechnergeneration > Visual C++ > Visual Computing > Visual Contour Digitizer > Werkzeug
Industrie 4.0: Fremde Eindringlinge im Unternehmensnetz erkennen
16.04.2018 | Fraunhofer-Institut für Sichere Informationstechnologie SIT
Die Thermodynamik des Rechnens
11.04.2018 | Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Ein computergestütztes Netzwerk zeigt, wie die Ionenkanäle in der Membran von Nervenzellen so verschiedenartige Fähigkeiten wie Kurzzeitgedächtnis und Hirnwellen steuern können
Nervenzellen, die auch dann aktiv sind, wenn der auslösende Reiz verstummt ist, sind die Grundlage für ein Kurzzeitgedächtnis. Durch rhythmisch aktive...
Von einer einzigen Stammzelle zur Vielzahl hochdifferenzierter Körperzellen: Den vollständigen Stammbaum eines ausgewachsenen Organismus haben Wissenschaftlerinnen und Wissenschaftler aus Berlin und München in „Science“ publiziert. Entscheidend war der kombinierte Einsatz von RNA- und computerbasierten Technologien.
Wie werden aus einheitlichen Stammzellen komplexe Körperzellen mit sehr unterschiedlichen Funktionen? Die Differenzierung von Stammzellen in verschiedenste...
University of Connecticut researchers have created a biodegradable composite made of silk fibers that can be used to repair broken load-bearing bones without the complications sometimes presented by other materials.
Repairing major load-bearing bones such as those in the leg can be a long and uncomfortable process.
Polymer-Leuchtdioden (PLEDs) sind attraktiv für den Einsatz in großflächigen Displays und Lichtpanelen, aber ihre begrenzte Stabilität verhindert die Kommerzialisierung. Wissenschaftler aus dem Max-Planck-Institut für Polymerforschung (MPIP) in Mainz haben jetzt die Ursachen der Instabilität aufgedeckt.
Bildschirme und Smartphones, die gerollt und hochgeklappt werden können, sind Anwendungen, die in Zukunft durch die Entwicklung von polymerbasierten...
Study published in the journal ACS Applied Materials & Interfaces is the outcome of an international effort that included teams from Dresden and Berlin in Germany, and the US.
Scientists at the Helmholtz-Zentrum Dresden-Rossendorf (HZDR) together with colleagues from the Helmholtz-Zentrum Berlin (HZB) and the University of Virginia...
Anzeige
Anzeige
Internationale Konferenz zur Digitalisierung
19.04.2018 | Veranstaltungen
124. Internistenkongress in Mannheim: Internisten rücken Altersmedizin in den Fokus
19.04.2018 | Veranstaltungen
DFG unterstützt Kongresse und Tagungen - Juni 2018
17.04.2018 | Veranstaltungen
Grösster Elektrolaster der Welt nimmt Arbeit auf
20.04.2018 | Interdisziplinäre Forschung
Bilder magnetischer Strukturen auf der Nano-Skala
20.04.2018 | Physik Astronomie
Kieler Forschende entschlüsseln neuen Baustein in der Entwicklung des globalen Klimas
20.04.2018 | Geowissenschaften