Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Rechenleistung der Zukunft

26.06.2014

Mehr als 1.000 Prozessorkerne auf einem Chip – so sehen nach Meinung von Experten die Rechner der Zukunft aus.

Mit der Rechenleistung aber werden sich bei den neuen Vielkern-Prozessoren auch die Herausforderungen vervielfachen: Wie kann die Rechenleistung für hochgradig parallele Anwendungen nutzbar gemacht werden? Wie lässt sich die Ausführungszeit von Rechenoperationen verlässlich vorhersagen und planen? Wie kann man Hochleistungsrechnen energieeffizienter gestalten?

An diesen Fragen tüfteln Wissenschaftler von drei Hochschulen unter der Leitung der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Forschungsverbund „Invasives Rechnen“.

Der Sonderforschungsbereich/Transregio wird von der Deutschen Forschungsgemeinschaft (DFG) nun in einer weiteren Förderperiode mit 9,6 Millionen Euro unterstützt.

Eine immer größere Zahl an gleichzeitigen Rechenoperationen: in Supercomputern ist dies heute schon Alltag. Auf handelsüblichen Computern sind es heute lediglich bis zu acht Kerne, die parallel arbeiten. Aber auch in der Rechnertechnologie von Smartphones, Tablet-PCs und auch im Automobil ist diese hohe Rechenleistung immer mehr gefragt. Die drei großen Herausforderungen, die diese Entwicklung mit sich bringt, nehmen die FAU-Forscher in den Blick.

Zum einen gilt es, bereits im Programm anzugeben, welche Rechenleistung im System bereitzustellen ist. Ein Anwendungsbeispiel, das die Forscher im Forschungsverbund „Invasives Rechnen“ hierfür im Visier haben, ist ein Roboter, der sich in einem bestimmten Umfeld bewegt und auf seine Umwelt reagiert.

Alle seine Funktionen müssen gleichzeitig einsatzbereit sein: die Bildverarbeitung beim Sehen zum Beispiel, so dass er die Treppe erkennt, auf die er zuläuft. Dies darf aber gleichzeitig nicht zu Lasten der Steuerung der Beinbewegung gehen, sonst fällt er die Treppe hinunter. Dieses Prinzip lässt sich auf viele komplexe Geräte und Anwendungen übertragen. Auf die Medizintechnik etwa, wo die Bildverarbeitung im Computertomographen ebenfalls hochgradig parallele Rechenleistung erfordert.

Der Zuwachs an Rechenleistung durch viele Prozessoren bringt jedoch eine weitere Herausforderung mit sich: den immer höheren Energieverbrauch. Mehr Prozessoren fressen mehr Strom. Und: Sie erhitzen sich stärker. Das heißt, sie brauchen Kühlung oder können gar nicht alle gleichzeitig betrieben werden, was den Nutzen so vieler Kerne wiederum einschränkt. Rechenzentren, wie das Leibniz-Rechenzentrum in München, haben Stromkosten in Millionenhöhe.

Aber auch im kleineren Maßstab steht ein geringer Energieverbrauch immer weiter oben auf der Prioritätenliste. Waren es früher die Hardwarekosten, die die Anzahl an Prozessoren auf einem Chip limitierten, sind es heute die Stromkosten. Neben vielen anderen technologischen Entwicklungen, die hier Abhilfe schaffen könnten, ist einmal mehr die Rechnersteuerung eine Stellschraube, an der sich drehen lässt.

Die Wissenschaftler arbeiten beispielswiese an Algorithmen, die intelligent die Rechenkapazität nutzen und Operationen von einem Teil des Chips in einen anderen verlagern, der gerade nichts zu tun hat – und dem ersten damit die Gelegenheit geben, abzukühlen. Gelingt es, die Hitzeentwicklung auf dem Chip einzudämmen, wird die Hardware auch sicherer und zuverlässiger – sie altert weniger schnell, fällt seltener aus. Nicht zuletzt in Systemen mit hohen Verlässlichkeitsanforderungen wie in der Luftfahrt oder im Automobil ist dies essentiell.

Schließlich ist das Thema Sicherheit von Anwendungen und deren Daten eine entscheidende Anforderung. Gerade bei Plattformen, auf denen unterschiedliche Anwendungen (Apps) laufen, stellt sich die Frage, mit welchen Mechanismen sich Sicherheit herstellen und garantieren lässt. Dabei geht es nicht nur um sicherheitskritische Daten, sondern auch darum, zu verhindern, dass eine Anwendung eine andere „beobachten“ kann. Schließlich lassen sich allein schon aus Rechenmustern – zum Beispiel der Rechenintensität zu bestimmten Zeiten – Informationen gewinnen.

Bei all diesen Fragestellungen bauen die Forscherinnen und Forscher der FAU auf den Ergebnissen der vergangenen vier Jahre auf, in denen sie zeigen konnten, dass sich die Idee des invasiven Rechnens von der Anwendung bis hinunter zur Hardware durchgängig umsetzen lässt.

„Für den IT-Standort Deutschland ist es von herausragender Bedeutung, dass Rechnertechnologie nicht nur im Ausland eingekauft und hier in Produkten verbaut wird, sondern dass auch die deutsche IT-Landschaft mit Innovationen aufwarten kann und die Technologie durchgängig beherrscht“, meint Transregio-Sprecher Prof. Dr. Jürgen Teich, Lehrstuhl für Informatik 12, Hardware-Software-Co-Design.

„Natürlich werden es weiterhin die großen bekannten Hersteller sein, die neue Generationen an Prozessoren auf den Markt bringen. Die Erfüllung von Qualitätszusagen für Programme, wie Zuverlässigkeit, Ausführungszeit und Sicherheit, erfordert jedoch ein radikales Umdenken aller Hard- und Softwarestrukturen inklusive der Betriebssystemfunktionen. Genau das will unser interdisziplinärer Sonderforschungsbereich darlegen durch eigene Neuentwicklungen – angefangen vom Aufbau von Vielkern-Prozessoren bis hin zu neuen Programmiersprachelementen.“

Weitere Informationen für die Medien:
Prof. Dr. Jürgen Teich
Tel.: 09131/85-25150
teich@informatik.uni-erlangen.de

Blandina Mangelkramer | idw - Informationsdienst Wissenschaft
Weitere Informationen:
http://www.fau.de/

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht CrowdWater: eine App für die Hochwasser-Forschung
18.05.2018 | Universität Zürich

nachricht Hochautomatisiertes Sehen auf dem Prüfstand
17.05.2018 | FOKUS - Fraunhofer-Institut für Offene Kommunikationssysteme

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Bose-Einstein-Kondensat im Riesenatom - Universität Stuttgart untersucht exotisches Quantenobjekt

Passt eine ultrakalte Wolke aus zehntausenden Rubidium-Atomen in ein einzelnes Riesenatom? Forscherinnen und Forschern am 5. Physikalischen Institut der Universität Stuttgart ist dies erstmals gelungen. Sie zeigten einen ganz neuen Ansatz, die Wechselwirkung von geladenen Kernen mit neutralen Atomen bei weitaus niedrigeren Temperaturen zu untersuchen, als es bisher möglich war. Dies könnte einen wichtigen Schritt darstellen, um in Zukunft quantenmechanische Effekte in der Atom-Ion Wechselwirkung zu studieren. Das renommierte Fachjournal Physical Review Letters und das populärwissenschaftliche Begleitjournal Physics berichteten darüber.*)

In dem Experiment regten die Forscherinnen und Forscher ein Elektron eines einzelnen Atoms in einem Bose-Einstein-Kondensat mit Laserstrahlen in einen riesigen...

Im Focus: Algorithmen für die Leberchirurgie – weltweit sicherer operieren

Die Leber durchlaufen vier komplex verwobene Gefäßsysteme. Die chirurgische Entfernung von Tumoren ist daher oft eine schwierige Aufgabe. Das Fraunhofer-Institut für Bildgestützte Medizin MEVIS hat Algorithmen entwickelt, die die Bilddaten von Patienten analysieren und chirurgische Risiken berechnen. Leberkrebsoperationen werden damit besser planbar und sicherer.

Jährlich erkranken weltweit 750.000 Menschen neu an Leberkrebs, viele weitere entwickeln Lebermetastasen aufgrund anderer Krebserkrankungen. Ein chirurgischer...

Im Focus: Positronen leuchten besser

Leuchtstoffe werden schon lange benutzt, im Alltag zum Beispiel im Bildschirm von Fernsehgeräten oder in PC-Monitoren, in der Wissenschaft zum Untersuchen von Plasmen, Teilchen- oder Antiteilchenstrahlen. Gleich ob Teilchen oder Antiteilchen – treffen sie auf einen Leuchtstoff auf, regen sie ihn zum Lumineszieren an. Unbekannt war jedoch bisher, dass die Lichtausbeute mit Elektronen wesentlich niedriger ist als mit Positronen, ihren Antiteilchen. Dies hat Dr. Eve Stenson im Max-Planck-Institut für Plasmaphysik (IPP) in Garching und Greifswald jetzt beim Vorbereiten von Experimenten mit Materie-Antimaterie-Plasmen entdeckt.

„Wäre Antimaterie nicht so schwierig herzustellen, könnte man auf eine Ära hochleuchtender Niederspannungs-Displays hoffen, in der die Leuchtschirme nicht von...

Im Focus: Erklärung für rätselhafte Quantenoszillationen gefunden

Sogenannte Quanten-Vielteilchen-„Scars“ lassen Quantensysteme länger außerhalb des Gleichgewichtszustandes verweilen. Studie wurde in Nature Physics veröffentlicht

Forschern der Harvard Universität und des MIT war es vor kurzem gelungen, eine Rekordzahl von 53 Atomen einzufangen und ihren Quantenzustand einzeln zu...

Im Focus: Explanation for puzzling quantum oscillations has been found

So-called quantum many-body scars allow quantum systems to stay out of equilibrium much longer, explaining experiment | Study published in Nature Physics

Recently, researchers from Harvard and MIT succeeded in trapping a record 53 atoms and individually controlling their quantum state, realizing what is called a...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks
Industrie & Wirtschaft
Veranstaltungen

„Data Science“ – Theorie und Anwendung: Internationale Tagung unter Leitung der Uni Paderborn

18.05.2018 | Veranstaltungen

Visual-Computing an Bord der MS Wissenschaft

17.05.2018 | Veranstaltungen

Tagung »Anlagenbau und -betrieb der Zukunft«

17.05.2018 | Veranstaltungen

VideoLinks
Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

Bose-Einstein-Kondensat im Riesenatom - Universität Stuttgart untersucht exotisches Quantenobjekt

18.05.2018 | Physik Astronomie

Countdown für Kilogramm, Kelvin und Co.

18.05.2018 | Physik Astronomie

Wie Immunzellen Bakterien mit Säure töten

18.05.2018 | Biowissenschaften Chemie

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics