Geschärfter Blick ins Gehirn

Die Abbildung zeigt einen Vergleich unterschiedlicher Glättungsverfahren. Ausführliche Bildinformationen dazu am Ende der Pressemitteilung. Abb.: WIAS

Mit neuartigen Bildglättungsmethoden filtern Forscher des Berliner Weierstraß-Instituts für Angewandte Analysis und Stochstik wichtige Signale aus Magnetresonanz-Aufnahmen.

Seit einigen Jahren sind sie vermehrt in Forschung und in den Medien zu finden: Schnittbilder des menschlichen Gehirns, auf denen farbig die Aktivitäten einzelner Hirnareale sichtbar sind. Die Technik, die diese spektakuläre Darstellung menschlicher Denkprozesse ermöglicht, ist die „funktionelle Magnetresonanztomografie“ (fMRI). Doch von den rohen Messdaten zu den bunten Bildern ist es ein weiter Weg: aufwendige statistische Analysen sind notwendig, um die gesuchten Aktivitätsänderungen aus dem Hintergrundrauschen herauszufiltern. Genau das richtige Problem für Dr. Jörg Polzehl und Prof. Dr. Vladimir Spokoiny vom Weierstraß-Institut für Angewandte Analysis und Stochastik (WIAS) in Berlin. Die beiden Forscher entwickeln seit Jahren neuartige Verfahren der Bilddatenverarbeitung, die bei den fMRI-Aufnahmen gerade ihre Praxistauglichkeit unter Beweis stellen.

Die Analyse von fMRI-Daten ist ein mathematisches Kunststück. Bei einem Gespräch in seinem Büro zeigt Jörg Polzehl anhand einer Computersimulation, wie ein gesuchtes Signal der Gehirnaktivität aussehen könnte. Auf seinem Monitor ist eine Draufsicht ins Gehirn von der Nasenhöhle bis zum Hinterkopf zu sehen, ein bananenförmiger, roter Fleck im Bereich des Stirnhirns steht für Aktivität. Im wirklichen Leben wäre dieser Fleck genau das, wonach die Ärzte suchen. Doch so genau kann kein Verfahren die Aktivität darstellen. Auf Knopfdruck simuliert der Wissenschaftler einige Fehlerquellen, die bei echten fMRI-Experimenten unvermeidbar sind: Hintergrundrauschen, Inhomogenitäten des verwendeten Magnetfeldes und sogar der Herzschlag des Patienten stören die Messungen.

Und dann gibt es noch das „multiple Testproblem“. So nennen Statistiker die Schwierigkeit, dass die riesige Anzahl an Messdaten zwangsläufig zu Fehlinterpretationen führt. Für den Scan wird der Kopf in über 100.000 kleine Würfel unterteilt, so genannte Voxel, die jeweils einzeln über eine bestimmte Zeit beobachtet werden. Die jeweilige Zeitreihe wird statistisch untersucht: Handelt es sich um Aktivität in dem Voxel oder nicht? Wegen der Störquellen ist diese Entscheidung immer fehlerbehaftet. Die große Anzahl an Voxeln sorgt dann selbst bei kleiner Fehlerwahrscheinlichkeit dafür, dass immer eine gewisse Menge echter Signale übersehen oder Rauschen irrtümlich als Signal gedeutet wird. Polzehls Computersimulation zeigt nun nur noch einen diffusen roten Fleck im Bereich des Stirnhirns, dafür aber viele kleine, über das gesamte Gehirn verteilte rote Flecken. So würden unter realistischen Bedingungen die echten Messergebnisse aussehen; von der Bananenform des Signals ist nichts mehr zu erkennen.

Ziel einer statistischen Analyse ist es, aus diesen Daten möglichst gut das ursprüngliche Signal zu rekonstruieren. Das traditionelle Vorgehen besteht darin, über Gruppen benachbarter Voxel zu mitteln. Das Bild wird auf diese Weise geglättet, einzelne Störsignale verschwinden, und Signale über größere Bereiche verschmelzen zu einem stärkeren Signal. Polzehls Computersimulation zeigt das Ergebnis des traditionellen Verfahrens: die vielen kleinen roten Fehlalarm-Flecken sind verschwunden, während der große Fleck im Bereich des Stirnhirns deutlich zu sehen ist, aber statt bananenförmig jetzt diffus und kreisförmig aussieht. Das zeigt auch den Nachteil dieser Methode: Die Informationen über Struktur und Form der Bildbestandteile gehen durch das Glätten zum Großteil verloren, das Bild verschwimmt.

Hier setzen die von Polzehl und Spokoiny entwickelten, so genannten struktur-adaptiven Verfahren an. Ziel ist es, Bilder zu glätten, ohne Strukturen und Kontrast zu zerstören. Polzehls Simulation zeigt, wie erstaunlich gut diese Verfahren die ursprünglichen fMRI-Signale rekonstruieren können: nicht nur die Störsignale sind verschwunden, sondern auch das Stirnhirnsignal ist bestens sichtbar, und zwar fast exakt in seiner ursprünglichen Form.

Die Besonderheit des neuartigen Glättungsverfahrens von Polzehl und Spokoiny liegt in einer schrittweisen Anpassung an die Struktur des Bildes. Ein Computerprogramm legt für jeden Bildpunkt zunächst eine kreisförmige Umgebung fest. Anschließend testet das Programm, inwieweit die Bildparameter innerhalb und in der Nähe dieser Umgebung einander ähnlich sind, und passt die Form der Umgebung Schritt für Schritt an, bevor es das Bild schließlich glättet.

Davon können beispielsweise auch Krebspatienten profitieren: Liegt etwa ein Bildpunkt der fMRI-Aufnahme am Rand eines Tumors, so kann die anfängliche Umgebung kreisförmig über den Tumor hinausragen. Klassische Verfahren würden einfach innerhalb dieses Kreises glätten und so den Rand des Tumors verwischen. Nicht so die Methode von Polzehl und Spokoiny: Hier erkennt das Computerprogramm anhand der Bildparameter, dass der Kreis aus zwei verschiedenartigen Geweben besteht. Das Programm verkleinert also die Umgebung und passt ihre Form an den Tumorrand an. Das Ergebnis: Die feine Randstruktur bleibt erhalten, und der Arzt kann den Tumor viel exakter gegen das umliegende Gewebe abgrenzen, als es mit den klassischen Verfahren möglich wäre.

Diese optimale Erhaltung von Kanten und Kontrast ist es, die die Methode gegenüber „traditionellen“ Glättungsverfahren auszeichnet. Dabei war die Forschung von Polzehl und Spokoiny zunächst rein theoretischer Natur. Der Anstoß zur Entwicklung praktischer Anwendungen ist zum Teil einem Zufall zu verdanken, wie Polzehl erzählt: Als Spokoiny vor einigen Jahren eine Arbeit zur einer theoretischen Frage der Bildglättung zur Veröffentlichung an eine Zeitschrift geschickt hatte, wollte einer der Gutachter ein Beispiel durchgerechnet haben. Also wurde das Verfahren an einem (damals noch sehr künstlichen) Bild erprobt. Schnell stellte sich heraus, dass für die Praxistauglichkeit noch viele Verbesserungen notwendig waren; das Interesse an einer praktischen Anwendung des Verfahrens war aber geweckt.

Die Idee, das Verfahren für die fMRI-Bilddatenauswertung einzusetzen, entstand im Rahmen des Institutskolloquiums des WIAS. Regelmäßig berichten dort Vertreter von Forschung und Industrie von alltäglichen Problemen der Anwendung und diskutieren neue mathematische Lösungsansätze. Mehrere Vorträge über fMRI-Experimente führten schließlich zu langfristigen Kooperationen, unter anderem mit der Universität Tromsø in Norwegen, der Cornell University in Ithaca, New York, oder dem Leibniz-Institut für Neurobiologie in Magdeburg.

Seit einem Jahr werden die strukturadaptiven Verfahren auch an Messdaten der Charité getestet. Ehrgeiziges Ziel ist es, die neuartigen Verfahren direkt in den Analyseprozess einzubinden und die Methoden für den tatsächlichen Ablauf in der Praxis zu optimieren. Dabei ist man diesem Ziel in den letzten Jahren schon bedeutend näher gekommen: Während die Analyse eines einzigen Bildes anfangs noch 24 Stunden dauerte, ist die Glättung einer räumlichen fMRI-Aufnahme, die aus einer Vielzahl von Bildern besteht, inzwischen in etwa 20 bis 30 Sekunden berechnet. Die Weiterentwicklung der Algorithmen geht Hand in Hand mit einer Verbesserung der zugrundeliegenden Theorie. So haben Polzehl, Spokoiny und Kollegen in mehreren Publikationen das Verfahren auf allgemeinere Fehlerverteilungen ausgedehnt, mathematische Theoreme zur Stabilität des Verfahrens ausgearbeitet und „lokal polynomiale“ Verfahren entwickelt, die die Inhomogenitäten des fMRI-Magnetfeldes noch besser ausgleichen können. Auch in Zukunft wird den Forschern die Arbeit wohl nicht ausgehen: schon jetzt feilen sie an den nächsten Erweiterungen des Verfahrens. In Zusammenarbeit mit Wissenschaftlern der Cornell University wollen sie bei der so genannten Diffusionstensor-Bildgebung einzelne Nervenfasern im Gehirn noch besser sichtbar machen.

Erläuterungen zum Bild:

Die drei Bilder im Quadranten links oben zeigen eine Darstellung der „wahren“ Aktivierungen. Das war gleichsam die von den Modellierern vorgebene Situation. Zur Erzeugung der simulierten Daten wurden in jedem kleinen Bildwürfel („Voxel“) Zeitreihen erzeugt und (in den roten Punkten) mit Aktivierungen überlagert. Zusätzlich simulierten die Mathematiker Störungen des Signals wie Rauschen, Herzschlag, Inhomogenitäten des Magnetfeldes und eine Ausbreitung des Signals in benachbarte Voxel. Die Bilder im Quadranten rechts daneben zeigen das Resultat einer voxelweisen Analyse. Viele Voxel werden irrtümlich als aktiv registriert (roter Bereich unter der Kurve), aber auch viele „echte“ Signale gar nicht aus dem Rauschen herausgefiltert. Links unten: Um die Signale zu verstärken, kann über benachbarte Voxel gemittelt werden. Die Zahl der falsch positiven Signale sinkt drastisch, aber auch der Anteil nicht detektierter Signale. In traditionellen nichtadaptiven Glättungsverfahren kann dies nur zu Lasten der Information über die Struktur und Form der Aktivierungsbereiche gehen. Aus dem gesuchten Signal in Bananenform ist ein diffuser Klumpen geworden. Rechts unten: Die struktur-adaptiven Glättungsverfahren überwinden diesen Nachteil. Bei vergleichbarer Qualität der Signaldetektierung können Formen und Ränder deutlich besser reproduziert werden.

Hintergrund zum Weierstraß-Institut

Das Weierstraß-Institut für Angewandte Analysis und Stochastik (WIAS) im Forschungsverbund Berlin e.V. betreibt als Mitglied der Leibniz Gemeinschaft projektorientierte Forschungen in Angewandter Mathematik, insbesondere in Angewandter Analysis und Angewandter Stochastik, mit dem Ziel, zur Lösung komplexer Problemkreise aus Wirtschaft, Wissenschaft und Technik beizutragen.

Das Verbundjournal ist die Zeitschrift des Forschungsverbundes Berlin e.V. (FVB). Der Forschungsverbund vereint acht natur-, lebens- und umweltwissenschaftliche Forschungsinstitute in Berlin, die alle wissenschaftlich eigenständig sind, aber im Rahmen einer einheitlichen Rechtspersönlichkeit gemeinsame Interessen wahrnehmen. Alle Institute des FVB gehören zur Leibniz-Gemeinschaft.

Media Contact

Markus Müller idw

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Neue Lösungsansätze für wachsende Resistenzen gegen Pilzmedikamente

Resistenzen gegen Pilzmedikamente (sog. Antimykotika) stellen Gesundheitssysteme weltweit vor große Herausforderungen. Auch in Österreich erkranken jährlich etwa 130.000 Menschen an Pilzinfektionen, die oftmals auch tödlich enden können. Mit dem neuen…

Standardisierte Wasserkühlung ebnet Weg für AI

Rittal auf dem 2024 OCP Regional Summit Lissabon Künstliche Intelligenz (AI) verändert die Welt der IT-Infrastruktur. Der Bedarf an Rechenleistung und Kapazität wächst so stark, dass auch die Anforderungen an…

Klimakrise gefährdet alpine Ökosysteme

Gebirge sind vom Klimawandel besonders betroffen: Sie erwärmen sich schneller als das Flachland. Mit der Erwärmung schwindet die Schneedecke und Zwergsträucher dringen in höhere Lagen vor – mit starken Auswirkungen…

Partner & Förderer