Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Geschärfter Blick ins Gehirn

20.09.2005


Die Abbildung zeigt einen Vergleich unterschiedlicher Glättungsverfahren. Ausführliche Bildinformationen dazu am Ende der Pressemitteilung. Abb.: WIAS


Mit neuartigen Bildglättungsmethoden filtern Forscher des Berliner Weierstraß-Instituts für Angewandte Analysis und Stochstik wichtige Signale aus Magnetresonanz-Aufnahmen.

... mehr zu:
»Analysis »Glättungsverfahren

Seit einigen Jahren sind sie vermehrt in Forschung und in den Medien zu finden: Schnittbilder des menschlichen Gehirns, auf denen farbig die Aktivitäten einzelner Hirnareale sichtbar sind. Die Technik, die diese spektakuläre Darstellung menschlicher Denkprozesse ermöglicht, ist die "funktionelle Magnetresonanztomografie" (fMRI). Doch von den rohen Messdaten zu den bunten Bildern ist es ein weiter Weg: aufwendige statistische Analysen sind notwendig, um die gesuchten Aktivitätsänderungen aus dem Hintergrundrauschen herauszufiltern. Genau das richtige Problem für Dr. Jörg Polzehl und Prof. Dr. Vladimir Spokoiny vom Weierstraß-Institut für Angewandte Analysis und Stochastik (WIAS) in Berlin. Die beiden Forscher entwickeln seit Jahren neuartige Verfahren der Bilddatenverarbeitung, die bei den fMRI-Aufnahmen gerade ihre Praxistauglichkeit unter Beweis stellen.

Die Analyse von fMRI-Daten ist ein mathematisches Kunststück. Bei einem Gespräch in seinem Büro zeigt Jörg Polzehl anhand einer Computersimulation, wie ein gesuchtes Signal der Gehirnaktivität aussehen könnte. Auf seinem Monitor ist eine Draufsicht ins Gehirn von der Nasenhöhle bis zum Hinterkopf zu sehen, ein bananenförmiger, roter Fleck im Bereich des Stirnhirns steht für Aktivität. Im wirklichen Leben wäre dieser Fleck genau das, wonach die Ärzte suchen. Doch so genau kann kein Verfahren die Aktivität darstellen. Auf Knopfdruck simuliert der Wissenschaftler einige Fehlerquellen, die bei echten fMRI-Experimenten unvermeidbar sind: Hintergrundrauschen, Inhomogenitäten des verwendeten Magnetfeldes und sogar der Herzschlag des Patienten stören die Messungen.


Und dann gibt es noch das "multiple Testproblem". So nennen Statistiker die Schwierigkeit, dass die riesige Anzahl an Messdaten zwangsläufig zu Fehlinterpretationen führt. Für den Scan wird der Kopf in über 100.000 kleine Würfel unterteilt, so genannte Voxel, die jeweils einzeln über eine bestimmte Zeit beobachtet werden. Die jeweilige Zeitreihe wird statistisch untersucht: Handelt es sich um Aktivität in dem Voxel oder nicht? Wegen der Störquellen ist diese Entscheidung immer fehlerbehaftet. Die große Anzahl an Voxeln sorgt dann selbst bei kleiner Fehlerwahrscheinlichkeit dafür, dass immer eine gewisse Menge echter Signale übersehen oder Rauschen irrtümlich als Signal gedeutet wird. Polzehls Computersimulation zeigt nun nur noch einen diffusen roten Fleck im Bereich des Stirnhirns, dafür aber viele kleine, über das gesamte Gehirn verteilte rote Flecken. So würden unter realistischen Bedingungen die echten Messergebnisse aussehen; von der Bananenform des Signals ist nichts mehr zu erkennen.

Ziel einer statistischen Analyse ist es, aus diesen Daten möglichst gut das ursprüngliche Signal zu rekonstruieren. Das traditionelle Vorgehen besteht darin, über Gruppen benachbarter Voxel zu mitteln. Das Bild wird auf diese Weise geglättet, einzelne Störsignale verschwinden, und Signale über größere Bereiche verschmelzen zu einem stärkeren Signal. Polzehls Computersimulation zeigt das Ergebnis des traditionellen Verfahrens: die vielen kleinen roten Fehlalarm-Flecken sind verschwunden, während der große Fleck im Bereich des Stirnhirns deutlich zu sehen ist, aber statt bananenförmig jetzt diffus und kreisförmig aussieht. Das zeigt auch den Nachteil dieser Methode: Die Informationen über Struktur und Form der Bildbestandteile gehen durch das Glätten zum Großteil verloren, das Bild verschwimmt.

Hier setzen die von Polzehl und Spokoiny entwickelten, so genannten struktur-adaptiven Verfahren an. Ziel ist es, Bilder zu glätten, ohne Strukturen und Kontrast zu zerstören. Polzehls Simulation zeigt, wie erstaunlich gut diese Verfahren die ursprünglichen fMRI-Signale rekonstruieren können: nicht nur die Störsignale sind verschwunden, sondern auch das Stirnhirnsignal ist bestens sichtbar, und zwar fast exakt in seiner ursprünglichen Form.

Die Besonderheit des neuartigen Glättungsverfahrens von Polzehl und Spokoiny liegt in einer schrittweisen Anpassung an die Struktur des Bildes. Ein Computerprogramm legt für jeden Bildpunkt zunächst eine kreisförmige Umgebung fest. Anschließend testet das Programm, inwieweit die Bildparameter innerhalb und in der Nähe dieser Umgebung einander ähnlich sind, und passt die Form der Umgebung Schritt für Schritt an, bevor es das Bild schließlich glättet.

Davon können beispielsweise auch Krebspatienten profitieren: Liegt etwa ein Bildpunkt der fMRI-Aufnahme am Rand eines Tumors, so kann die anfängliche Umgebung kreisförmig über den Tumor hinausragen. Klassische Verfahren würden einfach innerhalb dieses Kreises glätten und so den Rand des Tumors verwischen. Nicht so die Methode von Polzehl und Spokoiny: Hier erkennt das Computerprogramm anhand der Bildparameter, dass der Kreis aus zwei verschiedenartigen Geweben besteht. Das Programm verkleinert also die Umgebung und passt ihre Form an den Tumorrand an. Das Ergebnis: Die feine Randstruktur bleibt erhalten, und der Arzt kann den Tumor viel exakter gegen das umliegende Gewebe abgrenzen, als es mit den klassischen Verfahren möglich wäre.

Diese optimale Erhaltung von Kanten und Kontrast ist es, die die Methode gegenüber "traditionellen" Glättungsverfahren auszeichnet. Dabei war die Forschung von Polzehl und Spokoiny zunächst rein theoretischer Natur. Der Anstoß zur Entwicklung praktischer Anwendungen ist zum Teil einem Zufall zu verdanken, wie Polzehl erzählt: Als Spokoiny vor einigen Jahren eine Arbeit zur einer theoretischen Frage der Bildglättung zur Veröffentlichung an eine Zeitschrift geschickt hatte, wollte einer der Gutachter ein Beispiel durchgerechnet haben. Also wurde das Verfahren an einem (damals noch sehr künstlichen) Bild erprobt. Schnell stellte sich heraus, dass für die Praxistauglichkeit noch viele Verbesserungen notwendig waren; das Interesse an einer praktischen Anwendung des Verfahrens war aber geweckt.

Die Idee, das Verfahren für die fMRI-Bilddatenauswertung einzusetzen, entstand im Rahmen des Institutskolloquiums des WIAS. Regelmäßig berichten dort Vertreter von Forschung und Industrie von alltäglichen Problemen der Anwendung und diskutieren neue mathematische Lösungsansätze. Mehrere Vorträge über fMRI-Experimente führten schließlich zu langfristigen Kooperationen, unter anderem mit der Universität Tromsø in Norwegen, der Cornell University in Ithaca, New York, oder dem Leibniz-Institut für Neurobiologie in Magdeburg.

Seit einem Jahr werden die strukturadaptiven Verfahren auch an Messdaten der Charité getestet. Ehrgeiziges Ziel ist es, die neuartigen Verfahren direkt in den Analyseprozess einzubinden und die Methoden für den tatsächlichen Ablauf in der Praxis zu optimieren. Dabei ist man diesem Ziel in den letzten Jahren schon bedeutend näher gekommen: Während die Analyse eines einzigen Bildes anfangs noch 24 Stunden dauerte, ist die Glättung einer räumlichen fMRI-Aufnahme, die aus einer Vielzahl von Bildern besteht, inzwischen in etwa 20 bis 30 Sekunden berechnet. Die Weiterentwicklung der Algorithmen geht Hand in Hand mit einer Verbesserung der zugrundeliegenden Theorie. So haben Polzehl, Spokoiny und Kollegen in mehreren Publikationen das Verfahren auf allgemeinere Fehlerverteilungen ausgedehnt, mathematische Theoreme zur Stabilität des Verfahrens ausgearbeitet und "lokal polynomiale" Verfahren entwickelt, die die Inhomogenitäten des fMRI-Magnetfeldes noch besser ausgleichen können. Auch in Zukunft wird den Forschern die Arbeit wohl nicht ausgehen: schon jetzt feilen sie an den nächsten Erweiterungen des Verfahrens. In Zusammenarbeit mit Wissenschaftlern der Cornell University wollen sie bei der so genannten Diffusionstensor-Bildgebung einzelne Nervenfasern im Gehirn noch besser sichtbar machen.

Erläuterungen zum Bild:

Die drei Bilder im Quadranten links oben zeigen eine Darstellung der "wahren" Aktivierungen. Das war gleichsam die von den Modellierern vorgebene Situation. Zur Erzeugung der simulierten Daten wurden in jedem kleinen Bildwürfel ("Voxel") Zeitreihen erzeugt und (in den roten Punkten) mit Aktivierungen überlagert. Zusätzlich simulierten die Mathematiker Störungen des Signals wie Rauschen, Herzschlag, Inhomogenitäten des Magnetfeldes und eine Ausbreitung des Signals in benachbarte Voxel. Die Bilder im Quadranten rechts daneben zeigen das Resultat einer voxelweisen Analyse. Viele Voxel werden irrtümlich als aktiv registriert (roter Bereich unter der Kurve), aber auch viele "echte" Signale gar nicht aus dem Rauschen herausgefiltert. Links unten: Um die Signale zu verstärken, kann über benachbarte Voxel gemittelt werden. Die Zahl der falsch positiven Signale sinkt drastisch, aber auch der Anteil nicht detektierter Signale. In traditionellen nichtadaptiven Glättungsverfahren kann dies nur zu Lasten der Information über die Struktur und Form der Aktivierungsbereiche gehen. Aus dem gesuchten Signal in Bananenform ist ein diffuser Klumpen geworden. Rechts unten: Die struktur-adaptiven Glättungsverfahren überwinden diesen Nachteil. Bei vergleichbarer Qualität der Signaldetektierung können Formen und Ränder deutlich besser reproduziert werden.

Hintergrund zum Weierstraß-Institut

Das Weierstraß-Institut für Angewandte Analysis und Stochastik (WIAS) im Forschungsverbund Berlin e.V. betreibt als Mitglied der Leibniz Gemeinschaft projektorientierte Forschungen in Angewandter Mathematik, insbesondere in Angewandter Analysis und Angewandter Stochastik, mit dem Ziel, zur Lösung komplexer Problemkreise aus Wirtschaft, Wissenschaft und Technik beizutragen.

Das Verbundjournal ist die Zeitschrift des Forschungsverbundes Berlin e.V. (FVB). Der Forschungsverbund vereint acht natur-, lebens- und umweltwissenschaftliche Forschungsinstitute in Berlin, die alle wissenschaftlich eigenständig sind, aber im Rahmen einer einheitlichen Rechtspersönlichkeit gemeinsame Interessen wahrnehmen. Alle Institute des FVB gehören zur Leibniz-Gemeinschaft.

Markus Müller | idw
Weitere Informationen:
http://www.fv-berlin.de/images/verbundjournal/verbund63.pdf

Weitere Berichte zu: Analysis Glättungsverfahren

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Sicheres Bezahlen ohne Datenspur
17.10.2017 | Karlsruher Institut für Technologie

nachricht Saarbrücker Forscher erstellen digitale Objekte aus unvollständigen 3-D-Daten
12.10.2017 | Universität des Saarlandes

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Hochfeldmagnet am BER II: Einblick in eine versteckte Ordnung

Seit dreißig Jahren gibt eine bestimmte Uranverbindung der Forschung Rätsel auf. Obwohl die Kristallstruktur einfach ist, versteht niemand, was beim Abkühlen unter eine bestimmte Temperatur genau passiert. Offenbar entsteht eine so genannte „versteckte Ordnung“, deren Natur völlig unklar ist. Nun haben Physiker erstmals diese versteckte Ordnung näher charakterisiert und auf mikroskopischer Skala untersucht. Dazu nutzten sie den Hochfeldmagneten am HZB, der Neutronenexperimente unter extrem hohen magnetischen Feldern ermöglicht.

Kristalle aus den Elementen Uran, Ruthenium, Rhodium und Silizium haben eine geometrisch einfache Struktur und sollten keine Geheimnisse mehr bergen. Doch das...

Im Focus: Schmetterlingsflügel inspiriert Photovoltaik: Absorption lässt sich um bis zu 200 Prozent steigern

Sonnenlicht, das von Solarzellen reflektiert wird, geht als ungenutzte Energie verloren. Die Flügel des Schmetterlings „Gewöhnliche Rose“ (Pachliopta aristolochiae) zeichnen sich durch Nanostrukturen aus, kleinste Löcher, die Licht über ein breites Spektrum deutlich besser absorbieren als glatte Oberflächen. Forschern am Karlsruher Institut für Technologie (KIT) ist es nun gelungen, diese Nanostrukturen auf Solarzellen zu übertragen und deren Licht-Absorptionsrate so um bis zu 200 Prozent zu steigern. Ihre Ergebnisse veröffentlichten die Wissenschaftler nun im Fachmagazin Science Advances. DOI: 10.1126/sciadv.1700232

„Der von uns untersuchte Schmetterling hat eine augenscheinliche Besonderheit: Er ist extrem dunkelschwarz. Das liegt daran, dass er für eine optimale...

Im Focus: Schnelle individualisierte Therapiewahl durch Sortierung von Biomolekülen und Zellen mit Licht

Im Blut zirkulierende Biomoleküle und Zellen sind Träger diagnostischer Information, deren Analyse hochwirksame, individuelle Therapien ermöglichen. Um diese Information zu erschließen, haben Wissenschaftler des Fraunhofer-Instituts für Lasertechnik ILT ein Mikrochip-basiertes Diagnosegerät entwickelt: Der »AnaLighter« analysiert und sortiert klinisch relevante Biomoleküle und Zellen in einer Blutprobe mit Licht. Dadurch können Frühdiagnosen beispielsweise von Tumor- sowie Herz-Kreislauf-Erkrankungen gestellt und patientenindividuelle Therapien eingeleitet werden. Experten des Fraunhofer ILT stellen diese Technologie vom 13.–16. November auf der COMPAMED 2017 in Düsseldorf vor.

Der »AnaLighter« ist ein kompaktes Diagnosegerät zum Sortieren von Zellen und Biomolekülen. Sein technologischer Kern basiert auf einem optisch schaltbaren...

Im Focus: Neue Möglichkeiten für die Immuntherapie beim Lungenkrebs entdeckt

Eine gemeinsame Studie der Universität Bern und des Inselspitals Bern zeigt, dass spezielle Bindegewebszellen, die in normalen Blutgefässen die Wände abdichten, bei Lungenkrebs nicht mehr richtig funktionieren. Zusätzlich unterdrücken sie die immunologische Bekämpfung des Tumors. Die Resultate legen nahe, dass diese Zellen ein neues Ziel für die Immuntherapie gegen Lungenkarzinome sein könnten.

Lungenkarzinome sind die häufigste Krebsform weltweit. Jährlich werden 1.8 Millionen Neudiagnosen gestellt; und 2016 starben 1.6 Millionen Menschen an der...

Im Focus: Sicheres Bezahlen ohne Datenspur

Ob als Smartphone-App für die Fahrkarte im Nahverkehr, als Geldwertkarten für das Schwimmbad oder in Form einer Bonuskarte für den Supermarkt: Für viele gehören „elektronische Geldbörsen“ längst zum Alltag. Doch vielen Kunden ist nicht klar, dass sie mit der Nutzung dieser Angebote weitestgehend auf ihre Privatsphäre verzichten. Am Karlsruher Institut für Technologie (KIT) entsteht ein sicheres und anonymes System, das gleichzeitig Alltagstauglichkeit verspricht. Es wird nun auf der Konferenz ACM CCS 2017 in den USA vorgestellt.

Es ist vor allem das fehlende Problembewusstsein, das den Informatiker Andy Rupp von der Arbeitsgruppe „Kryptographie und Sicherheit“ am KIT immer wieder...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Das Immunsystem in Extremsituationen

19.10.2017 | Veranstaltungen

Die jungen forschungsstarken Unis Europas tagen in Ulm - YERUN Tagung in Ulm

19.10.2017 | Veranstaltungen

Bauphysiktagung der TU Kaiserslautern befasst sich mit energieeffizienten Gebäuden

19.10.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Forscher finden Hinweise auf verknotete Chromosomen im Erbgut

20.10.2017 | Biowissenschaften Chemie

Saugmaschinen machen Waschwässer von Binnenschiffen sauberer

20.10.2017 | Ökologie Umwelt- Naturschutz

Strukturbiologieforschung in Berlin: DFG bewilligt Mittel für neue Hochleistungsmikroskope

20.10.2017 | Förderungen Preise