Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Von Fliegen Sehen lernen

09.07.2009
Flugsimulator für Insekten hilft bei Konstruktion intelligenter Roboter

Scheinbar plumpe und ordinäre Schmeißfliegen sind wahre Flugkünstler.

Plötzliche Richtungsänderungen, in der Luft stehen, blitzschnell um die eigene Achse drehen und punktgenaue Landungen sind für sie selbstverständlich. Extrem schnelle Augen helfen ihnen, im rasanten Hin und Her die Orientierung nicht zu verlieren.

Doch: Wie verarbeitet ihr winziges Gehirn so schnell und effizient die Vielzahl der Bilder und Signale? Um das zu ergründen, haben Wissenschaftler des Münchner Exzellenzclusters „Cognition for Technical Systems (CoTeSys)“ einen Flugsimulator für Fliegen gebaut. Hier erforschen sie, was in den Fliegengehirnen abläuft. Ihr Ziel: Dass Menschen diese Fähigkeiten nutzen können, etwa für Roboter, die eigenständig ihre Umgebung wahrnehmen und daraus lernen.

Fliegengehirne leisten Unglaubliches. Sie navigieren im schnellen Flug mit halsbrecherischen Kurven um Hindernisse, reagieren in Sekundenbruchteilen auf die Hand, die sie fangen will, und finden zielsicher zu den stark riechenden „Leckerbissen“, von denen sie leben. Seit langem weiß die Forschung, dass Fliegen sehr viel mehr Bilder wahrnehmen als Menschen. Während für menschliche Augen spätestens ab 25 Bildern pro Sekunde Einzelbilder in einen kontinuierlichen Bewegungsablauf übergehen, erkennen Schmeißfliegen noch 100 Bilder pro Sekunde als einzelne Sinneseindrücke, können sie blitzschnell interpretieren und so ihre Bewegung steuern und die Lage im Raum exakt bestimmen.

Dabei ist das Fliegengehirn kaum größer als ein Stecknadelkopf. Würde es genauso funktionieren, wie das Gehirn des Menschen, würde dies bei Weitem nicht zu solchen Leistungen ausreichen. Es muss die Bilder von den Augen also einfacher und sehr viel effizienter zu einer visuellen Wahrnehmung verarbeiten. Effiziente Wahrnehmung von visuellen Signalen aber ist etwas, was Roboterkonstrukteure ganz besonders interessiert, denn Roboter haben heute noch große Schwierigkeiten, ihre Umgebung nicht nur mit Kameras zu sehen, sondern auch wahrzunehmen, was sie sehen. Selbst das Erkennen von Hindernissen in ihrer eigenen Arbeitsfläche dauert viel zu lange. Daher müssen bislang beispielsweise Menschen noch mit Schutzgittern vor den maschinellen Helfern geschützt werden. Eine direkte, unterstützende Zusammenarbeit von intelligenten Maschinen und Menschen aber ist ein zentrales Forschungsziel des Exzellenzclusters „CoTeSys“ (Cognition for Technical Systems), zu dem sich im Raum München rund 100 Wissenschaftler von fünf Hochschulen und Forschungsinstituten zusammengefunden haben.

Im Rahmen von „CoTeSys“ erkunden Hirnforscher des Max-Planck-Instituts für Neurobiologie, wie Fliegen es schaffen, ihre Umwelt und ihre Bewegung so effizient wahrzunehmen. Unter Leitung des Neurobiologen Prof. Alexander Borst haben sie einen Flugsimulator für Fliegen gebaut. Hier werden Schmeißfliegen auf einem halbrunden Display unterschiedliche Muster, Bewegungen und Sinnesreize vorgespielt. Die Insekten sind an einem Halter befestigt, damit Elektroden die Reaktionen der Gehirnzellen registrieren können. Die Forscher analysieren so, was im Fliegengehirn passiert, wenn die Tiere wie wild kreuz und quer durch ein Zimmer sausen.

Die ersten Ergebnisse zeigen Eines ganz deutlich: Fliegen verarbeiten die Bilder ihrer unbeweglichen Augen ganz anders als das menschliche Gehirn. Bewegungen im Raum erzeugen sogenannte „optische Flussfelder“, die für eine ganz bestimmte Bewegung charakteristisch sind: Bei einer Vorwärtsbewegung fließen die Objekte seitlich vorbei, bei frontalem Anflug vergrößern sich die Objekte, nahe und weit entfernte Dinge bewegen sich ganz unterschiedlich. Die Fliege erstellt als ersten Schritt in ihrem winzigen Gehirn aus diesen Bewegungen ein Muster. Geschwindigkeit und Richtung, mit denen sich einzelne Bildpunkte vor den Augen scheinbar bewegen, ergeben in jedem Moment ein typisches Bild von Bewegungsvektoren, das Flussfeld, das schließlich in einem zweiten Schritt in der sogenannten „Lobula-Platte“ ausgewertet wird, einer höheren Ebene des Sehzentrums. In jeder Gehirnhälfte sind lediglich 60 Nervenzellen dafür zuständig – jede reagiert besonders intensiv, wenn das für sie passende Muster vorliegt. Wichtig für die Analyse der optischen Flussfelder ist, dass die Bewegungsinformation von beiden Augen zusammen geführt wird. Dies geschieht über eine direkte Verschaltung der spezialisierten Nervenzellen, sogenannte VS-Zellen. So ergibt sich für die Fliege eine exakte Information über ihre Lage und Bewegung.

„Durch unsere Ergebnisse ist das für Rotationsbewegungen zuständige Netzwerk der VS-Zellen im Fliegengehirn heute einer der am besten verstandenen Schaltkreise des Nervensystems“, erläutert Prof. Borst die Bedeutung dieser Untersuchungen. Diese Arbeiten bleiben aber nicht bei der reinen Grundlagenforschung stehen. Die Befunde der Martinsrieder Fliegenforscher sind besonders auch für die Ingenieure am Lehrstuhl für Steuerungs- und Regelungstechnik der Technischen Universität München (TUM) interessant, mit denen Prof. Borst im Rahmen von „CoTeSys“ eng zusammenarbeitet.

Die Forscher an der Technischen Universität entwickeln unter Leitung von Prof. Martin Buss und Dr. Kolja Kühnlenz intelligente Maschinen, die über Kameras ihre Umwelt beobachten, daraus lernen und flexibel auf die jeweilige Situation reagieren. Zielsetzung dieser Forschungsarbeiten sind intelligente Maschinen, die direkt mit dem Menschen umgehen können, auf ihn reagieren und ihn nicht gefährden. Auch die Schutzzäune in den Fabriken zwischen Menschen und Robotern sollen fallen. Dafür sind einfache, schnelle und effiziente Verfahren für die Analyse und die Interpretation von Kamerabildern unbedingt erforderlich.

Die TUM-Forscher entwickelten beispielsweise einen kleinen Flugroboter, der Fluglage und Bewegung durch visuelle Analyse im Computer nach dem Vorbild der Fliegengehirne kontrolliert. Einem fahrbaren Roboter, dem Autonomous City Explorer (ACE) wurde die Aufgabe gestellt, durch Ansprechen und Fragen von Passanten vom Institut zum etwa 1,5 Kilometer entfernten Münchner Marienplatz zu finden. Dabei musste er auch die Gesten der Menschen interpretieren, die ihm den Weg zeigten, und er musste sich –verkehrsgerecht – ausschließlich auf dem Gehsteig bewegen.

Ohne effiziente Bildanalyse ist ein Zusammenspiel von intelligenten Maschinen und Menschen nicht denkbar. Die Forschungsarbeiten am Flugsimulator für Fliegen bieten dafür durch den Austausch der Wissenschaftler aus unterschiedlichen Disziplinen im Rahmen von CoTeSys einen interessanten Ansatz, der auch einfach genug erscheint, um technisch umsetzbar zu sein.
Kostenfreies Bildmaterial
zum Thema erhalten Sie unter
http://www.cotesys.de/media/pictures-for-press.html

Weitere Informationen:
CoTeSys: www.cotesys.org
Max-Planck-Institut für Neurobiologie: www.neuro.mpg.de
Für Rückfragen:
Dr. Uwe Haass,
Geschäftsführer CoTeSys
CCRL – CoTeSys Central Robotics Laboratory
Technische Universität München
Barer Straße 21, 80290 München
Telefon 089- 289 25 723
E-Mail: gst@tum.de

Dr. Uwe Haass, | Technische Universität München
Weitere Informationen:
http://www.neuro.mpg.de
http://www.cotesys.org
http://www.tum.de

Weitere Nachrichten aus der Kategorie Interdisziplinäre Forschung:

nachricht Studie für Patienten mit Prostatakrebs: Einteilung in genomische Gruppen soll Therapie präzisieren
21.08.2017 | Universitätsklinikum Heidelberg

nachricht Fake News finden und bekämpfen
17.08.2017 | Fraunhofer-Institut für Sichere Informationstechnologie SIT

Alle Nachrichten aus der Kategorie: Interdisziplinäre Forschung >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Wissenschaftler entdecken seltene Ordnung von Elektronen in einem supraleitenden Kristall

In einem Artikel der aktuellen Ausgabe des Forschungsmagazins „Nature“ berichten Wissenschaftler vom Max-Planck-Institut für Chemische Physik fester Stoffe in Dresden von der Entdeckung eines seltenen Materiezustandes, bei dem sich die Elektronen in einem Kristall gemeinsam in einer Richtung bewegen. Diese Entdeckung berührt eine der offenen Fragestellungen im Bereich der Festkörperphysik: Was passiert, wenn sich Elektronen gemeinsam im Kollektiv verhalten, in sogenannten „stark korrelierten Elektronensystemen“, und wie „einigen sich“ die Elektronen auf ein gemeinsames Verhalten?

In den meisten Metallen beeinflussen sich Elektronen gegenseitig nur wenig und leiten Wärme und elektrischen Strom weitgehend unabhängig voneinander durch das...

Im Focus: Wie ein Bakterium von Methanol leben kann

Bei einem Bakterium, das Methanol als Nährstoff nutzen kann, identifizierten ETH-Forscher alle dafür benötigten Gene. Die Erkenntnis hilft, diesen Rohstoff für die Biotechnologie besser nutzbar zu machen.

Viele Chemiker erforschen derzeit, wie man aus den kleinen Kohlenstoffverbindungen Methan und Methanol grössere Moleküle herstellt. Denn Methan kommt auf der...

Im Focus: Topologische Quantenzustände einfach aufspüren

Durch gezieltes Aufheizen von Quantenmaterie können exotische Materiezustände aufgespürt werden. Zu diesem überraschenden Ergebnis kommen Theoretische Physiker um Nathan Goldman (Brüssel) und Peter Zoller (Innsbruck) in einer aktuellen Arbeit im Fachmagazin Science Advances. Sie liefern damit ein universell einsetzbares Werkzeug für die Suche nach topologischen Quantenzuständen.

In der Physik existieren gewisse Größen nur als ganzzahlige Vielfache elementarer und unteilbarer Bestandteile. Wie das antike Konzept des Atoms bezeugt, ist...

Im Focus: Unterwasserroboter soll nach einem Jahr in der arktischen Tiefsee auftauchen

Am Dienstag, den 22. August wird das Forschungsschiff Polarstern im norwegischen Tromsø zu einer besonderen Expedition in die Arktis starten: Der autonome Unterwasserroboter TRAMPER soll nach einem Jahr Einsatzzeit am arktischen Tiefseeboden auftauchen. Dieses Gerät und weitere robotische Systeme, die Tiefsee- und Weltraumforscher im Rahmen der Helmholtz-Allianz ROBEX gemeinsam entwickelt haben, werden nun knapp drei Wochen lang unter Realbedingungen getestet. ROBEX hat das Ziel, neue Technologien für die Erkundung schwer erreichbarer Gebiete mit extremen Umweltbedingungen zu entwickeln.

„Auftauchen wird der TRAMPER“, sagt Dr. Frank Wenzhöfer vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) selbstbewusst. Der...

Im Focus: Mit Barcodes der Zellentwicklung auf der Spur

Darüber, wie sich Blutzellen entwickeln, existieren verschiedene Auffassungen – sie basieren jedoch fast ausschließlich auf Experimenten, die lediglich Momentaufnahmen widerspiegeln. Wissenschaftler des Deutschen Krebsforschungszentrums stellen nun im Fachjournal Nature eine neue Technik vor, mit der sich das Geschehen dynamisch erfassen lässt: Mithilfe eines „Zufallsgenerators“ versehen sie Blutstammzellen mit genetischen Barcodes und können so verfolgen, welche Zelltypen aus der Stammzelle hervorgehen. Diese Technik erlaubt künftig völlig neue Einblicke in die Entwicklung unterschiedlicher Gewebe sowie in die Krebsentstehung.

Wie entsteht die Vielzahl verschiedener Zelltypen im Blut? Diese Frage beschäftigt Wissenschaftler schon lange. Nach der klassischen Vorstellung fächern sich...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

International führende Informatiker in Paderborn

21.08.2017 | Veranstaltungen

Wissenschaftliche Grundlagen für eine erfolgreiche Klimapolitik

21.08.2017 | Veranstaltungen

DGI-Forum in Wittenberg: Fake News und Stimmungsmache im Netz

21.08.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Fraunhofer IPM präsentiert »Deep Learning Framework« zur automatisierten Interpretation von 3D-Daten

22.08.2017 | Informationstechnologie

Globale Klimaextreme nach Vulkanausbrüchen

22.08.2017 | Geowissenschaften

RWI/ISL-Containerumschlag-Index erreicht neuen Höchstwert

22.08.2017 | Wirtschaft Finanzen