Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Roboter erlernen menschliche Wahrnehmung

15.02.2011
Michael J. Black bringt Computern bei, Daten über Ihre Umwelt so schnell und zuverlässig zu analysieren wie das menschliche Gehirn.

„Ich mag Tübingen wirklich gern“, sagt Michael J. Black. „Die Stadt, die Umgebung. Meine Frau und ich wandern gern. Die Schwäbische Alb ist fantastisch.“ Michael J. Black hat sich vorgenommen, für immer hier zu bleiben.


Wie können Roboter Bewegungen analysieren? Diese Frage stellt sich Michael J. Black im Rahmen seiner Arbeit am Max-Planck-Institut für Intelligente Systeme. © Michael J. Black

Er ist jetzt Ende 40. „Da habe ich noch etwa 20 Jahr Zeit zum Forschen.“ Er weiß ziemlich genau, was er in dieser Zeit erreichen will. „Ich will einen Roboter dazu bringen, sich in der Welt so gut zurechtzufinden wie ein zweijähriges Kind.“ Das klingt erstmal nicht nach sonderlich viel, wäre aber eine Sensation, denn Zwei­jährige sind verdammt schlau.

Ein Neugeborenes kann kräftig zupacken. Greifreflex, Finger schnappen – mehr nicht. Ein Zweijähriges aber ist in Sachen Greifen bereits ein Virtuose und beherrscht Dutzende von Greifvarianten, sachtes Heben, Löffelchen halten. Ein Kleinkind bewegt Rundes, Eckiges und Spitzes sicher in seinen Händen, und es kann abstrahieren. Es erkennt Eckiges als Eckiges und Rundes als Rundes, ganz gleich ob ein Ding drei, vier oder fünf Ecken und Rundungen hat. Ganz gleich, ob es einen Gegenstand zum ersten Mal sieht.

Es ist diese Abstraktions­leis­tung die Computer-Hirnen heute noch fehlt. „Wir Menschen analysieren unsere Umwelt in Sekun­denbruchtei­len“, sagt Black. „Uns reicht der Glanz einer Oberfläche, Schattierungen, um zu erken­nen, ob sie rutschig oder grif­fig ist.“ Ein Computer muss erst lange rechnen, ehe er den Input seiner Sensoren geord­net hat und weiß, was Sache ist. Das menschliche Hirn aber pickt sich aus dem Sturm der Sinnesreize ganz einfach einige wesentliche Merkmale heraus und schließt damit treffsicher, wie die Welt um uns tatsächlich beschaffen ist.

Genau das sollen Blacks Computer auch lernen. Sie sollen generalisieren, abstrahieren, aus wenig Information auf Eigenschaften schließen. Sicher, ein technisches System kann Tau­sende von Daten, Zahlen und Messwerten verarbeiten, die Atomstruktur einer Bodenfliese analysieren – und trotzdem würde ein Roboter vermutlich ausrutschen, wenn gerade frisch gewischt wurde. Blacks zentrale Frage ist, welche Umweltreize entscheidend sind. Wie schafft es das Hirn, aus wenig so viel zu machen – uns sicher durch unser Leben zu steuern? Und wie bringt man das am Ende Computern und Robotern bei.

Black ist einer der drei quasi Gründungsdirektoren, mit denen sich das Max-Planck-Institut für Metallforschung auf dem Gebiet der intelligenten Systeme neu ausrichtet. Bis vor wenigen Wochen war er Professor am Lehrstuhl für Computer-Wissenschaften der Brown University in Providence im US-Bundesstaat Rhode Island. Er hat dort viel mit Neurochirurgen zusam­mengearbeitet. Denn ihm war klar, dass er beides ver­stehen müsse, den Compu­ter und die Arbeitsweise des Gehirns. Er hat statistische Rechenverfahren entwickelt, so genannte Schätzer, die die Komplexität der Umweltreize - wie das Gehirn - auf ein erforderliches Maß reduzie­ren. Dank dieser Schätzer geht der Computer nicht in der Fülle von Daten unter.

Mit seinem Verfahren nähert er sich der Umwelt schritt­weise an – approximative visuelle Physik nennt er das. Black befasst sich vor allem mit dem Sehen, besonders Bewegungen, denn die sind für das menschliche Hirn besonders starke Reize. Seine Rechenverfahren können aus dem Durcheinander von Lichtreflexen, Schatten und wandernden Bildpunkten einer Filmsequenz inzwischen ein sich bewegendes Objekt sicher extrahieren – aber eben nicht so flink und einfach wie das Gehirn. Das Hirn bleibt für ihn deshalb weiterhin der größte Lehrmeister.

Blacks Mediziner-Kollegen in den USA haben querschnittsgelähmten Patienten winzige Elektroden auf die für Bewegungen zuständigen Hirnareale, den motorischen Cortex, gepflanzt und die Erregung der Nervenzellen analysiert. Nervenzellen feuern elektrische Impulse ab, wenn sie erregt sind. Die Elektroden nehmen diese hauchfeinen Stromschläge wahr. Zunächst sieht ein solches elektrisches Erregungsbild aber nicht viel anders aus als die verrauschte Mattscheibe eines Fernsehers. Black gelang es, aus diesem Geflimmer klare Aktivitätsmuster herauszulesen und zu interpretieren. Dank der mathematischen Verfahren konnte der Computer schließlich die Gedanken der Patienten in reale Bewegungen umsetzen: Den Patienten gelang es, allein durch Gedankenkraft einen Cursor auf einem Computerbild­schirm zu steuern. Brain-Computer-Interface nennen Experten derartige Verknüpfungen von Hirn und Rechner.

Ähnliche Untersuchungen mit implantierten Elektroden hat Black an Affen durchgeführt. In diesem Falle wurden die Signale der Neuronen abgegriffen, während die Affen Arme und Hände bewegten. Black hat die Aktivitätsmuster aus dem motorischen Cortex ausgewertet und hofft, Rückschlüsse für die Programmierung von Computern ziehen zu können. Beson­ders interessant ist, dass der motorische Cortex eines Menschen auch dann aktiv ist, wenn er Bewegungen nur beobachtet, der Körper selbst also völlig regungslos ist. „Offen­sichtlich gibt es hier eine Beziehung zwischen dem eigenen Wissen über Bewegungen und dem Beobachten von Bewegungen“, sagt Black.

Derartige Erkenntnisse könnten für künftige Lernstrategien von Computern von großer Bedeutung sein. In Tübingen arbeitet Black daher nicht nur mit seinem direkten Kollegen Bernhard Schölkopf eng zusammen, sondern unter anderem auch mit den Experten aus dem benachbarten Max-Planck-Institut für biologische Kybernetik, etwa der Arbeitsgruppe von Heinrich H. Bülthoff, die sich mit sich mit Wahrnehmungsphänomenen und der Interaktion zwischen Mensch und Roboter befassen.

Ein wesentlicher Grund nach Tübingen zu kommen, war für ihn die Möglichkeit, an einer wirklich „großen Sache“ zu arbeiten. „Die Max-Planck-Gesellschaft erlaubt es einem Wissen­schaftler über Jahre Grundlegendes zu erforschen, die wesentlichen Prinzipien zu verstehen. Das findet man in den USA kaum“, sagt Black. „Viele Projekte haben dort kurze Laufzeiten von etwa drei Jahren, und müssen dann klare Ergebnisse liefern. Man hangelt sich von einem kleinen Projekt und einer kleinen wissenschaftlichen Fragestellung zur nächsten – und hofft, am Ende alles zum großen Bild zusammen setzen zu können.“ In Tübingen hinge­gen kann er das Thema der künstlichen Wahrnehmung und des künstlichen Sehens von Grund auf angehen – für Jahre.

„Ich möchte die neuronale Kontrolle der Bewegungen begreifen, die Modelle verstehen, nach denen das Hirn arbeitet und diese grundlegenden Prinzipien auf die künstliche Welt übertra­gen.“ In 20 Jahren wird sich dann zeigen, ob seine Maschinen tatsächlich so schlau sind wie ein Kleinkind. Die Herausforderung ist gigantisch, denn noch scheitern Maschinen schon an scheinbaren Kleinigkeiten: Wer einem Roboter nacheinander Breilöffelchen, Gummiball und Schnuffeltuch in die Hand drückt, hat seine wahre Freude, denn der Diener aus Stahl wird eine ganze Weile unbeholfen herumprobieren, bis er begreift, was zu tun ist. Ein Zweijähriger ist in der Zeit längst zum nächsten Spielzeug weiter getippelt.


Ph.D., Prof. (Brown University, Providence/USA) Michael J. Black
Max-Planck-Institut für Metallforschung, Stuttgart
Telefon: +49 7071 601-1801
Fax: +49 7071 601-1802
E-Mail: black@tuebingen.mpg.de

Tim Schröder | Max-Planck-Institut
Weitere Informationen:
http://www.mf.mpg.de

Weitere Nachrichten aus der Kategorie Bildung Wissenschaft:

nachricht MINT Nachwuchsbarometer 2017: Digitale Bildung in Deutschland braucht ein Update
22.06.2017 | acatech - Deutsche Akademie der Technikwissenschaften

nachricht Die Verbindung macht’s
24.03.2017 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.

Alle Nachrichten aus der Kategorie: Bildung Wissenschaft >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Der schärfste Laserstrahl der Welt

Physikalisch-Technische Bundesanstalt entwickelt einen Laser mit nur 10 mHz Linienbreite

So nah an den idealen Laser kam bisher noch keiner: In der Theorie hat ein Laser zwar genau eine einzige Farbe (Frequenz bzw. Wellenlänge). In Wirklichkeit...

Im Focus: Wellen schlagen

Computerwissenschaftler verwenden die Theorie von Wellenpaketen, um realistische und detaillierte Simulationen von Wasserwellen in Echtzeit zu erstellen. Ihre Ergebnisse werden auf der diesjährigen SIGGRAPH Konferenz vorgestellt.

Denkt man an einen See, einen Fluss oder an das Meer, so sieht man vor sich, wie sich das Wasser kräuselt, wie Wellen gegen die Felsen schlagen, wie Bugwellen...

Im Focus: Making Waves

Computer scientists use wave packet theory to develop realistic, detailed water wave simulations in real time. Their results will be presented at this year’s SIGGRAPH conference.

Think about the last time you were at a lake, river, or the ocean. Remember the ripples of the water, the waves crashing against the rocks, the wake following...

Im Focus: Schnelles und umweltschonendes Laserstrukturieren von Werkzeugen zur Folienherstellung

Kosteneffizienz und hohe Produktivität ohne dabei die Umwelt zu belasten: Im EU-Projekt »PoLaRoll« entwickelt das Fraunhofer-Institut für Produktionstechnologie IPT aus Aachen gemeinsam mit dem Oberhausener Fraunhofer-Institut für Umwelt-, Sicherheit- und Energietechnik UMSICHT und sechs Industriepartnern ein Modul zur direkten Laser-Mikrostrukturierung in einem Rolle-zu-Rolle-Verfahren. Ziel ist es, mit Hilfe dieses Systems eine siebartige Metallfolie als Demonstrator zu fertigen, die zum Sonnenschutz von Glasfassaden verwendet wird: Durch ihre besondere Geometrie wird die Sonneneinstrahlung reduziert, woraus sich ein verminderter Energieaufwand für Kühlung und Belüftung ergibt.

Das Fraunhofer IPT ist im Projekt »PoLaRoll« für die Prozessentwicklung der Laserstrukturierung sowie für die Mess- und Systemtechnik zuständig. Von den...

Im Focus: Das Auto lernt vorauszudenken

Ein neues Christian Doppler Labor an der TU Wien beschäftigt sich mit der Regelung und Überwachung von Antriebssystemen – mit Unterstützung des Wissenschaftsministeriums und von AVL List.

Wer ein Auto fährt, trifft ständig Entscheidungen: Man gibt Gas, bremst und dreht am Lenkrad. Doch zusätzlich muss auch das Fahrzeug selbst ununterbrochen...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Marine Pilze – hervorragende Quellen für neue marine Wirkstoffe?

28.06.2017 | Veranstaltungen

Willkommen an Bord!

28.06.2017 | Veranstaltungen

Internationale Fachkonferenz IEEE ICDCM - Lokale Gleichstromnetze bereichern die Energieversorgung

27.06.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Der schärfste Laserstrahl der Welt

29.06.2017 | Physik Astronomie

Maßgeschneiderte Nanopartikel gegen Krebs gesucht

29.06.2017 | Biowissenschaften Chemie

Wolken über der Wetterküche: Die Azoren im Fokus eines internationalen Forschungsteams

29.06.2017 | Geowissenschaften