Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Die selbstlernende Roboterhand

30.05.2017

Exzellenzcluster CITEC stellt neues Greif-Lern-System vor

Forschende der Universität Bielefeld haben ein Greifsystem mit Roboterhänden entwickelt, das sich selbständig mit unbekannten Gegenständen vertraut macht. Das neue System funktioniert, ohne vorher die Merkmale von Objekten wie Obst oder Werkzeug zu kennen. Entwickelt wurde das Greif-Lern-System im Großprojekt „Famula“ des Exzellenzclusters Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld.


Obwohl die Roboterhände die Kraft hätten, den Apfel fest zu drücken, dosieren sie ihre Kraft für einen feinfühligen Griff, der auch empfindlichen Objekten nicht schadet.

Foto: Universität Bielefeld

Das Wissen aus dem Projekt könnte zum Beispiel dazu beitragen, dass künftige Serviceroboter sich selbst in neue Haushalte einarbeiten. CITEC investiert für Famula rund eine Million Euro. In einem neuem „research_tv“-Beitrag der Universität Bielefeld erklären die Leiter des Projekts die Neuentwicklung.

„Unser System lernt durch Probieren und eigenes Erkunden – so wie auch Babys sich neuen Objekten widmen“, sagt Professor Dr. Helge Ritter. Der Neuroinformatiker leitet das Projekt zusammen mit dem Sportwissenschaftler und Kognitionspsychologen Professor Dr. Thomas Schack und dem Robotiker Privatdozent Dr. Sven Wachsmuth.

Die CITEC-Wissenschaftler arbeiten mit einem Roboter mit zwei Händen, die menschlichen Händen in Form und Beweglichkeit nachempfunden sind. Das Robotergehirn für diese Hände muss lernen, wie alltägliche Objekte, etwa Obst, Geschirr oder auch Plüschtiere, durch ihre Farben und Formen unterschieden werden können, und worauf es ankommt, wenn man sie greifen will.

Der Mensch als Vorbild

Eine Banane lässt sich umgreifen, ein Knopf sich drücken. „Das System lernt, solche Möglichkeiten aus Merkmalen zu erkennen und baut sich ein Modell für den Umgang und die Wiedererkennung auf“, sagt Ritter.

Dafür verbindet das interdisziplinäre Projekt Arbeiten in der künstlichen Intelligenz mit Forschungsarbeiten in weiteren Disziplinen. So untersuchte die Forschungsgruppe von Thomas Schack, welche Merkmale Versuchspersonen als bedeutsam bei Greifaktionen wahrnehmen. In einer Studie mussten die Probanden die Ähnlichkeit von mehr als 100 Objekten vergleichen.

„Überraschend war, dass das Gewicht kaum eine Rolle spielt. Wir Menschen verlassen uns vor allem auf die Form und die Größe, wenn wir Dinge unterscheiden“, sagt Thomas Schack. In einer weiteren Studie ließen sich Testpersonen die Augen verbinden und hantierten mit Würfeln, die sich in Gewicht, Form und Größe unterschieden. Infrarotkameras zeichneten die Handbewegungen auf.

„Dadurch erfahren wir, wie Menschen einen Gegenstand ertasten und welche Strategien sie bevorzugt nutzen, um seine Eigenschaften zu erfassen“, sagt Dirk Koester, Mitarbeiter in Schacks Forschungsgruppe. „Wir erfahren natürlich auch, welche Fehler Menschen beim blinden Ertasten machen.“

System versetzt sich in die Position seines „Mentors“

Vor einem großen Metallkäfig mit den beiden Roboterarmen und einem Tisch mit verschiedenen Testobjekten steht Dr. Robert Haschke, Mitarbeiter von Helge Ritter. Er hilft dem System in der Rolle eines menschlichen Lern-Mentors beim Erlernen neuer Gegenstände. So sagt er den Händen, welches Objekt auf dem Tisch sie als nächstes inspizieren sollen. Dazu zeigt Haschke auf einzelne Objekte oder gibt sprachliche Hinweise, wie etwa eine Richtung ("hinten links"), in der für den Roboter ein interessantes Objekt zu finden ist. Zwei Monitore zeigen, wie das System über Farbkameras und Tiefensensoren seine Umgebung wahrnimmt und auf die Kommandos des Menschen reagiert.

„Die Hände müssen mündliche Sprache, aber auch Gestik deuten können, um zu verstehen, mit welchem Objekt sie sich befassen sollen“, erklärt Sven Wachsmuth vom CITEC-Zentrallabor. „Und sie müssen sich in die Position des Menschen versetzen können, auch um nachzufragen, ob sie richtig verstanden haben.“ Wachsmuth und sein Team sind nicht nur für die Sprachkompetenz des Systems zuständig. Sie haben ihm auch ein Gesicht gegeben: Von einem der Bildschirme aus verfolgt Flobi die Bewegung der Hände und reagiert auf die Anweisungen der Wissenschaftler. Flobi ist ein stilisierter Roboterkopf, der die Sprache und die Handlungen des Roboters durch Gesichtsausdrücke ergänzt. Als Teil des Famula-Systems ist derzeit die virtuelle Version des Roboters im Einsatz.

Die menschliche Interaktion verstehen

Mit Famula betreiben die CITEC-Forscher Grundlagenforschung, die künftigen selbstlernenden Robotern in Haushalt und Industrie zugutekommen kann. „Wir wollen verstehen, wie wir lernen, unsere Umwelt dank unserer Hände buchstäblich zu begreifen. Der Roboter ermöglicht uns dabei, unsere Erkenntnisse in der Realität zu überprüfen und Lücken in unserem Verständnis schonungslos aufzudecken. Dadurch leisten wir einen Beitrag für den künftigen Einsatz komplexer, vielfingriger Roboterhände, die heute noch zu kostspielig und zu komplex für den Einsatz zum Beispiel in der Industrie sind“, sagt Ritter.

Der Projektname Famula steht für „Deep Familarization and Learning Grounded in Cooperative Manual Action and Language: from Analysis to Implementation” – zu Deutsch etwa: Intensives Vertrautmachen und Lernen bei kooperativen Handbewegungen und Sprache: von der Untersuchung zur Umsetzung“. Das Projekt läuft seit 2014 und ist zunächst bis Oktober 2017 befristet.

Acht Forschungsgruppen des Exzellenzclusters CITEC arbeiten an Famula mit. Es ist eins von vier CITEC-Großprojekten. Die weiteren Projekte sind das Roboter-Service-Apartment, der Laufroboter Hector und die virtuelle Trainingsumgebung ICSpace. CITEC wird als Teil der Exzellenzinitiative von der Deutschen Forschungsgemeinschaft (DFG) im Auftrag von Bund und Ländern gefördert (EXC 277).

Weitere Informationen im Internet:
• Beitrag zu Famula bei research_tv: https://youtu.be/dIvFjkkrG20
• „Vom Begreifen“ (Artikel im Forschungsmagazin BI.research, S. 22): http://bit.ly/2qmG6RI
• Übersicht der Forschungsprojekte am CITEC: https://cit-ec.de/de/projekte

Kontakt:
Prof. Dr. Helge Ritter, Universität Bielefeld
Exzellenzcluster Kognitive Interaktionstechnologie (CITEC)
Telefon: 0521 106-12123
E-Mail: helge@techfak.uni-bielefeld.de

Sandra Sieraad | idw - Informationsdienst Wissenschaft
Weitere Informationen:
http://www.uni-bielefeld.de/

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Ein stabiles magnetisches Bit aus drei Atomen
21.09.2017 | Sonderforschungsbereich 668

nachricht Drohnen sehen auch im Dunkeln
20.09.2017 | Universität Zürich

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Hochpräzise Verschaltung in der Hirnrinde

Es ist noch immer weitgehend unbekannt, wie die komplexen neuronalen Netzwerke im Gehirn aufgebaut sind. Insbesondere in der Hirnrinde der Säugetiere, wo Sehen, Denken und Orientierung berechnet werden, sind die Regeln, nach denen die Nervenzellen miteinander verschaltet sind, nur unzureichend erforscht. Wissenschaftler um Moritz Helmstaedter vom Max-Planck-Institut für Hirnforschung in Frankfurt am Main und Helene Schmidt vom Bernstein-Zentrum der Humboldt-Universität in Berlin haben nun in dem Teil der Großhirnrinde, der für die räumliche Orientierung zuständig ist, ein überraschend präzises Verschaltungsmuster der Nervenzellen entdeckt.

Wie die Forscher in Nature berichten (Schmidt et al., 2017. Axonal synapse sorting in medial entorhinal cortex, DOI: 10.1038/nature24005), haben die...

Im Focus: Highly precise wiring in the Cerebral Cortex

Our brains house extremely complex neuronal circuits, whose detailed structures are still largely unknown. This is especially true for the so-called cerebral cortex of mammals, where among other things vision, thoughts or spatial orientation are being computed. Here the rules by which nerve cells are connected to each other are only partly understood. A team of scientists around Moritz Helmstaedter at the Frankfiurt Max Planck Institute for Brain Research and Helene Schmidt (Humboldt University in Berlin) have now discovered a surprisingly precise nerve cell connectivity pattern in the part of the cerebral cortex that is responsible for orienting the individual animal or human in space.

The researchers report online in Nature (Schmidt et al., 2017. Axonal synapse sorting in medial entorhinal cortex, DOI: 10.1038/nature24005) that synapses in...

Im Focus: Tiny lasers from a gallery of whispers

New technique promises tunable laser devices

Whispering gallery mode (WGM) resonators are used to make tiny micro-lasers, sensors, switches, routers and other devices. These tiny structures rely on a...

Im Focus: Wundermaterial Graphen: Gewölbt wie das Polster eines Chesterfield-Sofas

Graphen besitzt extreme Eigenschaften und ist vielseitig verwendbar. Mit einem Trick lassen sich sogar die Spins im Graphen kontrollieren. Dies gelang einem HZB-Team schon vor einiger Zeit: Die Physiker haben dafür eine Lage Graphen auf einem Nickelsubstrat aufgebracht und Goldatome dazwischen eingeschleust. Im Fachblatt 2D Materials zeigen sie nun, warum dies sich derartig stark auf die Spins auswirkt. Graphen kommt so auch als Material für künftige Informationstechnologien infrage, die auf der Verarbeitung von Spins als Informationseinheiten basieren.

Graphen ist wohl die exotischste Form von Kohlenstoff: Alle Atome sind untereinander nur in der Ebene verbunden und bilden ein Netz mit sechseckigen Maschen,...

Im Focus: Hochautomatisiertes Fahren bei Schnee und Regen: Robuste Warnehmung dank intelligentem Sensormix

Schlechte Sichtverhältnisse bei Regen oder Schnellfall sind für Menschen und hochautomatisierte Fahrzeuge eine große Herausforderung. Im europäischen Projekt RobustSENSE haben die Forscher von Fraunhofer FOKUS mit 14 Partnern, darunter die Daimler AG und die Robert Bosch GmbH, in den vergangenen zwei Jahren eine Softwareplattform entwickelt, auf der verschiedene Sensordaten von Kamera, Laser, Radar und weitere Informationen wie Wetterdaten kombiniert werden. Ziel ist, eine robuste und zuverlässige Wahrnehmung der Straßensituation unabhängig von der Komplexität und der Sichtverhältnisse zu gewährleisten. Nach der virtuellen Erprobung des Systems erfolgt nun der Praxistest, unter anderem auf dem Berliner Testfeld für hochautomatisiertes Fahren.

Starker Schneefall, ein Ball rollt auf die Fahrbahn: Selbst ein Mensch kann mitunter nicht schnell genug erkennen, ob dies ein gefährlicher Gegenstand oder...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Die Erde und ihre Bestandteile im Fokus

21.09.2017 | Veranstaltungen

23. Baltic Sea Forum am 11. und 12. Oktober nimmt Wirtschaftspartner Finnland in den Fokus

21.09.2017 | Veranstaltungen

6. Stralsunder IT-Sicherheitskonferenz im Zeichen von Smart Home

21.09.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

OLED auf hauchdünnem Edelstahl

21.09.2017 | Messenachrichten

Weniger (Flug-)Lärm dank Mathematik

21.09.2017 | Physik Astronomie

In Zeiten des Klimawandels: Was die Farbe eines Sees über seinen Zustand verrät

21.09.2017 | Geowissenschaften