Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Wie Mensch und Roboter zusammenarbeiten können

30.08.2010
Bayreuther Informatiker entwickeln neuen Ansatz zur Intentionserkennung

In vielen Lebensbereichen, von der industriellen Produktion bis zur Chirurgie, leisten Roboter unentbehrliche Dienste. Die Zahl der Einsatzmöglichkeiten steigt ständig. Wie kann die Zusammenarbeit von Menschen und Robotern weiter optimiert werden?

Weltweit arbeiten Forschungsteams an Systemen, die Roboter in die Lage versetzen, die Absichten von Menschen möglichst frühzeitig und möglichst zuverlässig zu erkennen. Denn sobald Roboter zu einer solchen Intentionserkennung fähig sind, müssen sie nicht auf per Knopfdruck erteilte Befehle warten, um den Menschen zuarbeiten zu können. Sie sind dann imstande, gleichsam aus eigener Initiative dazu beizutragen, dass die Menschen die angestrebten Ziele erreichen.

Die Fähigkeit von Robotern, Intentionen von Menschen zu erkennen und unter dieser Voraussetzung mit ihnen zu kooperieren, ist auch ein Forschungsschwerpunkt am Lehrstuhl für Robotik und Eingebettete Systeme (Angewandte Informatik III) der Universität Bayreuth.

Prof. Dr. Dominik Henrich und sein Mitarbeiter Muhammad Awais beschreiten dabei neue Wege. Während einer internationalen Robotik-Konferenz in Budapest im Juni 2010 haben sie einen gemeinsam entwickelten Lösungsansatz vorgestellt. Vor kurzem ist der Tagungsband im Druck erschienen.

Definierte Handlungsabfolgen in einem kameraüberwachten Arbeitsbereich

Das Szenario, das dem Bayreuther Lösungsansatz zugrunde liegt, ist ein Arbeitsbereich, in dem Mensch und Roboter in unmittelbarer räumlicher Nachbarschaft kooperieren. Diese Zusammenarbeit betrifft Gegenstände, deren räumliche Position auf eine exakt definierte Weise verändert werden soll – beispielsweise dadurch, dass sie aufeinander gestapelt oder einzeln an verschiedene Orte transportiert werden. Kameras haben den gesamten Arbeitsbereich im Visier. Sie übertragen Bilder von jeder Handlung, die der Mensch ausführt, zeitgleich an den Roboter.

Im Hinblick auf dieses Szenario wird nun eine Vielzahl einfacher Aktionen definiert, die der Mensch im Rahmen der Zusammenarbeit mit dem Roboter ausführen kann. Beispiele für solche Aktionen sind das Zeigen auf einen Gegenstand, das Ergreifen eines Gegenstands, das Anheben, Verschieben oder Ablegen eines Gegenstands, das Zeigen auf einen Ort innerhalb des Arbeitsbereichs, und vieles mehr. Man kann diese einfachen Aktionen mit formalen Bezeichnungen wie a1, a2, a3 … voneinander unterscheiden. Von zentraler Bedeutung ist dabei die folgende Tatsache: Alle komplexen Handlungen, die der Mensch während der Kooperation mit dem Roboter ausführt, sind als Abfolgen derartiger einfacher Aktionen definiert. Es gibt also beispielsweise eine Handlung H1, die eine Abfolge von a1 + a2 + a8 + a6 darstellt; es gibt eine weitere Handlung H2, die aus einer Abfolge von a2 + a9 + a3 besteht; und so fort. Mit jeder komplexen Handlung verbindet der Mensch eine spezifische Absicht.

Ein leistungsstarker Algorithmus zur Intentionserkennung

Der Roboter wird nun so programmiert, dass er weiß, welche komplexen Handlungen sein menschlicher Partner im Rahmen der Zusammenarbeit ausführen kann und welche spezifischen Absichten damit jeweils verbunden sind. Zudem weiß der Roboter, wie sich diese komplexen Handlungen aus einfachen Aktionen zusammensetzen. Schließlich ist er imstande, die Kamerabilder selbständig zu interpretieren. Dadurch ist er laufend darüber informiert, welche Aktion der Mensch gerade ausführt.

Die Pointe des Bayreuther Ansatzes zur Intentionserkennung ist ein Algorithmus, der mithilfe probabilistischer Zustandsmaschinen entwickelt wurde. Der Algorithmus versetzt den Roboter in die Lage, aufgrund der beobachteten Aktionen zuverlässig einzuschätzen, welche komplexe Handlung der Mensch begonnen hat und dabei ist zu vollenden. So ist der Roboter möglichst frühzeitig über die Absicht des Menschen informiert. Eine entsprechende Programmierung sorgt dafür, dass er auf diese Intentionserkennung mit Handlungen reagiert, die gewährleisten, dass der Mensch seine Absicht mit technischer Unterstützung erreicht.

So werden die Eigenarten von Mensch und Roboter in synergistischer Weise zusammengeführt. Der Roboter ist schnell, kräftig, präzise und ausdauernd. Dagegen hat der Mensch einen guten Überblick und hervorragende sensorische und kognitive Fähigkeiten.

Das Ziel: Anwendungen im Industriemaßstab

Die Bayreuther Informatiker haben den Algorithmus im Laboratorium vielfach erprobt. Von einem in alle Richtungen beweglichen Arm eines Roboters haben sie sich beispielsweise dabei unterstützen lassen, einen Gegenstand an einen vorgegebenen Ort zu transportieren, mehrere Gegenstände übereinander zu stapeln oder auch einen Stapel wieder abzutragen.

In keinem Fall war es erforderlich, die gewünschten Handlungen des Roboters per Knopfdruck auszulösen. Weil der Roboter die Intentionen seines menschlichen Gegenübers zuverlässig berechnen konnte, hat er sich proaktiv am Geschehen beteiligt. Awais und Henrich wollen diesen Ansatz mit weiteren Forschungsarbeiten vertiefen. „Wir sind zuversichtlich, dass sich die Zusammenarbeit von Mensch und Roboter auf diesem Weg noch intuitiver gestalten lässt. Möglicherweise lässt sich unser Ansatz eines Tages auch im Industriemaßstab realisieren“, meint Henrich.

Veröffentlichung:

Muhammad Awais and Dominik Henrich, Human-robot collaboration by intention recognition using probabilistic state machines, in: Proceedings of the RAAD 2010, 19th International Workshop on Robotics in Alpe-Adria- Danube Region – RAAD 2010, June 23-27, 2010, Budapest, Hungary.


Kontaktadresse für weitere Informationen:
Prof. Dr. Dominik Henrich
Lehrstuhl für Robotik und Eingebettete Systeme (Angew. Informatik III)
Universität Bayreuth
95440 Bayreuth
E-Mail: dominik.henrich@uni-bayreuth.de

Christian Wißler | Universität Bayreuth
Weitere Informationen:
http://www.ai3.uni-bayreuth.de/

Weitere Nachrichten aus der Kategorie Interdisziplinäre Forschung:

nachricht Untersuchung der Zellmembran: Forscher entwickeln Stoff, der wichtigen Membranbestandteil nachahmt
25.05.2018 | Westfälische Wilhelms-Universität Münster

nachricht Nanopartikel aus Kläranlagen - vorläufige Entwarnung
02.05.2018 | Universität Siegen

Alle Nachrichten aus der Kategorie: Interdisziplinäre Forschung >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Future electronic components to be printed like newspapers

A new manufacturing technique uses a process similar to newspaper printing to form smoother and more flexible metals for making ultrafast electronic devices.

The low-cost process, developed by Purdue University researchers, combines tools already used in industry for manufacturing metals on a large scale, but uses...

Im Focus: Rostocker Forscher entwickeln autonom fahrende Kräne

Industriepartner kommen aus sechs Ländern

Autonom fahrende, intelligente Kräne und Hebezeuge – dieser Ingenieurs-Traum könnte in den nächsten drei Jahren zur Wirklichkeit werden. Forscher aus dem...

Im Focus: Superscharfe Bilder von der neuen Adaptiven Optik des VLT

Das Very Large Telescope (VLT) der ESO hat das erste Licht mit einem neuen Modus Adaptiver Optik erreicht, die als Lasertomografie bezeichnet wird – und hat in diesem Rahmen bemerkenswert scharfe Testbilder vom Planeten Neptun, von Sternhaufen und anderen Objekten aufgenommen. Das bahnbrechende MUSE-Instrument kann ab sofort im sogenannten Narrow-Field-Modus mit dem adaptiven Optikmodul GALACSI diese neue Technik nutzen, um Turbulenzen in verschiedenen Höhen in der Erdatmosphäre zu korrigieren. Damit ist jetzt möglich, Bilder vom Erdboden im sichtbaren Licht aufzunehmen, die schärfer sind als die des NASA/ESA Hubble-Weltraumteleskops. Die Kombination aus exquisiter Bildschärfe und den spektroskopischen Fähigkeiten von MUSE wird es den Astronomen ermöglichen, die Eigenschaften astronomischer Objekte viel detaillierter als bisher zu untersuchen.

Das MUSE-Instrument (kurz für Multi Unit Spectroscopic Explorer) am Very Large Telescope (VLT) der ESO arbeitet mit einer adaptiven Optikeinheit namens GALACSI. Dabei kommt auch die Laser Guide Stars Facility, kurz ...

Im Focus: Diamant – ein unverzichtbarer Werkstoff der Fusionstechnologie

Forscher am KIT entwickeln Fenstereinheiten mit Diamantscheiben für Fusionsreaktoren – Neue Scheibe mit Rekorddurchmesser von 180 Millimetern

Klimafreundliche und fast unbegrenzte Energie aus dem Fusionskraftwerk – für dieses Ziel kooperieren Wissenschaftlerinnen und Wissenschaftler weltweit. Bislang...

Im Focus: Wiener Forscher finden vollkommen neues Konzept zur Messung von Quantenverschränkung

Quantenphysiker/innen der ÖAW entwickelten eine neuartige Methode für den Nachweis von hochdimensional verschränkten Quantensystemen. Diese ermöglicht mehr Effizienz, Sicherheit und eine weitaus geringere Fehleranfälligkeit gegenüber bisher gängigen Mess-Methoden, wie die Forscher/innen nun im Fachmagazin „Nature Physics“ berichten.

Die Vision einer vollständig abhörsicheren Übertragung von Information rückt dank der Verschränkung von Quantenteilchen immer mehr in Reichweite. Wird eine...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks
Industrie & Wirtschaft
Veranstaltungen

Stadtklima verbessern, Energiemix optimieren, sauberes Trinkwasser bereitstellen

19.07.2018 | Veranstaltungen

Innovation – the name of the game

18.07.2018 | Veranstaltungen

Wie geht es unserer Ostsee? Ein aktueller Zustandsbericht

17.07.2018 | Veranstaltungen

VideoLinks
Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

Sichere Schraubverbindungen mit standardisiertem Ultraschallverfahren

23.07.2018 | Verfahrenstechnologie

Studie zu Werkstoffprüfung: Schäden in nichtmagnetischem Stahl mit Magnetismus aufspüren

23.07.2018 | Studien Analysen

Sauerstoffstabile Hydrogenasen für die Anwendung

23.07.2018 | Biowissenschaften Chemie

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics