Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Wie Mensch und Roboter zusammenarbeiten können

30.08.2010
Bayreuther Informatiker entwickeln neuen Ansatz zur Intentionserkennung

In vielen Lebensbereichen, von der industriellen Produktion bis zur Chirurgie, leisten Roboter unentbehrliche Dienste. Die Zahl der Einsatzmöglichkeiten steigt ständig. Wie kann die Zusammenarbeit von Menschen und Robotern weiter optimiert werden?

Weltweit arbeiten Forschungsteams an Systemen, die Roboter in die Lage versetzen, die Absichten von Menschen möglichst frühzeitig und möglichst zuverlässig zu erkennen. Denn sobald Roboter zu einer solchen Intentionserkennung fähig sind, müssen sie nicht auf per Knopfdruck erteilte Befehle warten, um den Menschen zuarbeiten zu können. Sie sind dann imstande, gleichsam aus eigener Initiative dazu beizutragen, dass die Menschen die angestrebten Ziele erreichen.

Die Fähigkeit von Robotern, Intentionen von Menschen zu erkennen und unter dieser Voraussetzung mit ihnen zu kooperieren, ist auch ein Forschungsschwerpunkt am Lehrstuhl für Robotik und Eingebettete Systeme (Angewandte Informatik III) der Universität Bayreuth.

Prof. Dr. Dominik Henrich und sein Mitarbeiter Muhammad Awais beschreiten dabei neue Wege. Während einer internationalen Robotik-Konferenz in Budapest im Juni 2010 haben sie einen gemeinsam entwickelten Lösungsansatz vorgestellt. Vor kurzem ist der Tagungsband im Druck erschienen.

Definierte Handlungsabfolgen in einem kameraüberwachten Arbeitsbereich

Das Szenario, das dem Bayreuther Lösungsansatz zugrunde liegt, ist ein Arbeitsbereich, in dem Mensch und Roboter in unmittelbarer räumlicher Nachbarschaft kooperieren. Diese Zusammenarbeit betrifft Gegenstände, deren räumliche Position auf eine exakt definierte Weise verändert werden soll – beispielsweise dadurch, dass sie aufeinander gestapelt oder einzeln an verschiedene Orte transportiert werden. Kameras haben den gesamten Arbeitsbereich im Visier. Sie übertragen Bilder von jeder Handlung, die der Mensch ausführt, zeitgleich an den Roboter.

Im Hinblick auf dieses Szenario wird nun eine Vielzahl einfacher Aktionen definiert, die der Mensch im Rahmen der Zusammenarbeit mit dem Roboter ausführen kann. Beispiele für solche Aktionen sind das Zeigen auf einen Gegenstand, das Ergreifen eines Gegenstands, das Anheben, Verschieben oder Ablegen eines Gegenstands, das Zeigen auf einen Ort innerhalb des Arbeitsbereichs, und vieles mehr. Man kann diese einfachen Aktionen mit formalen Bezeichnungen wie a1, a2, a3 … voneinander unterscheiden. Von zentraler Bedeutung ist dabei die folgende Tatsache: Alle komplexen Handlungen, die der Mensch während der Kooperation mit dem Roboter ausführt, sind als Abfolgen derartiger einfacher Aktionen definiert. Es gibt also beispielsweise eine Handlung H1, die eine Abfolge von a1 + a2 + a8 + a6 darstellt; es gibt eine weitere Handlung H2, die aus einer Abfolge von a2 + a9 + a3 besteht; und so fort. Mit jeder komplexen Handlung verbindet der Mensch eine spezifische Absicht.

Ein leistungsstarker Algorithmus zur Intentionserkennung

Der Roboter wird nun so programmiert, dass er weiß, welche komplexen Handlungen sein menschlicher Partner im Rahmen der Zusammenarbeit ausführen kann und welche spezifischen Absichten damit jeweils verbunden sind. Zudem weiß der Roboter, wie sich diese komplexen Handlungen aus einfachen Aktionen zusammensetzen. Schließlich ist er imstande, die Kamerabilder selbständig zu interpretieren. Dadurch ist er laufend darüber informiert, welche Aktion der Mensch gerade ausführt.

Die Pointe des Bayreuther Ansatzes zur Intentionserkennung ist ein Algorithmus, der mithilfe probabilistischer Zustandsmaschinen entwickelt wurde. Der Algorithmus versetzt den Roboter in die Lage, aufgrund der beobachteten Aktionen zuverlässig einzuschätzen, welche komplexe Handlung der Mensch begonnen hat und dabei ist zu vollenden. So ist der Roboter möglichst frühzeitig über die Absicht des Menschen informiert. Eine entsprechende Programmierung sorgt dafür, dass er auf diese Intentionserkennung mit Handlungen reagiert, die gewährleisten, dass der Mensch seine Absicht mit technischer Unterstützung erreicht.

So werden die Eigenarten von Mensch und Roboter in synergistischer Weise zusammengeführt. Der Roboter ist schnell, kräftig, präzise und ausdauernd. Dagegen hat der Mensch einen guten Überblick und hervorragende sensorische und kognitive Fähigkeiten.

Das Ziel: Anwendungen im Industriemaßstab

Die Bayreuther Informatiker haben den Algorithmus im Laboratorium vielfach erprobt. Von einem in alle Richtungen beweglichen Arm eines Roboters haben sie sich beispielsweise dabei unterstützen lassen, einen Gegenstand an einen vorgegebenen Ort zu transportieren, mehrere Gegenstände übereinander zu stapeln oder auch einen Stapel wieder abzutragen.

In keinem Fall war es erforderlich, die gewünschten Handlungen des Roboters per Knopfdruck auszulösen. Weil der Roboter die Intentionen seines menschlichen Gegenübers zuverlässig berechnen konnte, hat er sich proaktiv am Geschehen beteiligt. Awais und Henrich wollen diesen Ansatz mit weiteren Forschungsarbeiten vertiefen. „Wir sind zuversichtlich, dass sich die Zusammenarbeit von Mensch und Roboter auf diesem Weg noch intuitiver gestalten lässt. Möglicherweise lässt sich unser Ansatz eines Tages auch im Industriemaßstab realisieren“, meint Henrich.

Veröffentlichung:

Muhammad Awais and Dominik Henrich, Human-robot collaboration by intention recognition using probabilistic state machines, in: Proceedings of the RAAD 2010, 19th International Workshop on Robotics in Alpe-Adria- Danube Region – RAAD 2010, June 23-27, 2010, Budapest, Hungary.


Kontaktadresse für weitere Informationen:
Prof. Dr. Dominik Henrich
Lehrstuhl für Robotik und Eingebettete Systeme (Angew. Informatik III)
Universität Bayreuth
95440 Bayreuth
E-Mail: dominik.henrich@uni-bayreuth.de

Christian Wißler | Universität Bayreuth
Weitere Informationen:
http://www.ai3.uni-bayreuth.de/

Weitere Nachrichten aus der Kategorie Interdisziplinäre Forschung:

nachricht Neues Nano-CT-Gerät liefert hochauflösende Aufnahmen von winzigem Stummelfüßer-Bein
07.11.2017 | Technische Universität München

nachricht Neues Verbundprojekt erforscht die neurodegenerative Erkrankung Morbus Alzheimer
12.09.2017 | Universitätsklinikum Würzburg

Alle Nachrichten aus der Kategorie: Interdisziplinäre Forschung >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Ultrakalte chemische Prozesse: Physikern gelingt beispiellose Vermessung auf Quantenniveau

Wissenschaftler um den Ulmer Physikprofessor Johannes Hecker Denschlag haben chemische Prozesse mit einer beispiellosen Auflösung auf Quantenniveau vermessen. Bei ihrer wissenschaftlichen Arbeit kombinierten die Forscher Theorie und Experiment und können so erstmals die Produktzustandsverteilung über alle Quantenzustände hinweg - unmittelbar nach der Molekülbildung - nachvollziehen. Die Forscher haben ihre Erkenntnisse in der renommierten Fachzeitschrift "Science" publiziert. Durch die Ergebnisse wird ein tieferes Verständnis zunehmend komplexer chemischer Reaktionen möglich, das zukünftig genutzt werden kann, um Reaktionsprozesse auf Quantenniveau zu steuern.

Einer deutsch-amerikanischen Forschergruppe ist es gelungen, chemische Prozesse mit einer nie dagewesenen Auflösung auf Quantenniveau zu vermessen. Dadurch...

Im Focus: Leoniden 2017: Sternschnuppen im Anflug?

Gemeinsame Pressemitteilung der Vereinigung der Sternfreunde und des Hauses der Astronomie in Heidelberg

Die Sternschnuppen der Leoniden sind in diesem Jahr gut zu beobachten, da kein Mondlicht stört. Experten sagen für die Nächte vom 16. auf den 17. und vom 17....

Im Focus: «Kosmische Schlange» lässt die Struktur von fernen Galaxien erkennen

Die Entstehung von Sternen in fernen Galaxien ist noch weitgehend unerforscht. Astronomen der Universität Genf konnten nun erstmals ein sechs Milliarden Lichtjahre entferntes Sternensystem genauer beobachten – und damit frühere Simulationen der Universität Zürich stützen. Ein spezieller Effekt ermöglicht mehrfach reflektierte Bilder, die sich wie eine Schlange durch den Kosmos ziehen.

Heute wissen Astronomen ziemlich genau, wie sich Sterne in der jüngsten kosmischen Vergangenheit gebildet haben. Aber gelten diese Gesetzmässigkeiten auch für...

Im Focus: A “cosmic snake” reveals the structure of remote galaxies

The formation of stars in distant galaxies is still largely unexplored. For the first time, astron-omers at the University of Geneva have now been able to closely observe a star system six billion light-years away. In doing so, they are confirming earlier simulations made by the University of Zurich. One special effect is made possible by the multiple reflections of images that run through the cosmos like a snake.

Today, astronomers have a pretty accurate idea of how stars were formed in the recent cosmic past. But do these laws also apply to older galaxies? For around a...

Im Focus: Pflanzenvielfalt von Wäldern aus der Luft abbilden

Produktivität und Stabilität von Waldökosystemen hängen stark von der funktionalen Vielfalt der Pflanzengemeinschaften ab. UZH-Forschenden gelang es, die Pflanzenvielfalt von Wäldern durch Fernerkundung mit Flugzeugen in verschiedenen Massstäben zu messen und zu kartieren – von einzelnen Bäumen bis hin zu ganzen Artengemeinschaften. Die neue Methode ebnet den Weg, um zukünftig die globale Pflanzendiversität aus der Luft und aus dem All zu überwachen.

Ökologische Studien zeigen, dass die Pflanzenvielfalt zentral ist für das Funktionieren von Ökosys-temen. Wälder mit einer höheren funktionalen Vielfalt –...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Technologievorsprung durch Textiltechnik

17.11.2017 | Veranstaltungen

Roboter für ein gesundes Altern: „European Robotics Week 2017“ an der Frankfurt UAS

17.11.2017 | Veranstaltungen

Börse für Zukunftstechnologien – Leichtbautag Stade bringt Unternehmen branchenübergreifend zusammen

17.11.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Technologievorsprung durch Textiltechnik

17.11.2017 | Veranstaltungsnachrichten

IHP präsentiert sich auf der productronica 2017

17.11.2017 | Messenachrichten

Roboter schafft den Salto rückwärts

17.11.2017 | Innovative Produkte