Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Roboter und Avatare lernen gestikulieren

27.11.2013
Neues System der Universität Bielefeld erzeugt sinnvolle Gebärden

Wenn Menschen reden, sprechen die Hände und der Körper mit. Roboter oder Avatare dagegen bewegen ihre Hände oft gar nicht oder ihre Körpersprache passt nicht zu dem, was die technischen Helfer sagen.


Mit dem neuen System der Universität Bielefeld sollen Avatare wie Billie (Bild) und Roboter künftig fähig sein, sprachunterstützende Gesten zu machen.

Universität Bielefeld

Ein Forschungsteam um Professor Dr. Stefan Kopp und Dr. Kirsten Bergmann von der Technischen Fakultät der Universität Bielefeld hat jetzt ein System entwickelt, das verbale Sprache sinnvoll mit Gesten unterstützt. Die Entwicklung ist ein Ergebnis des Sonderforschungsbereichs „Alignment in Communication“ (Ausrichtung in der Kommunikation - SFB 673) der Universität Bielefeld.

„Gesten sind wichtig für die Organisation der gesprochenen Inhalte“, erklärt Professor Kopp, der eine Forschungsgruppe im Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) leitet und gleichzeitig ein Teilprojekt im SFB 637 mit verantwortet. Wenn Personen ihre Wohnung beschreiben, begleiten sie ihre Worte oft automatisch mit Gesten.

So kommt es vor, dass sie mit Gesten ein vorgestelltes Rechteck aufziehen und darin zeigen, wo sich die Möbel und andere Dinge befinden. „Auch Wegbeschreibungen sind gewöhnlich zu komplex, um sie in Sprache zu bringen. Gesten unterstützen solche Beschreibungen“, sagt Kopp. „Gesten tragen oft wichtige Informationen, die nicht in der Sprache sind. Sie senken so die geistige Beanspruchung des Sprechenden.“

Die CITEC-Forscherinnen und -Forscher haben in ihrem System modelliert, welche inneren Prozesse im Kopf ablaufen, wenn Menschen sprechen und gestikulieren. „Das kognitive Modell kann vorhersagen, welche Gesten zu einer geplanten Äußerung passen“, sagt Professor Kopp. Dabei berücksichtigt die neue Software, wie Menschen unter verschiedenen Bedingungen gestikulieren. Die Sprache hat zum Beispiel Einfluss auf die Gesten: Beschreibt man etwas in einer anderen Sprache, so ändern sich mit den neuen Begriffen auch die Vorstellungen, die man im Kopf bildet – und damit ändert sich mitunter auch die Geste zum Wort. Auch Zeit spielt eine Rolle bei der Benutzung von Gesten. „Wenn wir dem System mehr Zeit zum Denken geben, dann produziert es Gesten, die besser mit der Sprache abgestimmt sind, als wenn nur wenig Zeit zur Verfügung steht.“

Das Computerprogramm beherrscht ikonische Gesten, also bildhafte Bewegungen wie Kreise, Würfel oder Linien. „Damit lässt sich ein Großteil der Sprache untermalen“, sagt Kopp. Das System eignet sich unter anderem, um Robotern Gesten „beizubringen“. Es kann auch in Avataren eingesetzt werden. Stefan Kopp und sein Team entwickeln solche virtuellen Assistenten. Gesten sollen mit dafür sorgen, dass die Kommunikation mit diesen Alltagshelfern als natürlich empfunden wird. Die Forscherinnen und Forscher haben ihr System in einer Fachpublikation vorgestellt. Für den Beitrag wurden sie im August auf der „International Conference on Intelligent Virtual Agents“ (Internationale Konferenz zu intelligenten virtuellen Avataren – IVA) im schottischen Edinburgh ausgezeichnet.

Der Sonderforschungsbereich „Alignment in Communication“ (SFB 673) der Universität Bielefeld erforscht seit 2006 Prozesse der Ausrichtung in der Kommunikation als Alternative zu bislang gängigen Theorien menschlicher Kommunikation. Im Mittelpunkt stehen die vielfältigen sprachlichen und außersprachlichen Mechanismen, die eine gegenseitige Abstimmung und gemeinsame Ausrichtung ermöglichen, wenn Menschen miteinander kommunizieren. Die Bielefelder Wissenschaftlerinnen und Wissenschaftler verfolgen einen interdisziplinären Zugang, der linguistische und technische Forschungsgruppen zusammenbringt. Die Forschungsgruppe um Stefan Kopp arbeitet im Teilprojekt „Speech-Gesture Alignment“ (Ausrichtung von Sprache und Gestik).

Publikation:
Kirsten Bergmann, Sebastian Kahl und Stefan Kopp (2013): Modeling the semantic coordination of speech and gesture under cognitive and linguistic constraints. In: Intelligent Virtual Agents, Lecture Notes in Artificial Intelligence. Berlin/Heidelberg: Springer.
Kontakt:
apl. Prof. Dr.-Ing. Stefan Kopp, Universität Bielefeld
Exzellenzcluster Kognitive Interaktionstechnologie (CITEC)
Telefon: 0521 106-12144
E-Mail: skopp@techfak.uni-bielefeld.de

Jörg Heeren | idw
Weitere Informationen:
http://www.sfb673.org/projects/B1
http://www.uni-bielefeld.de

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Ein stabiles magnetisches Bit aus drei Atomen
21.09.2017 | Sonderforschungsbereich 668

nachricht Drohnen sehen auch im Dunkeln
20.09.2017 | Universität Zürich

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Hochpräzise Verschaltung in der Hirnrinde

Es ist noch immer weitgehend unbekannt, wie die komplexen neuronalen Netzwerke im Gehirn aufgebaut sind. Insbesondere in der Hirnrinde der Säugetiere, wo Sehen, Denken und Orientierung berechnet werden, sind die Regeln, nach denen die Nervenzellen miteinander verschaltet sind, nur unzureichend erforscht. Wissenschaftler um Moritz Helmstaedter vom Max-Planck-Institut für Hirnforschung in Frankfurt am Main und Helene Schmidt vom Bernstein-Zentrum der Humboldt-Universität in Berlin haben nun in dem Teil der Großhirnrinde, der für die räumliche Orientierung zuständig ist, ein überraschend präzises Verschaltungsmuster der Nervenzellen entdeckt.

Wie die Forscher in Nature berichten (Schmidt et al., 2017. Axonal synapse sorting in medial entorhinal cortex, DOI: 10.1038/nature24005), haben die...

Im Focus: Highly precise wiring in the Cerebral Cortex

Our brains house extremely complex neuronal circuits, whose detailed structures are still largely unknown. This is especially true for the so-called cerebral cortex of mammals, where among other things vision, thoughts or spatial orientation are being computed. Here the rules by which nerve cells are connected to each other are only partly understood. A team of scientists around Moritz Helmstaedter at the Frankfiurt Max Planck Institute for Brain Research and Helene Schmidt (Humboldt University in Berlin) have now discovered a surprisingly precise nerve cell connectivity pattern in the part of the cerebral cortex that is responsible for orienting the individual animal or human in space.

The researchers report online in Nature (Schmidt et al., 2017. Axonal synapse sorting in medial entorhinal cortex, DOI: 10.1038/nature24005) that synapses in...

Im Focus: Tiny lasers from a gallery of whispers

New technique promises tunable laser devices

Whispering gallery mode (WGM) resonators are used to make tiny micro-lasers, sensors, switches, routers and other devices. These tiny structures rely on a...

Im Focus: Wundermaterial Graphen: Gewölbt wie das Polster eines Chesterfield-Sofas

Graphen besitzt extreme Eigenschaften und ist vielseitig verwendbar. Mit einem Trick lassen sich sogar die Spins im Graphen kontrollieren. Dies gelang einem HZB-Team schon vor einiger Zeit: Die Physiker haben dafür eine Lage Graphen auf einem Nickelsubstrat aufgebracht und Goldatome dazwischen eingeschleust. Im Fachblatt 2D Materials zeigen sie nun, warum dies sich derartig stark auf die Spins auswirkt. Graphen kommt so auch als Material für künftige Informationstechnologien infrage, die auf der Verarbeitung von Spins als Informationseinheiten basieren.

Graphen ist wohl die exotischste Form von Kohlenstoff: Alle Atome sind untereinander nur in der Ebene verbunden und bilden ein Netz mit sechseckigen Maschen,...

Im Focus: Hochautomatisiertes Fahren bei Schnee und Regen: Robuste Warnehmung dank intelligentem Sensormix

Schlechte Sichtverhältnisse bei Regen oder Schnellfall sind für Menschen und hochautomatisierte Fahrzeuge eine große Herausforderung. Im europäischen Projekt RobustSENSE haben die Forscher von Fraunhofer FOKUS mit 14 Partnern, darunter die Daimler AG und die Robert Bosch GmbH, in den vergangenen zwei Jahren eine Softwareplattform entwickelt, auf der verschiedene Sensordaten von Kamera, Laser, Radar und weitere Informationen wie Wetterdaten kombiniert werden. Ziel ist, eine robuste und zuverlässige Wahrnehmung der Straßensituation unabhängig von der Komplexität und der Sichtverhältnisse zu gewährleisten. Nach der virtuellen Erprobung des Systems erfolgt nun der Praxistest, unter anderem auf dem Berliner Testfeld für hochautomatisiertes Fahren.

Starker Schneefall, ein Ball rollt auf die Fahrbahn: Selbst ein Mensch kann mitunter nicht schnell genug erkennen, ob dies ein gefährlicher Gegenstand oder...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Die Erde und ihre Bestandteile im Fokus

21.09.2017 | Veranstaltungen

23. Baltic Sea Forum am 11. und 12. Oktober nimmt Wirtschaftspartner Finnland in den Fokus

21.09.2017 | Veranstaltungen

6. Stralsunder IT-Sicherheitskonferenz im Zeichen von Smart Home

21.09.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

OLED auf hauchdünnem Edelstahl

21.09.2017 | Messenachrichten

Weniger (Flug-)Lärm dank Mathematik

21.09.2017 | Physik Astronomie

In Zeiten des Klimawandels: Was die Farbe eines Sees über seinen Zustand verrät

21.09.2017 | Geowissenschaften