Mit der Technik auf Du und Du

Der Care-O-bot® erledigt einfache Hausarbeiten. © Fraunhofer

Roboter, die aufs Wort gehorchen, Computer, die auf Fingerzeig reagieren – die technischen Geräte der Zukunft sind einfach über Sprache, Gestik und Mimik zu bedienen. Auf dem Sonderstand Mensch-Technik-Interaktion MTI des Bundesforschungsministeriums BMBF auf der CeBIT in Halle 11 werden erste Demonstratoren gezeigt.

Bequem lehnt sich die ältere Dame in ihrem Sofa zurück und befiehlt: „Hol mir bitte Orangensaft.“ Sofort setzt sich der kleine silberblaue Roboter in Bewegung. In der Küche nimmt er ein sauberes Glas und die Saftflasche vom Küchentisch. Dann rollt er ins Wohnzimmer zurück, umkurvt geschickt die Stehlampe und stellt beides vorsichtig auf dem Tisch vor dem Sofa ab.

Der stählerne Diener ist Care-O-bot® II des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA. Der Service-Roboter soll künftig alten und kranken Menschen bei der Hausarbeit helfen. Der mobile Roboter navigiert selbstständig durchs Haus und erledigt einfache Arbeiten, wie Tisch decken, Sachen holen, Heizung höher stellen oder Mikrowelle anschalten. „Entscheidend bei der Entwicklung solcher Roboter ist die Fähigkeit zu einer einfachen, natürlichen und intuitiven Interaktion“, sagt Roboter-Experte Prof. Rolf Dieter Schraft vom IPA. Damit auch ältere und kranke Menschen ohne Probleme den Roboter nutzen können, muss er über Sprache, Gestik und über Antippen von graphischen Bediensymbolen zu bedienen sein. Entwickelt wurde die neue Generation der Service-Roboter in den vom BMBF geförderten Leitprojekten zur Mensch-Technik-Interaktion. Bis die stählernen Haushaltshilfen ihren Dienst in unseren Wohnstuben antreten, werden aber noch mindestens zehn Jahre vergehen.

Im Büro sollen nicht Roboter, sondern mobile Software-Agenten künftig die Arbeit erleichtern. Die digitalen Helfer nehmen lästige Routinearbeiten ab. „Software-Agenten sind pro-aktive, intelligente Software-Einheiten, die von Server zu Server wandern und für ihre Nutzer Aufträge erledigen“, erklärt Ulrich Pinsdorf vom Fraunhofer-Institut für Graphische Datenverarbeitung IGD. Sie buchen Flüge, reservieren Hotelzimmer oder stimmen Termine ab. Bedienen lassen sich die Agenten über Sprache. Der einfache Befehl „Buche mir einen Flug für nächsten Dienstag gegen 9 Uhr nach Köln“ reicht aus und schon erledigen die digitalen Helfer die Aufgabe. So könnte der „Multimedia-Arbeitsplatz der Zukunft“ aussehen.

Doch noch ist die Bedienung via Spracheingabe bei elektronischen Geräten die Ausnahme. Egal ob Handy, Videorecorder oder Digitalkamera – derzeit muss der Nutzer für fast jedes Produkt eine neue „Sprache“ lernen. Einfacher wäre es, wenn er wie mit einem Menschen über Sprache, Gestik und Gesichtsausdruck mit der Maschine kommunizieren könnte. Wichtige Grundlagen für eine „natürliche“ Kommunikation zwischen Mensch und Technik wurden in dem vom Deutschen Forschungszentrum für Künstliche Intelligenz DFKI koordinierten Projekt SmartKom gelegt. Die Forscher entwickelten ein System, das Sprache, Handbewegungen und Mimik deuten und verarbeiten kann. Tastatur und Maus werden so überflüssig. Eine besondere Art der Spracherkennung und -analyse haben Forscher des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO in dem Projekt INVITE „Initiative Mensch-Technik-Interaktion für die vernetzte Informationswelt der Zukunft“ entwickelt. Das System kann nicht nur ein Gespräch erfassen, es erkennt auch spezielle Begriffe und bildet automatisch Assoziationsketten. Eine einfache Bedienung ist vor allem für öffentliche technische Geräte wie Terminalsysteme unerlässlich. Doch bislang sind Fahrkartenautomaten oder Infosysteme nur selten intuitiv zu nutzen. Vor allem ältere Menschen oder Menschen mit Behinderungen kommen mit den Terminalsystemen nicht zurecht. Dass es auch anders geht, zeigt das Projekt EMBASSI, an dem das IGD mitgearbeitet hat. Forscher haben ein mobiles Gerät entwickelt, das mit dem jeweiligen Automaten interagiert. Das Mobilgerät lässt sich an die Bedürfnisse seines Nutzers anpassen und mit Blindenschrift oder Spracheingabe.

Dank Spracheingabe, dem Erkennen von Gestik und Mimik können elektronische Geräte und Computer bald ohne das mühsame Wälzen von Gebrauchsanweisungen bedient werden. Doch was ist mit der Wartung von komplexen Anlagen? In dem Projekt ARVIKA „Augmented Reality für Entwicklung, Produktion und Service“ haben Forscher des IGD das „Handbuch der Zukunft“ entwickelt. Künftig setzt der Servicetechniker nur noch eine Datenbrille auf und erhält alle notwendigen Informationen. Möglich macht das die erweiterte Realität (Augmented Reality = AR). Hierbei werden virtuelle Daten direkt auf reale Objekte projiziert. Das mobile AR-System erkennt den Typ der Anlage und blendet die Arbeitsanweisungen über eine Datenbrille direkt in das Blickfeld des Technikers ein.

Noch einen Schritt weiter geht das Projekt „Virtual Human“. In dem Forschungsvorhaben arbeiten Wissenschaftler des IGD und des Fraunhofer-Instituts für Medienkommunikation IMK an autonomen, virtuellen Kunstfiguren, auch Avatare genannt. Ziel ist die möglichst menschenähnliche Gestaltung des Avatars. Die Kunstfigur soll sich ähnlich wie ein Mensch via Sprache, Mimik und Gestik mit dem Nutzer verständigen. Die gesamte Animation und der Dialog erfolgen in Echtzeit. Dies ist wichtig, um eine situationsgerechte Kommunikation mit dem digitalen Gegenüber herzustellen.

Brillante Bilder in der dritten Dimension sind auf der HEyeWall – einem neuartigen Projektionssystem – zu sehen. Die Wiedergabe stereoskopischer Bilder erzeugt beim Betrachter einen dreidimensionalen Raumeindruck. Er kann mit hochaufgelösten Bildern und Prozessen, die bis ins kleinste Detail und in Echzeit dargestellt sind, interagieren. Damit lässt sich zum Beispiel das Design Review optimieren, hochkomplexe Stadtmodelle visualisieren oder die Sicherheit in der Flugüberwachung verbessern. HEyeWall eröffnet völlig neue Potenziale, um sehr schnell und unkompliziert Produkte, Prozesse und Verfahren detailgetreu darzustellen.

Dass komplizierte Technik durchaus einfach zu bedienen sein kann, zeigen diese und weitere Exponate auf dem Stand des BMBF zur Mensch-Technik-Interaktion in Halle 11, Stand F 36, E28.

Media Contact

Dr. Johannes Ehrlenspiel Fraunhofer-Gesellschaft

Alle Nachrichten aus der Kategorie: CeBIT 2004

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Neues topologisches Metamaterial

… verstärkt Schallwellen exponentiell. Wissenschaftlerinnen und Wissenschaftler am niederländischen Forschungsinstitut AMOLF haben in einer internationalen Kollaboration ein neuartiges Metamaterial entwickelt, durch das sich Schallwellen auf völlig neue Art und Weise…

Astronomen entdecken starke Magnetfelder

… am Rand des zentralen schwarzen Lochs der Milchstraße. Ein neues Bild des Event Horizon Telescope (EHT) hat starke und geordnete Magnetfelder aufgespürt, die vom Rand des supermassereichen schwarzen Lochs…

Faktor für die Gehirnexpansion beim Menschen

Was unterscheidet uns Menschen von anderen Lebewesen? Der Schlüssel liegt im Neokortex, der äußeren Schicht des Gehirns. Diese Gehirnregion ermöglicht uns abstraktes Denken, Kunst und komplexe Sprache. Ein internationales Forschungsteam…

Partner & Förderer