Künstliche und wirkliche Welten – verknüpft, vermischt und interaktiv

Nach Virtual Reality und Augmented Reality dringen nun auch Mixed Realities in die Arbeitswelt vor. Sie verknüpfen künstliche und reale Welten miteinander und ermöglichen natürliche Interaktion – Sprache und Gestik – mit den computergenerierten Objekten. Innovative Anwendungen zeigen Fraunhofer-Institute auf der CeBIT (12.-19. März in Hannover) in Halle 11.

Fast alle Gegenstände und Ereignisse der realen Welt können heute im Computer täuschend ähnlich nachgebildet werden. Virtuell lässt sich so nach Herzenslust experimentieren, simulieren und ausprobieren, was es in der Wirklichkeit noch gar nicht gibt. Die Verknüpfung von Computer- und Medientechnologie erweitert die Realität bis hin zum direkten Eintauchen in künstliche Welten und der Interaktion mit virtuellen Objekten. Die Technik der Virtuellen Realität hat sich heute schon in Automobil- und Luftfahrtunternehmen als unverzichtbares Werkzeug etabliert. So testen die Autohersteller ganze Produktionsabläufe im Vorhinein – vom Crash-Test bis zur Demontage. Damit wird es möglich, die Zeit von der Idee bis zur Markteinführung eines Produkts erheblich zu verkürzen.

Augmented Reality, die erweiterte Realität, bringt den „doppelten Durchblick“ in die reale Welt. Über eine Datenbrille oder ein Display können zusätzliche Informationen eingeblendet werden, so dass sie die reale Umgebung teilweise überlagern. Im Leitprojekt „ARVIKA“, haben sich zahlreiche Unternehmen und Forschungseinrichtungen zusammengeschlossen. Ihr Ziel: AR-Techniken marktreif zu machen für die Entwicklung, Wartung und Produktion von Autos, Flugzeugen, Maschinen und Anlagen. Bald hat das Blättern in dicken Montagehandbüchern und Bedienungsanleitungen ein Ende: Der Servicetechniker erhält über die Datenbrille alle notwendigen Informationen eingeblendet. „Das System leitet den Techniker Schritt für Schritt an, indem es ihm visuelle und akustische Anweisungen erteilt. Gleichzeitig hat er die reale Anlage im Blickfeld und kann unmittelbar die Instruktionen ausführen“, erläutert Didier Stricker, Abteilungsleiter am Fraunhofer-Institut für Graphische Datenverarbeitung IGD.

Viele Designer, Konstrukteure und Ingenieure würden ihre Modelle am liebsten mit den Händen formen und mit traditionellen Werkzeugen bearbeiten. Doch kaum einer verzichtet heute auf computergestützte Systeme, da mit ihm schnell aufwändige Konstruktionen erstellt werden können. Das hat aber auch Nachteile: Zweidimensionale Darstellungen am Computer lassen sich räumlich nicht auf einen Blick erfassen. Außerdem kann man die Objekte nicht anfassen. Jetzt soll sinnliche Erfahrung und intuitive Gestaltung wieder möglich werden. Auf der CeBIT können Besucher selbst ausprobieren, wie einfach Freiformflächenmodelle mit Handbewegungen im virtuellen Raum erzeugt werden können. Der Besucher benötigt nur eine Stereo-Sichtbrille, durch die er das reale Modell und gleichzeitig die virtuelle Überlagerung wahrnimmt. Dann kann er mit seinen bloßen Händen die virtuellen Objekte verformen, drehen und verschieben. Der Trick: Ein optisches Tracking-System erfasst die Hand- und Kopfbewegungen kabellos und berechnet daraus, wie sich das virtuelle Objekt verändern muss. Und der Benutzer hat die Hände frei zum intuitiven Modellieren.

Möglich macht dies eine Verbindung von CAX-Systemen mit der virtuellen und erweiterten Realität. Das System, das dreidimensionales Modellieren in Mixed Realities unterstützt, wurde von Forschern des IGD in Darmstadt entwickelt. Ihre Kollegen am Fraunhofer-Institut für Medienkommunikation IMK arbeiten an der Freiformflächenmodellierung in Virtual Environments unter Verwendung der Responsive Workbench hoher Funktionalität.

Ziel des EU-Projekts SmartSketches ist es, die Bedienbarkeit von CAX-Systemen zu verbessern und gleichzeitig die Produktentwicklung zu beschleunigen. Vor allem Designer und Stylisten, die in den frühen Konzeptphasen noch weitgehend Stift, Papier, Wachs- oder Tonmodelle einsetzen, sollen damit in die Lage versetzt werden, erste dreidimensionale Modelle schnell, einfach und intuitiv zu erzeugen. SmartSketches lässt sich auf verschiedenen Hardwarekonfigurationen, auch in Kombination mit PowerWalls oder virtuellen Tischen, einsetzen. Außerdem können mehrere Benutzer gleichzeitig an unterschiedlichen Orten zusammenarbeiten.

Mixed Realities verknüpfen virtuelle und reale Welt und lassen Interaktion zwischen ihnen zu. Beispiel: Die Raum- und Bühnengestaltung für Theater, Film oder Musikveranstaltungen. Das Fraunhofer-Institut für Angewandte Informationstechnik FIT hat im Verbundvorhaben mQube als zukünftige Pre-Production-Umgebung die Mixed Reality Stage entwickelt. Kern ist eine Modellbühne im Maßstab 1:4, auf die mittels semi-transparenter Projektionsbrillen virtuelle Objekte und Figuren eingeblendet werden. „Damit können Regisseure, Choreographen, Bühnenbildner und Licht-Designer gemeinsam – durch einfache Handbewegungen – das Bühnendesign entwickeln und einzelne Szenen proben“, schwärmt Mix-Realities-Experte Dr. Wolfgang Broll vom FIT. Ihre Gesten, Sprache und Blickrichtung bestimmen das Geschehen auf der Bühne. Virtuelle Schauspieler bewegen sich über die Modellbühne als wäre schon Generalprobe, noch bevor ein Bühnenbauer Hand angelegt hat. Das faszinierende Spiel mit den Realitäten ist erstmals auf der CeBIT zu sehen.

Experten prognostizieren VR/AR/MR-Systemen große Marktpotenziale. Sie können nicht nur Planung, Entwicklung, Produktion, Montage und Wartung revolutionieren, sondern auch in Medizin, Aus- und Weiterbildung, Medien, Tourismus und Kultur eine bedeutende Rolle spielen. Damit eine große Anzahl von Anwendern in Beruf und Freizeit VR/AR/MR-Technologien nutzen können, haben mehrere Fraunhofer-Institute kostengünstige Komplettsysteme entwickelt.

Für die digitale Welt von morgen sind neue, fortschrittliche Schnittstellen und Interaktions- und Kommunikationsformen zwischen Mensch und Maschine nötig. „Der Computer muss sich am Menschen orientieren, ihn bedienen und nicht umgekehrt“, lautet das Credo des Pioniers der Computergraphik Prof. Dr. José L. Encarnaç“o, Leiter des IGD. Der Mensch interagiert über Sprache, Mimik und Gestik. Also müssen intelligente Systeme ebenso mit diesen Fähigkeiten ausgestattet werden. Dann kann der Mensch die Maschine intuitiv bedienen – ohne Gebrauchsanleitung, Handbücher und langwierige Einarbeitung.

Media Contact

Dr. Johannes Ehrlenspiel Fraunhofer-Gesellschaft

Weitere Informationen:

http://www.cebit2003.fraunhofer.de/

Alle Nachrichten aus der Kategorie: Messenachrichten

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Neues topologisches Metamaterial

… verstärkt Schallwellen exponentiell. Wissenschaftlerinnen und Wissenschaftler am niederländischen Forschungsinstitut AMOLF haben in einer internationalen Kollaboration ein neuartiges Metamaterial entwickelt, durch das sich Schallwellen auf völlig neue Art und Weise…

Astronomen entdecken starke Magnetfelder

… am Rand des zentralen schwarzen Lochs der Milchstraße. Ein neues Bild des Event Horizon Telescope (EHT) hat starke und geordnete Magnetfelder aufgespürt, die vom Rand des supermassereichen schwarzen Lochs…

Faktor für die Gehirnexpansion beim Menschen

Was unterscheidet uns Menschen von anderen Lebewesen? Der Schlüssel liegt im Neokortex, der äußeren Schicht des Gehirns. Diese Gehirnregion ermöglicht uns abstraktes Denken, Kunst und komplexe Sprache. Ein internationales Forschungsteam…

Partner & Förderer