Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Forscher erfassen nur mit Webkamera die Bewegungen einer Person als 3-D-Modell

05.07.2017

Immer mehr Anwendungen erfordern es, eine Person und ihre Bewegungen als digitales 3-D-Modell in Echtzeit zu erfassen: Angefangen bei virtuellen Figuren in Computerspielen, über die Bewegungsanalyse im Sport bis hin zu Untersuchungen in der Medizin. Bisher war dies nur mit teuren Kamera-Systemen möglich. Informatiker des Max-Planck-Instituts für Informatik haben nun ein System entwickelt, das lediglich eine Web-Kamera voraussetzt. Es kann sogar die 3-D-Pose aus einem vorab aufgenommenen Video berechnen, das beispielsweise von der Online-Plattform YouTube stammt. Damit sind völlig neue Anwendungen möglich, unter anderem auch die Bewegungsanalyse per Smartphone.

„Mit unserem System können Sie sogar in den Alpen ein 3-D-Bewegungsmodell erstellen, sogar in Echtzeit und mit der Kamera ihres Smartphones“, sagt Dushyant Mehta, Doktorand am Max-Planck-Institut für Informatik (MPI) die Vorzüge des neuen Systems, das er mit seinen Kollegen aus der Gruppe „Graphics, Vision and Video“ entwickelt hat. Die Gruppe wird von Professor Christian Theobalt geleitet.


Das neue System setzt nur eine preiswerte Web-Kamera voraus, um das 3-D-Bewegungsmodell einer Person in Echtzeit zu erstellen.

Foto: Oliver Dietze

„Bisher war das nur mit mehreren Kameras oder einer so genannten Tiefenkamera möglich, die beispielsweise auch in die Kinect von Microsoft eingebaut ist“, erklärt Srinath Sridhar, der ebenfalls am MPI forscht.

Den Fortschritt ermöglicht eine spezielle Art von neuronalem Netzwerk, das Forscher als „gefaltetes neuronales Netzwerk“ bezeichnen und das in Industrie und Wirtschaft unter dem Begriff „Deep Learning“ für Furore sorgt. Die Saarbrücker Forscher haben eine neue Methode entwickelt, um damit in kürzester Zeit aus den zweidimensionalen Informationen des Videostreams das dreidimensionale Abbild der Person zu berechnen. Wie das konkret aussieht, zeigt ein von den Wissenschaftlern erstelltes Kurzvideo auf ihrer Webseite.

Ein Forscher jongliert mit Keulen in der Tiefe eines Raumes, im Vordergrund zeigt ein Monitor die dazugehörige Videoaufnahme. Die Gestalt des Forschers wird hier von einem feingliedrigen, roten Strichmännchen überlagert. Egal, wie schnell oder wie weit der Forscher ausholt, das Strich-Skelett macht die gleichen Bewegungen, genauso wie die aufgepumpte Version im virtuellen Raum, dargestellt auf einem weiteren Monitor links daneben.

Die Forscher haben ihr System „VNect“ getauft. Bevor es die 3-D-Pose der Person vorhersagt, bestimmt es erst deren Position im Bild. Dadurch verschwendet es keine Rechenkraft für Bildregionen, die nichts von der Person zeigen. Das neuronale Netzwerk wurde dazu mit über zehntausend annotierten Bildern während des Maschinellen Lernens trainiert. So kann es die aktuelle 3-D-Pose in Form der entsprechenden Gelenkwinkel spezifizieren, die sich leicht in virtuelle Figuren überführen lassen.

„Mit VNect können in Zukunft noch mehr Menschen Computerspiele per Körperbewegung steuern. Sie brauchen weder eine eine teure Tiefenkamera, mehrere Kameras, noch müssen sie spezielle Marker tragen. Ihre Web-Kamera genügt. Damit sind sogar völlig neue Erfahrungen in der Virtuellen Realität möglich“, erklärt Mehta. Darüber hinaus ist VNect auch das erste System, das lediglich ein Video benötigt, um daraus das 3-D-Bewegungsmodell einer Person zu erstellen.

„Das Spektrum der möglichen Anwendungen für VNect ist daher enorm groß“, erklärt Professor Christian Theobalt, der die Gruppe „Graphics, Vision and Video“ am MPI leitet. „Die Bandbreite reicht von Mensch-Maschine-Interaktion zu Mensch-Roboter-Interaktion bis hin zu Industrie 4.0, wo Mensch und Roboter Seite an Seite arbeiten. Oder denken Sie an Autonomes Fahren. In Zukunft könnte das Auto mit Hilfe der Kamera die Bewegungen von Personen erfassen, um so auf deren Verhalten zu schließen“, so Professor Theobalt.

Noch stößt VNect jedoch auch an Grenzen. Die Genauigkeit des neuen Systems ist etwas geringer als die Genauigkeit von Systemen, die auf mehreren Kameras oder Markern basieren. VNect gerät auch in Schwierigkeiten, wenn das Gesicht der Person verdeckt ist und wenn die Bewegungen zu schnell sind oder zu wenig den gelernten Vorbildern entsprechen. Mehrere Personen vor der Kamera bereiten VNect ebenfalls Probleme.

Dennoch ist sich MPI-Forscher Srinath Sridhar sicher, dass sich VNect weiterentwickeln wird und bald so komplexe Szenen verarbeiten kann, dass es ohne Problem im Alltag einsetzbar ist.

VNect wurde unter der Leitung von Professor Christian Theobalt in der Gruppe „Graphics, Vision and Video“ am Max-Planck-Institut für Informatik umgesetzt. An dem Projekt wirkten neben Srinath Sridhar und Dushyant Mehta auch Oleksandr Sotnychenko, Helge Rhodin, Mohammad Shafiei, Professor Hans-Peter Seidel, Weipeng Xu und Dan Casas. Die Forscher werden VNect auf der größten Computer Vision Konferenz CVPR, im US-amerikanischen Honolulu, vom 21. bis 26. Juli, und auf der renommierten, internationalen Konferenz „SIGGRAPH“ in der US-amerikanischen Stadt Los Angeles vom 30. Juli bis 3. August zeigen.

Fragen beantworten:
Dushyant Mehta
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4022
E-mail: dmehta@mpi-inf.mpg.de

Professor Christian Theobalt
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4028
E-mail: theobalt@mpii.de

Weitere Informationen:

http://gvv.mpi-inf.mpg.de/projects/VNect/

Thorsten Mohr | Universität des Saarlandes
Weitere Informationen:
http://www.uni-saarland.de

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Rostocker Forscher entwickeln autonom fahrende Kräne
20.07.2018 | Universität Rostock

nachricht Maschinelles Lernen: Neue Methode ermöglicht genaue Extrapolation
13.07.2018 | Institute of Science and Technology Austria

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Future electronic components to be printed like newspapers

A new manufacturing technique uses a process similar to newspaper printing to form smoother and more flexible metals for making ultrafast electronic devices.

The low-cost process, developed by Purdue University researchers, combines tools already used in industry for manufacturing metals on a large scale, but uses...

Im Focus: Rostocker Forscher entwickeln autonom fahrende Kräne

Industriepartner kommen aus sechs Ländern

Autonom fahrende, intelligente Kräne und Hebezeuge – dieser Ingenieurs-Traum könnte in den nächsten drei Jahren zur Wirklichkeit werden. Forscher aus dem...

Im Focus: Superscharfe Bilder von der neuen Adaptiven Optik des VLT

Das Very Large Telescope (VLT) der ESO hat das erste Licht mit einem neuen Modus Adaptiver Optik erreicht, die als Lasertomografie bezeichnet wird – und hat in diesem Rahmen bemerkenswert scharfe Testbilder vom Planeten Neptun, von Sternhaufen und anderen Objekten aufgenommen. Das bahnbrechende MUSE-Instrument kann ab sofort im sogenannten Narrow-Field-Modus mit dem adaptiven Optikmodul GALACSI diese neue Technik nutzen, um Turbulenzen in verschiedenen Höhen in der Erdatmosphäre zu korrigieren. Damit ist jetzt möglich, Bilder vom Erdboden im sichtbaren Licht aufzunehmen, die schärfer sind als die des NASA/ESA Hubble-Weltraumteleskops. Die Kombination aus exquisiter Bildschärfe und den spektroskopischen Fähigkeiten von MUSE wird es den Astronomen ermöglichen, die Eigenschaften astronomischer Objekte viel detaillierter als bisher zu untersuchen.

Das MUSE-Instrument (kurz für Multi Unit Spectroscopic Explorer) am Very Large Telescope (VLT) der ESO arbeitet mit einer adaptiven Optikeinheit namens GALACSI. Dabei kommt auch die Laser Guide Stars Facility, kurz ...

Im Focus: Diamant – ein unverzichtbarer Werkstoff der Fusionstechnologie

Forscher am KIT entwickeln Fenstereinheiten mit Diamantscheiben für Fusionsreaktoren – Neue Scheibe mit Rekorddurchmesser von 180 Millimetern

Klimafreundliche und fast unbegrenzte Energie aus dem Fusionskraftwerk – für dieses Ziel kooperieren Wissenschaftlerinnen und Wissenschaftler weltweit. Bislang...

Im Focus: Wiener Forscher finden vollkommen neues Konzept zur Messung von Quantenverschränkung

Quantenphysiker/innen der ÖAW entwickelten eine neuartige Methode für den Nachweis von hochdimensional verschränkten Quantensystemen. Diese ermöglicht mehr Effizienz, Sicherheit und eine weitaus geringere Fehleranfälligkeit gegenüber bisher gängigen Mess-Methoden, wie die Forscher/innen nun im Fachmagazin „Nature Physics“ berichten.

Die Vision einer vollständig abhörsicheren Übertragung von Information rückt dank der Verschränkung von Quantenteilchen immer mehr in Reichweite. Wird eine...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks
Industrie & Wirtschaft
Veranstaltungen

Stadtklima verbessern, Energiemix optimieren, sauberes Trinkwasser bereitstellen

19.07.2018 | Veranstaltungen

Innovation – the name of the game

18.07.2018 | Veranstaltungen

Wie geht es unserer Ostsee? Ein aktueller Zustandsbericht

17.07.2018 | Veranstaltungen

VideoLinks
Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

Neue Anwendungen für Mikrolaser in der Quanten-Nanophotonik

20.07.2018 | Physik Astronomie

Need for speed: Warum Malaria-Parasiten schneller sind als die menschlichen Abwehrzellen

20.07.2018 | Biowissenschaften Chemie

Die Gene sind nicht schuld

20.07.2018 | Medizin Gesundheit

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics