Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Forscher erfassen nur mit Webkamera die Bewegungen einer Person als 3-D-Modell

05.07.2017

Immer mehr Anwendungen erfordern es, eine Person und ihre Bewegungen als digitales 3-D-Modell in Echtzeit zu erfassen: Angefangen bei virtuellen Figuren in Computerspielen, über die Bewegungsanalyse im Sport bis hin zu Untersuchungen in der Medizin. Bisher war dies nur mit teuren Kamera-Systemen möglich. Informatiker des Max-Planck-Instituts für Informatik haben nun ein System entwickelt, das lediglich eine Web-Kamera voraussetzt. Es kann sogar die 3-D-Pose aus einem vorab aufgenommenen Video berechnen, das beispielsweise von der Online-Plattform YouTube stammt. Damit sind völlig neue Anwendungen möglich, unter anderem auch die Bewegungsanalyse per Smartphone.

„Mit unserem System können Sie sogar in den Alpen ein 3-D-Bewegungsmodell erstellen, sogar in Echtzeit und mit der Kamera ihres Smartphones“, sagt Dushyant Mehta, Doktorand am Max-Planck-Institut für Informatik (MPI) die Vorzüge des neuen Systems, das er mit seinen Kollegen aus der Gruppe „Graphics, Vision and Video“ entwickelt hat. Die Gruppe wird von Professor Christian Theobalt geleitet.


Das neue System setzt nur eine preiswerte Web-Kamera voraus, um das 3-D-Bewegungsmodell einer Person in Echtzeit zu erstellen.

Foto: Oliver Dietze

„Bisher war das nur mit mehreren Kameras oder einer so genannten Tiefenkamera möglich, die beispielsweise auch in die Kinect von Microsoft eingebaut ist“, erklärt Srinath Sridhar, der ebenfalls am MPI forscht.

Den Fortschritt ermöglicht eine spezielle Art von neuronalem Netzwerk, das Forscher als „gefaltetes neuronales Netzwerk“ bezeichnen und das in Industrie und Wirtschaft unter dem Begriff „Deep Learning“ für Furore sorgt. Die Saarbrücker Forscher haben eine neue Methode entwickelt, um damit in kürzester Zeit aus den zweidimensionalen Informationen des Videostreams das dreidimensionale Abbild der Person zu berechnen. Wie das konkret aussieht, zeigt ein von den Wissenschaftlern erstelltes Kurzvideo auf ihrer Webseite.

Ein Forscher jongliert mit Keulen in der Tiefe eines Raumes, im Vordergrund zeigt ein Monitor die dazugehörige Videoaufnahme. Die Gestalt des Forschers wird hier von einem feingliedrigen, roten Strichmännchen überlagert. Egal, wie schnell oder wie weit der Forscher ausholt, das Strich-Skelett macht die gleichen Bewegungen, genauso wie die aufgepumpte Version im virtuellen Raum, dargestellt auf einem weiteren Monitor links daneben.

Die Forscher haben ihr System „VNect“ getauft. Bevor es die 3-D-Pose der Person vorhersagt, bestimmt es erst deren Position im Bild. Dadurch verschwendet es keine Rechenkraft für Bildregionen, die nichts von der Person zeigen. Das neuronale Netzwerk wurde dazu mit über zehntausend annotierten Bildern während des Maschinellen Lernens trainiert. So kann es die aktuelle 3-D-Pose in Form der entsprechenden Gelenkwinkel spezifizieren, die sich leicht in virtuelle Figuren überführen lassen.

„Mit VNect können in Zukunft noch mehr Menschen Computerspiele per Körperbewegung steuern. Sie brauchen weder eine eine teure Tiefenkamera, mehrere Kameras, noch müssen sie spezielle Marker tragen. Ihre Web-Kamera genügt. Damit sind sogar völlig neue Erfahrungen in der Virtuellen Realität möglich“, erklärt Mehta. Darüber hinaus ist VNect auch das erste System, das lediglich ein Video benötigt, um daraus das 3-D-Bewegungsmodell einer Person zu erstellen.

„Das Spektrum der möglichen Anwendungen für VNect ist daher enorm groß“, erklärt Professor Christian Theobalt, der die Gruppe „Graphics, Vision and Video“ am MPI leitet. „Die Bandbreite reicht von Mensch-Maschine-Interaktion zu Mensch-Roboter-Interaktion bis hin zu Industrie 4.0, wo Mensch und Roboter Seite an Seite arbeiten. Oder denken Sie an Autonomes Fahren. In Zukunft könnte das Auto mit Hilfe der Kamera die Bewegungen von Personen erfassen, um so auf deren Verhalten zu schließen“, so Professor Theobalt.

Noch stößt VNect jedoch auch an Grenzen. Die Genauigkeit des neuen Systems ist etwas geringer als die Genauigkeit von Systemen, die auf mehreren Kameras oder Markern basieren. VNect gerät auch in Schwierigkeiten, wenn das Gesicht der Person verdeckt ist und wenn die Bewegungen zu schnell sind oder zu wenig den gelernten Vorbildern entsprechen. Mehrere Personen vor der Kamera bereiten VNect ebenfalls Probleme.

Dennoch ist sich MPI-Forscher Srinath Sridhar sicher, dass sich VNect weiterentwickeln wird und bald so komplexe Szenen verarbeiten kann, dass es ohne Problem im Alltag einsetzbar ist.

VNect wurde unter der Leitung von Professor Christian Theobalt in der Gruppe „Graphics, Vision and Video“ am Max-Planck-Institut für Informatik umgesetzt. An dem Projekt wirkten neben Srinath Sridhar und Dushyant Mehta auch Oleksandr Sotnychenko, Helge Rhodin, Mohammad Shafiei, Professor Hans-Peter Seidel, Weipeng Xu und Dan Casas. Die Forscher werden VNect auf der größten Computer Vision Konferenz CVPR, im US-amerikanischen Honolulu, vom 21. bis 26. Juli, und auf der renommierten, internationalen Konferenz „SIGGRAPH“ in der US-amerikanischen Stadt Los Angeles vom 30. Juli bis 3. August zeigen.

Fragen beantworten:
Dushyant Mehta
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4022
E-mail: dmehta@mpi-inf.mpg.de

Professor Christian Theobalt
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4028
E-mail: theobalt@mpii.de

Weitere Informationen:

http://gvv.mpi-inf.mpg.de/projects/VNect/

Thorsten Mohr | Universität des Saarlandes
Weitere Informationen:
http://www.uni-saarland.de

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Erster Modularer Supercomputer weltweit geht am Forschungszentrum Jülich in Betrieb
14.11.2017 | Forschungszentrum Jülich GmbH

nachricht Online-Computerspiele verändern das Gehirn
09.11.2017 | Universität Ulm

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Ultrakalte chemische Prozesse: Physikern gelingt beispiellose Vermessung auf Quantenniveau

Wissenschaftler um den Ulmer Physikprofessor Johannes Hecker Denschlag haben chemische Prozesse mit einer beispiellosen Auflösung auf Quantenniveau vermessen. Bei ihrer wissenschaftlichen Arbeit kombinierten die Forscher Theorie und Experiment und können so erstmals die Produktzustandsverteilung über alle Quantenzustände hinweg - unmittelbar nach der Molekülbildung - nachvollziehen. Die Forscher haben ihre Erkenntnisse in der renommierten Fachzeitschrift "Science" publiziert. Durch die Ergebnisse wird ein tieferes Verständnis zunehmend komplexer chemischer Reaktionen möglich, das zukünftig genutzt werden kann, um Reaktionsprozesse auf Quantenniveau zu steuern.

Einer deutsch-amerikanischen Forschergruppe ist es gelungen, chemische Prozesse mit einer nie dagewesenen Auflösung auf Quantenniveau zu vermessen. Dadurch...

Im Focus: Leoniden 2017: Sternschnuppen im Anflug?

Gemeinsame Pressemitteilung der Vereinigung der Sternfreunde und des Hauses der Astronomie in Heidelberg

Die Sternschnuppen der Leoniden sind in diesem Jahr gut zu beobachten, da kein Mondlicht stört. Experten sagen für die Nächte vom 16. auf den 17. und vom 17....

Im Focus: «Kosmische Schlange» lässt die Struktur von fernen Galaxien erkennen

Die Entstehung von Sternen in fernen Galaxien ist noch weitgehend unerforscht. Astronomen der Universität Genf konnten nun erstmals ein sechs Milliarden Lichtjahre entferntes Sternensystem genauer beobachten – und damit frühere Simulationen der Universität Zürich stützen. Ein spezieller Effekt ermöglicht mehrfach reflektierte Bilder, die sich wie eine Schlange durch den Kosmos ziehen.

Heute wissen Astronomen ziemlich genau, wie sich Sterne in der jüngsten kosmischen Vergangenheit gebildet haben. Aber gelten diese Gesetzmässigkeiten auch für...

Im Focus: A “cosmic snake” reveals the structure of remote galaxies

The formation of stars in distant galaxies is still largely unexplored. For the first time, astron-omers at the University of Geneva have now been able to closely observe a star system six billion light-years away. In doing so, they are confirming earlier simulations made by the University of Zurich. One special effect is made possible by the multiple reflections of images that run through the cosmos like a snake.

Today, astronomers have a pretty accurate idea of how stars were formed in the recent cosmic past. But do these laws also apply to older galaxies? For around a...

Im Focus: Pflanzenvielfalt von Wäldern aus der Luft abbilden

Produktivität und Stabilität von Waldökosystemen hängen stark von der funktionalen Vielfalt der Pflanzengemeinschaften ab. UZH-Forschenden gelang es, die Pflanzenvielfalt von Wäldern durch Fernerkundung mit Flugzeugen in verschiedenen Massstäben zu messen und zu kartieren – von einzelnen Bäumen bis hin zu ganzen Artengemeinschaften. Die neue Methode ebnet den Weg, um zukünftig die globale Pflanzendiversität aus der Luft und aus dem All zu überwachen.

Ökologische Studien zeigen, dass die Pflanzenvielfalt zentral ist für das Funktionieren von Ökosys-temen. Wälder mit einer höheren funktionalen Vielfalt –...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Technologievorsprung durch Textiltechnik

17.11.2017 | Veranstaltungen

Roboter für ein gesundes Altern: „European Robotics Week 2017“ an der Frankfurt UAS

17.11.2017 | Veranstaltungen

Börse für Zukunftstechnologien – Leichtbautag Stade bringt Unternehmen branchenübergreifend zusammen

17.11.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Latest News

NASA detects solar flare pulses at Sun and Earth

17.11.2017 | Physics and Astronomy

NIST scientists discover how to switch liver cancer cell growth from 2-D to 3-D structures

17.11.2017 | Health and Medicine

The importance of biodiversity in forests could increase due to climate change

17.11.2017 | Studies and Analyses