Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Forscher erfassen nur mit Webkamera die Bewegungen einer Person als 3-D-Modell

05.07.2017

Immer mehr Anwendungen erfordern es, eine Person und ihre Bewegungen als digitales 3-D-Modell in Echtzeit zu erfassen: Angefangen bei virtuellen Figuren in Computerspielen, über die Bewegungsanalyse im Sport bis hin zu Untersuchungen in der Medizin. Bisher war dies nur mit teuren Kamera-Systemen möglich. Informatiker des Max-Planck-Instituts für Informatik haben nun ein System entwickelt, das lediglich eine Web-Kamera voraussetzt. Es kann sogar die 3-D-Pose aus einem vorab aufgenommenen Video berechnen, das beispielsweise von der Online-Plattform YouTube stammt. Damit sind völlig neue Anwendungen möglich, unter anderem auch die Bewegungsanalyse per Smartphone.

„Mit unserem System können Sie sogar in den Alpen ein 3-D-Bewegungsmodell erstellen, sogar in Echtzeit und mit der Kamera ihres Smartphones“, sagt Dushyant Mehta, Doktorand am Max-Planck-Institut für Informatik (MPI) die Vorzüge des neuen Systems, das er mit seinen Kollegen aus der Gruppe „Graphics, Vision and Video“ entwickelt hat. Die Gruppe wird von Professor Christian Theobalt geleitet.


Das neue System setzt nur eine preiswerte Web-Kamera voraus, um das 3-D-Bewegungsmodell einer Person in Echtzeit zu erstellen.

Foto: Oliver Dietze

„Bisher war das nur mit mehreren Kameras oder einer so genannten Tiefenkamera möglich, die beispielsweise auch in die Kinect von Microsoft eingebaut ist“, erklärt Srinath Sridhar, der ebenfalls am MPI forscht.

Den Fortschritt ermöglicht eine spezielle Art von neuronalem Netzwerk, das Forscher als „gefaltetes neuronales Netzwerk“ bezeichnen und das in Industrie und Wirtschaft unter dem Begriff „Deep Learning“ für Furore sorgt. Die Saarbrücker Forscher haben eine neue Methode entwickelt, um damit in kürzester Zeit aus den zweidimensionalen Informationen des Videostreams das dreidimensionale Abbild der Person zu berechnen. Wie das konkret aussieht, zeigt ein von den Wissenschaftlern erstelltes Kurzvideo auf ihrer Webseite.

Ein Forscher jongliert mit Keulen in der Tiefe eines Raumes, im Vordergrund zeigt ein Monitor die dazugehörige Videoaufnahme. Die Gestalt des Forschers wird hier von einem feingliedrigen, roten Strichmännchen überlagert. Egal, wie schnell oder wie weit der Forscher ausholt, das Strich-Skelett macht die gleichen Bewegungen, genauso wie die aufgepumpte Version im virtuellen Raum, dargestellt auf einem weiteren Monitor links daneben.

Die Forscher haben ihr System „VNect“ getauft. Bevor es die 3-D-Pose der Person vorhersagt, bestimmt es erst deren Position im Bild. Dadurch verschwendet es keine Rechenkraft für Bildregionen, die nichts von der Person zeigen. Das neuronale Netzwerk wurde dazu mit über zehntausend annotierten Bildern während des Maschinellen Lernens trainiert. So kann es die aktuelle 3-D-Pose in Form der entsprechenden Gelenkwinkel spezifizieren, die sich leicht in virtuelle Figuren überführen lassen.

„Mit VNect können in Zukunft noch mehr Menschen Computerspiele per Körperbewegung steuern. Sie brauchen weder eine eine teure Tiefenkamera, mehrere Kameras, noch müssen sie spezielle Marker tragen. Ihre Web-Kamera genügt. Damit sind sogar völlig neue Erfahrungen in der Virtuellen Realität möglich“, erklärt Mehta. Darüber hinaus ist VNect auch das erste System, das lediglich ein Video benötigt, um daraus das 3-D-Bewegungsmodell einer Person zu erstellen.

„Das Spektrum der möglichen Anwendungen für VNect ist daher enorm groß“, erklärt Professor Christian Theobalt, der die Gruppe „Graphics, Vision and Video“ am MPI leitet. „Die Bandbreite reicht von Mensch-Maschine-Interaktion zu Mensch-Roboter-Interaktion bis hin zu Industrie 4.0, wo Mensch und Roboter Seite an Seite arbeiten. Oder denken Sie an Autonomes Fahren. In Zukunft könnte das Auto mit Hilfe der Kamera die Bewegungen von Personen erfassen, um so auf deren Verhalten zu schließen“, so Professor Theobalt.

Noch stößt VNect jedoch auch an Grenzen. Die Genauigkeit des neuen Systems ist etwas geringer als die Genauigkeit von Systemen, die auf mehreren Kameras oder Markern basieren. VNect gerät auch in Schwierigkeiten, wenn das Gesicht der Person verdeckt ist und wenn die Bewegungen zu schnell sind oder zu wenig den gelernten Vorbildern entsprechen. Mehrere Personen vor der Kamera bereiten VNect ebenfalls Probleme.

Dennoch ist sich MPI-Forscher Srinath Sridhar sicher, dass sich VNect weiterentwickeln wird und bald so komplexe Szenen verarbeiten kann, dass es ohne Problem im Alltag einsetzbar ist.

VNect wurde unter der Leitung von Professor Christian Theobalt in der Gruppe „Graphics, Vision and Video“ am Max-Planck-Institut für Informatik umgesetzt. An dem Projekt wirkten neben Srinath Sridhar und Dushyant Mehta auch Oleksandr Sotnychenko, Helge Rhodin, Mohammad Shafiei, Professor Hans-Peter Seidel, Weipeng Xu und Dan Casas. Die Forscher werden VNect auf der größten Computer Vision Konferenz CVPR, im US-amerikanischen Honolulu, vom 21. bis 26. Juli, und auf der renommierten, internationalen Konferenz „SIGGRAPH“ in der US-amerikanischen Stadt Los Angeles vom 30. Juli bis 3. August zeigen.

Fragen beantworten:
Dushyant Mehta
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4022
E-mail: dmehta@mpi-inf.mpg.de

Professor Christian Theobalt
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4028
E-mail: theobalt@mpii.de

Weitere Informationen:

http://gvv.mpi-inf.mpg.de/projects/VNect/

Thorsten Mohr | Universität des Saarlandes
Weitere Informationen:
http://www.uni-saarland.de

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Deep Learning und KI in der Motorenentwicklung – IAV und DFKI eröffnen gemeinsames Forschungslabor
23.01.2018 | Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI

nachricht Original bleibt Original - Neues Produktschutzverfahren für KFZ-Kennzeichenschilder
19.01.2018 | Fraunhofer-Institut für Werkstoff- und Strahltechnik IWS

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Optisches Nanoskop ermöglicht Abbildung von Quantenpunkten

Physiker haben eine lichtmikroskopische Technik entwickelt, mit der sich Atome auf der Nanoskala abbilden lassen. Das neue Verfahren ermöglicht insbesondere, Quantenpunkte in einem Halbleiter-Chip bildlich darzustellen. Dies berichten die Wissenschaftler des Departements Physik und des Swiss Nanoscience Institute der Universität Basel zusammen mit Kollegen der Universität Bochum in «Nature Photonics».

Mikroskope machen Strukturen sichtbar, die dem menschlichen Auge sonst verborgen blieben. Einzelne Moleküle und Atome, die nur Bruchteile eines Nanometers...

Im Focus: Optical Nanoscope Allows Imaging of Quantum Dots

Physicists have developed a technique based on optical microscopy that can be used to create images of atoms on the nanoscale. In particular, the new method allows the imaging of quantum dots in a semiconductor chip. Together with colleagues from the University of Bochum, scientists from the University of Basel’s Department of Physics and the Swiss Nanoscience Institute reported the findings in the journal Nature Photonics.

Microscopes allow us to see structures that are otherwise invisible to the human eye. However, conventional optical microscopes cannot be used to image...

Im Focus: Vollmond-Dreierlei am 31. Januar 2018

Am 31. Januar 2018 fallen zum ersten Mal seit dem 30. Dezember 1982 "Supermond" (ein Vollmond in Erdnähe), "Blutmond" (eine totale Mondfinsternis) und "Blue Moon" (ein zweiter Vollmond im Kalendermonat) zusammen - Beobachter im deutschen Sprachraum verpassen allerdings die sichtbaren Phasen der Mondfinsternis.

Nach den letzten drei Vollmonden am 4. November 2017, 3. Dezember 2017 und 2. Januar 2018 ist auch der bevorstehende Vollmond am 31. Januar 2018 ein...

Im Focus: Maschinelles Lernen im Quantenlabor

Auf dem Weg zum intelligenten Labor präsentieren Physiker der Universitäten Innsbruck und Wien ein lernfähiges Programm, das eigenständig Quantenexperimente entwirft. In ersten Versuchen hat das System selbständig experimentelle Techniken (wieder)entdeckt, die heute in modernen quantenoptischen Labors Standard sind. Dies zeigt, dass Maschinen in Zukunft auch eine kreativ unterstützende Rolle in der Forschung einnehmen könnten.

In unseren Taschen stecken Smartphones, auf den Straßen fahren intelligente Autos, Experimente im Forschungslabor aber werden immer noch ausschließlich von...

Im Focus: Artificial agent designs quantum experiments

On the way to an intelligent laboratory, physicists from Innsbruck and Vienna present an artificial agent that autonomously designs quantum experiments. In initial experiments, the system has independently (re)discovered experimental techniques that are nowadays standard in modern quantum optical laboratories. This shows how machines could play a more creative role in research in the future.

We carry smartphones in our pockets, the streets are dotted with semi-autonomous cars, but in the research laboratory experiments are still being designed by...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks Industrie & Wirtschaft
Veranstaltungen

15. BF21-Jahrestagung „Mobilität & Kfz-Versicherung im Fokus“

23.01.2018 | Veranstaltungen

Gemeinsam innovativ werden

23.01.2018 | Veranstaltungen

Leichtbau zu Ende gedacht – Herausforderung Recycling

23.01.2018 | Veranstaltungen

VideoLinks Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

15. BF21-Jahrestagung „Mobilität & Kfz-Versicherung im Fokus“

23.01.2018 | Veranstaltungsnachrichten

Gemeinsam innovativ werden

23.01.2018 | Veranstaltungsnachrichten

CES Innovation Award für kombinierte Blick- und Spracheingabe im Auto

23.01.2018 | Förderungen Preise

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics