Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Forscher erfassen nur mit Webkamera die Bewegungen einer Person als 3-D-Modell

05.07.2017

Immer mehr Anwendungen erfordern es, eine Person und ihre Bewegungen als digitales 3-D-Modell in Echtzeit zu erfassen: Angefangen bei virtuellen Figuren in Computerspielen, über die Bewegungsanalyse im Sport bis hin zu Untersuchungen in der Medizin. Bisher war dies nur mit teuren Kamera-Systemen möglich. Informatiker des Max-Planck-Instituts für Informatik haben nun ein System entwickelt, das lediglich eine Web-Kamera voraussetzt. Es kann sogar die 3-D-Pose aus einem vorab aufgenommenen Video berechnen, das beispielsweise von der Online-Plattform YouTube stammt. Damit sind völlig neue Anwendungen möglich, unter anderem auch die Bewegungsanalyse per Smartphone.

„Mit unserem System können Sie sogar in den Alpen ein 3-D-Bewegungsmodell erstellen, sogar in Echtzeit und mit der Kamera ihres Smartphones“, sagt Dushyant Mehta, Doktorand am Max-Planck-Institut für Informatik (MPI) die Vorzüge des neuen Systems, das er mit seinen Kollegen aus der Gruppe „Graphics, Vision and Video“ entwickelt hat. Die Gruppe wird von Professor Christian Theobalt geleitet.


Das neue System setzt nur eine preiswerte Web-Kamera voraus, um das 3-D-Bewegungsmodell einer Person in Echtzeit zu erstellen.

Foto: Oliver Dietze

„Bisher war das nur mit mehreren Kameras oder einer so genannten Tiefenkamera möglich, die beispielsweise auch in die Kinect von Microsoft eingebaut ist“, erklärt Srinath Sridhar, der ebenfalls am MPI forscht.

Den Fortschritt ermöglicht eine spezielle Art von neuronalem Netzwerk, das Forscher als „gefaltetes neuronales Netzwerk“ bezeichnen und das in Industrie und Wirtschaft unter dem Begriff „Deep Learning“ für Furore sorgt. Die Saarbrücker Forscher haben eine neue Methode entwickelt, um damit in kürzester Zeit aus den zweidimensionalen Informationen des Videostreams das dreidimensionale Abbild der Person zu berechnen. Wie das konkret aussieht, zeigt ein von den Wissenschaftlern erstelltes Kurzvideo auf ihrer Webseite.

Ein Forscher jongliert mit Keulen in der Tiefe eines Raumes, im Vordergrund zeigt ein Monitor die dazugehörige Videoaufnahme. Die Gestalt des Forschers wird hier von einem feingliedrigen, roten Strichmännchen überlagert. Egal, wie schnell oder wie weit der Forscher ausholt, das Strich-Skelett macht die gleichen Bewegungen, genauso wie die aufgepumpte Version im virtuellen Raum, dargestellt auf einem weiteren Monitor links daneben.

Die Forscher haben ihr System „VNect“ getauft. Bevor es die 3-D-Pose der Person vorhersagt, bestimmt es erst deren Position im Bild. Dadurch verschwendet es keine Rechenkraft für Bildregionen, die nichts von der Person zeigen. Das neuronale Netzwerk wurde dazu mit über zehntausend annotierten Bildern während des Maschinellen Lernens trainiert. So kann es die aktuelle 3-D-Pose in Form der entsprechenden Gelenkwinkel spezifizieren, die sich leicht in virtuelle Figuren überführen lassen.

„Mit VNect können in Zukunft noch mehr Menschen Computerspiele per Körperbewegung steuern. Sie brauchen weder eine eine teure Tiefenkamera, mehrere Kameras, noch müssen sie spezielle Marker tragen. Ihre Web-Kamera genügt. Damit sind sogar völlig neue Erfahrungen in der Virtuellen Realität möglich“, erklärt Mehta. Darüber hinaus ist VNect auch das erste System, das lediglich ein Video benötigt, um daraus das 3-D-Bewegungsmodell einer Person zu erstellen.

„Das Spektrum der möglichen Anwendungen für VNect ist daher enorm groß“, erklärt Professor Christian Theobalt, der die Gruppe „Graphics, Vision and Video“ am MPI leitet. „Die Bandbreite reicht von Mensch-Maschine-Interaktion zu Mensch-Roboter-Interaktion bis hin zu Industrie 4.0, wo Mensch und Roboter Seite an Seite arbeiten. Oder denken Sie an Autonomes Fahren. In Zukunft könnte das Auto mit Hilfe der Kamera die Bewegungen von Personen erfassen, um so auf deren Verhalten zu schließen“, so Professor Theobalt.

Noch stößt VNect jedoch auch an Grenzen. Die Genauigkeit des neuen Systems ist etwas geringer als die Genauigkeit von Systemen, die auf mehreren Kameras oder Markern basieren. VNect gerät auch in Schwierigkeiten, wenn das Gesicht der Person verdeckt ist und wenn die Bewegungen zu schnell sind oder zu wenig den gelernten Vorbildern entsprechen. Mehrere Personen vor der Kamera bereiten VNect ebenfalls Probleme.

Dennoch ist sich MPI-Forscher Srinath Sridhar sicher, dass sich VNect weiterentwickeln wird und bald so komplexe Szenen verarbeiten kann, dass es ohne Problem im Alltag einsetzbar ist.

VNect wurde unter der Leitung von Professor Christian Theobalt in der Gruppe „Graphics, Vision and Video“ am Max-Planck-Institut für Informatik umgesetzt. An dem Projekt wirkten neben Srinath Sridhar und Dushyant Mehta auch Oleksandr Sotnychenko, Helge Rhodin, Mohammad Shafiei, Professor Hans-Peter Seidel, Weipeng Xu und Dan Casas. Die Forscher werden VNect auf der größten Computer Vision Konferenz CVPR, im US-amerikanischen Honolulu, vom 21. bis 26. Juli, und auf der renommierten, internationalen Konferenz „SIGGRAPH“ in der US-amerikanischen Stadt Los Angeles vom 30. Juli bis 3. August zeigen.

Fragen beantworten:
Dushyant Mehta
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4022
E-mail: dmehta@mpi-inf.mpg.de

Professor Christian Theobalt
Max-Planck-Institut für Informatik
Saarland Informatics Campus
Tel.: +49 681 9325 4028
E-mail: theobalt@mpii.de

Weitere Informationen:

http://gvv.mpi-inf.mpg.de/projects/VNect/

Thorsten Mohr | Universität des Saarlandes
Weitere Informationen:
http://www.uni-saarland.de

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Weltrekord an der Uni Paderborn: Optische Datenübertragung mit 128 Gigabits pro Sekunde
26.04.2018 | Universität Paderborn

nachricht Der Mensch im Zentrum: wandlungsfähige Produktion in der Industrie 4.0
26.04.2018 | Karlsruher Institut für Technologie

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Why we need erasable MRI scans

New technology could allow an MRI contrast agent to 'blink off,' helping doctors diagnose disease

Magnetic resonance imaging, or MRI, is a widely used medical tool for taking pictures of the insides of our body. One way to make MRI scans easier to read is...

Im Focus: Fraunhofer ISE und teamtechnik bringen leitfähiges Kleben für Siliciumsolarzellen zu Industriereife

Das Kleben der Zellverbinder von Hocheffizienz-Solarzellen im industriellen Maßstab ist laut dem Fraunhofer-Institut für Solare Energiesysteme ISE und dem Anlagenhersteller teamtechnik marktreif. Als Ergebnis des gemeinsamen Forschungsprojekts »KleVer« ist die Klebetechnologie inzwischen so weit ausgereift, dass sie als alternative Verschaltungstechnologie zum weit verbreiteten Weichlöten angewendet werden kann. Durch die im Vergleich zum Löten wesentlich niedrigeren Prozesstemperaturen können vor allem temperatursensitive Hocheffizienzzellen schonend und materialsparend verschaltet werden.

Dabei ist der Durchsatz in der industriellen Produktion nur geringfügig niedriger als beim Verlöten der Zellen. Die Zuverlässigkeit der Klebeverbindung wurde...

Im Focus: BAM@Hannover Messe: Innovatives 3D-Druckverfahren für die Raumfahrt

Auf der Hannover Messe 2018 präsentiert die Bundesanstalt für Materialforschung und -prüfung (BAM), wie Astronauten in Zukunft Werkzeug oder Ersatzteile per 3D-Druck in der Schwerelosigkeit selbst herstellen können. So können Gewicht und damit auch Transportkosten für Weltraummissionen deutlich reduziert werden. Besucherinnen und Besucher können das innovative additive Fertigungsverfahren auf der Messe live erleben.

Pulverbasierte additive Fertigung unter Schwerelosigkeit heißt das Projekt, bei dem ein Bauteil durch Aufbringen von Pulverschichten und selektivem...

Im Focus: BAM@Hannover Messe: innovative 3D printing method for space flight

At the Hannover Messe 2018, the Bundesanstalt für Materialforschung und-prüfung (BAM) will show how, in the future, astronauts could produce their own tools or spare parts in zero gravity using 3D printing. This will reduce, weight and transport costs for space missions. Visitors can experience the innovative additive manufacturing process live at the fair.

Powder-based additive manufacturing in zero gravity is the name of the project in which a component is produced by applying metallic powder layers and then...

Im Focus: IWS-Ingenieure formen moderne Alu-Bauteile für zukünftige Flugzeuge

Mit Unterdruck zum Leichtbau-Flugzeug

Ingenieure des Fraunhofer-Instituts für Werkstoff- und Strahltechnik (IWS) in Dresden haben in Kooperation mit Industriepartnern ein innovatives Verfahren...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks
Industrie & Wirtschaft
Veranstaltungen

Konferenz »Encoding Cultures. Leben mit intelligenten Maschinen« | 27. & 28.04.2018 ZKM | Karlsruhe

26.04.2018 | Veranstaltungen

Konferenz zur Marktentwicklung von Gigabitnetzen in Deutschland

26.04.2018 | Veranstaltungen

infernum-Tag 2018: Digitalisierung und Nachhaltigkeit

24.04.2018 | Veranstaltungen

VideoLinks
Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

Weltrekord an der Uni Paderborn: Optische Datenübertragung mit 128 Gigabits pro Sekunde

26.04.2018 | Informationstechnologie

Multifunktionaler Mikroschwimmer transportiert Fracht und zerstört sich selbst

26.04.2018 | Biowissenschaften Chemie

Berner Mars-Kamera liefert erste farbige Bilder vom Mars

26.04.2018 | Physik Astronomie

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics