Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Eine Kamera, zwei Fotos, drei Dimensionen: Einfacher und schneller zu 3D-Bildern

21.03.2012
Dreidimensional sehen: Eine Kamera benötigt in Zusammenarbeit mit einem PC drei Fotos und viel Zeit zum Rechnen, um genügend Informationen über die Gestalt von Objekten in ihrer Umwelt zu erhalten und zu einem 3D-Bild zu verarbeiten. Noch.

Denn an der FernUniversität in Hagen ist ein mathematischer Algorithmus entwickelt worden, mit dem zwei Aufnahmen aus „freier Hand“ mit einer einfachen Kamera genügen. Anwendungen dürften in vielen Bereichen möglich sein, von der Modellierung von Produkten über die Präsentation von Innenräumen bis hin zu PC-Spielen. Zudem dürfte sich das Verfahren auch für die Anwendung in 3D-Kino und -TV weiterentwickeln lassen.

Dreidimensional sehen: Dafür braucht das Gehirn zwei Augen und winzige Bruchteile von Sekunden. Eine Kamera benötigt in Zusammenarbeit mit einem PC drei Fotos und viel Zeit zum Rechnen, um genügend Informationen über die Gestalt von Objekten in ihrer Umwelt zu erhalten und zu einem 3D-Bild zu verarbeiten. Noch. Denn an der FernUniversität in Hagen ist ein mathematischer Algorithmus entwickelt worden, mit dem zwei Aufnahmen aus „freier Hand“ mit einer einfachen Kamera genügen.

Entwickelt wurde der Ansatz von Sergey Cheremukhin, studentische Hilfskraft im Lehrgebiet Mensch-Computer-Interaktion von Prof. Dr. Gabriele Peters. Sein Verfahren wurde als beste Einreichung bei den Informatiktagen 2012 nominiert, die am 23. und 24. März 2012 in Bonn stattfinden.

Anwendungsmöglichkeiten sehen Prof. Gabriele Peters und ihr Team in vielen Bereichen, von der Modellierung von Produkten über die Präsentation von Innenräumen bis hin zu PC-Spielen. Sogar die Planung von Theaterdramaturgien ist vorstellbar. Zudem dürfte sich das Verfahren auch für die Anwendung in 3D-Kino und -TV weiterentwickeln lassen.

Bisher sind drei Aufnahmen notwendig, um Rückschlüsse auf das Kamerasystem und seine Entfernung und Lage in Bezug auf das fotografierte Objekt, z.B. eine Clownminiatur oder ein Lego-Auto, ziehen zu können: Welche Kenngrößen kennzeichnen das Objektiv? Welche Brennweite hat es? Wie weit ist es vom Clown oder dem Auto entfernt? Wie ist seine relative Lage zu der Figur? Erst durch diese und noch viel mehr Informationen lassen sich drei oder mehr Fotos so einfach zusammenfügen, wie dies mit einem Programm zum Erstellen von Panorama-Fotos möglich ist (das aber keine 3D-Ansichten ermöglicht). Es entsteht ein dreidimensionales Objekt: eine Wolke aus vielen Punkten.

Beim herkömmlichen Verfahren mit drei Fotos gibt es zahlreiche Konstellationen, die Punktewolken erzeugen. Unter ihnen muss diejenige gefunden werden, die die Realität wiedergibt. Cheremukhin reduzierte die Kombinationsmöglichkeiten mathematisch so geschickt, dass zwei Fotos reichen, die sich nur geringfügig unterscheiden müssen.

Die Punktewolke wird anschließend mit einer Textur überzogen. Dieser „Überzug“, eine Computergrafik, macht aus dem 3D-Modell eine farbige Wiedergabe des fotografierten Motivs.

Natürlich bildet ein Flachbildschirm dieses dreidimensionale Objekt nur zweidimensional ab. Man kann es – wie ein herkömmliches Foto – um bis zu 360 Grad drehen. Es ist aber auch möglich, es um eine seiner Achsen rotieren zu lassen. So sieht man dem Clown nicht nur in die Augen, sondern kann auch sein Profil und sogar seinen Hinterkopf betrachten.

Um ein vollständiges Modell zu berechnen, das auch von hinten realistisch aussieht, benötigt man bisher etwa 7 bis 8 Aufnahmen, für eine teilweise 3D-Wiedergabe mindestens drei. Nach der Methode von Sergey Cheremukhin genügen für eine solche Teilrekonstruktion nun zwei Ansichten. Wie viele Aufnahmen für eine komplette Rundumansicht notwendig sind muss noch getestet werden: „In der Praxis entstehen Fehler, wenn die Objektivstandpunkte zu weit voneinander entfernt sind“, erläutert Projektleiter Dr. Klaus Häming. Deshalb sind auch weiterhin mehrere Aufnahmen notwendig, Cheremukhins Berechnung spart aber selbst in extremen Ausnahmesituationen einige ein: „Weniger Zeit, weniger Kosten, aber nicht weniger Qualität“, das war dem jungen Mathematiker wichtig.

Sein Verfahren wurde als beste Einreichung bei den Informatiktagen 2012 nominiert, die am 23. und 24. März 2012 in Bonn stattfinden. Die Informatiktage der Gesellschaft für Informatik e.V. (GI) gelten als die jährliche Veranstaltung für den wissenschaftlichen Nachwuchs der Informatik. Ausgewählte Studierende können ihre Einzelarbeiten vorstellen und in Workshops, Präsentationen und persönlichen Gesprächen Wissenschaftlerinnen und Wissenschaftler sowie Unternehmen kennenlernen. Eine Nominierung für den „Best Paper Award“ hat für die deutschen Informatik-Studierenden etwa die Bedeutung einer „Oscar-Nominierung“. Die diesjährige Preisverleihung findet am 24. März in Bonn statt.

Das Projekt wurde von der Deutschen Forschungsgemeinschaft gefördert, nach dem Ende wird Sergey Cheremukhin vom Lehrgebiet Mensch-Computer-Interaktion aus eigenen Mitteln beschäftigt.

Susanne Bossemeyer | idw
Weitere Informationen:
http://www.mci.fernuni-hagen.de/pr/abstract_cheremukhin.pdf

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Lemgoer Forscher entwickeln Intelligente Assistenzsysteme für mobile Anwendungen in der Industrie
25.07.2017 | Hochschule Ostwestfalen-Lippe

nachricht Neue Anwendungsszenarien für Industrie 4.0 entwickelt
25.07.2017 | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Navigationssystem der Hirnzellen entschlüsselt

Das menschliche Gehirn besteht aus etwa hundert Milliarden Nervenzellen. Informationen zwischen ihnen werden über ein komplexes Netzwerk aus Nervenfasern übermittelt. Verdrahtet werden die meisten dieser Verbindungen vor der Geburt nach einem genetischen Bauplan, also ohne dass äußere Einflüsse eine Rolle spielen. Mehr darüber, wie das Navigationssystem funktioniert, das die Axone beim Wachstum leitet, haben jetzt Forscher des Karlsruher Instituts für Technologie (KIT) herausgefunden. Das berichten sie im Fachmagazin eLife.

Die Gesamtlänge des Nervenfasernetzes im Gehirn beträgt etwa 500.000 Kilometer, mehr als die Entfernung zwischen Erde und Mond. Damit es beim Verdrahten der...

Im Focus: Kohlenstoff-Nanoröhrchen verwandeln Strom in leuchtende Quasiteilchen

Starke Licht-Materie-Kopplung in diesen halbleitenden Röhrchen könnte zu elektrisch gepumpten Lasern führen

Auch durch Anregung mit Strom ist die Erzeugung von leuchtenden Quasiteilchen aus Licht und Materie in halbleitenden Kohlenstoff-Nanoröhrchen möglich....

Im Focus: Carbon Nanotubes Turn Electrical Current into Light-emitting Quasi-particles

Strong light-matter coupling in these semiconducting tubes may hold the key to electrically pumped lasers

Light-matter quasi-particles can be generated electrically in semiconducting carbon nanotubes. Material scientists and physicists from Heidelberg University...

Im Focus: Breitbandlichtquellen mit flüssigem Kern

Jenaer Forschern ist es gelungen breitbandiges Laserlicht im mittleren Infrarotbereich mit Hilfe von flüssigkeitsgefüllten optischen Fasern zu erzeugen. Mit den Fasern lieferten sie zudem experimentelle Beweise für eine neue Dynamik von Solitonen – zeitlich und spektral stabile Lichtwellen – die aufgrund der besonderen Eigenschaften des Flüssigkerns entsteht. Die Ergebnisse der Arbeiten publizierte das Jenaer Wissenschaftler-Team vom Leibniz-Instituts für Photonische Technologien (Leibniz-IPHT), dem Fraunhofer-Insitut für Angewandte Optik und Feinmechanik, der Friedrich-Schiller-Universität Jena und des Helmholtz-Insituts im renommierten Fachblatt Nature Communications.

Aus einem ultraschnellen intensiven Laserpuls, den sie in die Faser einkoppeln, erzeugen die Wissenschaftler ein, für das menschliche Auge nicht sichtbares,...

Im Focus: Flexible proximity sensor creates smart surfaces

Fraunhofer IPA has developed a proximity sensor made from silicone and carbon nanotubes (CNT) which detects objects and determines their position. The materials and printing process used mean that the sensor is extremely flexible, economical and can be used for large surfaces. Industry and research partners can use and further develop this innovation straight away.

At first glance, the proximity sensor appears to be nothing special: a thin, elastic layer of silicone onto which black square surfaces are printed, but these...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

10. Uelzener Forum: Demografischer Wandel und Digitalisierung

26.07.2017 | Veranstaltungen

Clash of Realities 2017: Anmeldung jetzt möglich. Internationale Konferenz an der TH Köln

26.07.2017 | Veranstaltungen

2. Spitzentreffen »Industrie 4.0 live«

25.07.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Robuste Computer für's Auto

26.07.2017 | Seminare Workshops

Läuft wie am Schnürchen!

26.07.2017 | Seminare Workshops

Leicht ist manchmal ganz schön schwer!

26.07.2017 | Seminare Workshops