Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Virtuelle Kamerafahrten wie aus Hollywood

05.01.2009
Unser Sehzentrum macht es vor: Aus dem Input unseres rechten und linken Auges rekonstruiert es, welche räumlichen Dimensionen das beobachtete Objekt hat. Dieselbe Aufgabe bringt jedoch Computer regelmäßig zur Verzweiflung.

Informatiker der Universität Bonn haben dafür nun einen Lösungsansatz entwickelt, der die meisten gängigen Verfahren in den Schatten stellt. Die Methode erlaubt beispielsweise auch die Berechnung virtueller Kamerafahrten, für die der Film "Die Matrix" so berühmt wurde.

Im Film "Die Matrix" gibt es eine atemberaubende Filmsequenz: Während Filmheld Neo von einem Widersacher beschossen wird, verlangsamt sich scheinbar die Zeit. Neo weicht der wie in Zeitlupe näher kommenden Kugel aus; die Kamera umfährt ihn dabei und zeichnet seine akrobatischen Verrenkungen von allen Seiten auf. Diese spektakuläre Kamerafahrt ist es, die den Reiz der Szene ausmacht.

Doch es ist wie so oft in Hollywood: Sie ist nicht echt. John Gaeta - seines Zeichens verantwortlich für die Spezialeffekte des Films - hatte am Set 36 Kameras installiert. Diese hielten die Szene aus unterschiedlichen Blickwinkeln fest. Erst am Rechner entstand daraus später der Eindruck, eine einzige Kamera habe Neo während des Schusses rasant umkreist.

Der Spezialeffekt nennt sich "Bullet Time". Er hat sicher seinen Teil zum Erfolg von "Die Matrix" beigetragen. Dennoch hat Professor Dr. Daniel Cremers für die Szene nur ein Lächeln übrig. "John Gaeta hatte es leicht", stellt er fest. "Er konnte schummeln." Soll heißen: Bis der Effekt so realistisch aussah, war am Rechner jede Menge Retouchier-Arbeit angesagt. Cremers ist Informatiker; Spezialgebiet: Computer Vision. Sein Team und er haben ein Verfahren entwickelt, das Handarbeit bei derartigen Tricksequenzen weitgehend überflüssig macht.

Der Bonner Forscher hat dabei nicht vor, den Special Effects-Abteilungen von Hollywood ins Handwerk zu pfuschen. "Uns geht es um ein allgemeineres Problem", betont der 37-Jährige: "Wir fotografieren ein Objekt aus verschiedenen Blickwinkeln. Aus diesen Aufnahmen wollen wir dann die dreidimensionale Gestalt des Objekts rekonstruieren." Weiß man, wie das Fotomotiv in 3D aussieht, lässt sich am Computer relativ einfach eine Kamerafahrt programmieren. Und netterweise funktioniert das Ganze nicht nur mit Fotos, sondern eben auch mit Filmsequenzen. "Im Prinzip können wir damit auch 'Bullet Time'-Effekte berechnen", sagt Cremers.

Unser Gehirn führt permanent 3D-Rekonstruktionen durch. Wenn wir vor uns eine Kaffeetasse sehen, wissen wir intuitiv, wie weit wir den Arm ausstrecken müssen, um den Henkel zu greifen. Unsere Augen sehen die Tasse nämlich aus unterschiedlichen Blickwinkeln. Die beiden Bilder, die sie liefern, weichen daher leicht voneinander ab. Aus diesem Unterschied kann das Sehzentrum den Abstand des Henkels berechnen.

Das hört sich simpel an. Diese Fähigkeit in einen Algorithmus zu übersetzen, ist aber extrem schwierig. Rund um den Globus ist momentan ein Wettbewerb um das beste Verfahren im Gange. "Wir liegen derzeit auf Platz 2", erläutert Daniel Cremers nicht ohne Stolz. "Unsere Methode ist überdies das weltweit erste konvexe Optimierungsverfahren. Das bedeutet, dass sie unter allen denkbaren Oberflächen nachweislich die beste berechnet."

Um zu berechnen, wie weit ein beliebiger Punkt auf der Kaffeetasse von zwei Kameras entfernt ist, muss man zwei Dinge wissen. Erstens: Position und Ausrichtung der Kameras. Zweitens: die Information, welche Bildpunkte in beiden Aufnahmen miteinander korrespondieren. Frage eins lässt sich leicht klären. Frage zwei ist es, an dem sich der Computer die nicht vorhandenen Zähne ausbeißt: Er weiß einfach nicht, welcher Bildpunkt in Foto 1 zu welchem Bildpunkt in Foto 2 gehört. Der Algorithmus der Bonner Informatiker löst genau diese Aufgabe.

Das Verfahren lässt sich beispielsweise nutzen, um wertvolle Museumsexponate dreidimensional zu erfassen. "Nehmen Sie etwa eine alte chinesische Vase", sagt Cremers. "Um Sie zu betrachten, müssen Sie ins Museum nach Peking reisen. Wenn Sie Glück haben, können Sie sich vielleicht noch Fotos im Netz anschauen. Oft fehlt dann aber genau das Detail, das Sie interessiert. Eine 3D-Rekonstruktion lässt sich dagegen am Rechner drehen. Sie können sie mit einer virtuellen Lampe beleuchten, um Einzelheiten besser zu erkennen. Sie können die Beleuchtungsrichtung sogar ändern, etwa um Oberflächenstrukturen genauer herauszuarbeiten oder störende Lichtreflexe zu vermeiden."

Mitunter kann man durch 3D-Rekonstruktion sogar unrettbar verloren geglaubten Kunstobjekten neues (wenn auch nur virtuelles) Leben einhauchen. Ein Beispiel ist die berühmte Buddha-Statue von Bamiyan in Afghanistan. Die Taliban hatten das 55 Meter hohe Kunstwerk im März 2001 zerstört. Seitdem existieren davon nur noch Fotos. Mit Hilfe dieser Bilder ist es inzwischen gelungen, die Statue im Computer zu rekonstruieren. Selbst ganze archäologische Ausgrabungsstätten lassen sich auf diese Weise in digitale 3D-Modelle übertragen. Das wird auch heute schon gemacht, aber vergleichsweise primitiv. Cremers: "Mit unserer Methode lassen sich derartige 3D Rekonstruktionen noch deutlich verbessern und automatisieren."

Kontakt:
Professor Dr. Daniel Cremers
Universität Bonn, Arbeitsgruppe Computer Vision
Telefon: 0228/73-4380
Email: dcremers@cs.uni-bonn.de

Frank Luerweg | idw
Weitere Informationen:
http://www.uni-bonn.de/

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht IT-Sicherheit beim autonomen Fahren
22.06.2018 | Fachhochschule St. Pölten

nachricht Schneller und sicherer Fliegen
21.06.2018 | Fachhochschule St. Pölten

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Leichter abheben: Fraunhofer LBF entwickelt Flugzeugrad aus Faser-Kunststoff-Verbund

Noch mehr Reichweite oder noch mehr Nutzlast - das wünschen sich Fluggesellschaften für ihre Flugzeuge. Wegen ihrer hohen spezifischen Steifigkeiten und Festigkeiten kommen daher zunehmend leichte Faser-Kunststoff-Verbunde zum Einsatz. Bei Rümpfen oder Tragflächen sind permanent Innovationen in diese Richtung zu beobachten. Um dieses Innovationsfeld auch für Flugzeugräder zu erschließen, hat das Fraunhofer-Institut für Betriebsfestigkeit und Systemzuverlässigkeit LBF jetzt ein neues EU-Forschungsvorhaben gestartet. Ziel ist die Entwicklung eines ersten CFK-Bugrads für einen Airbus A320. Dabei wollen die Forscher ein Leichtbaupotential von bis zu 40 Prozent aufzeigen.

Faser-Kunststoff-Verbunde sind in der Luftfahrt bei zahlreichen Bauteilen bereits das Material der Wahl. So liegt beim Airbus A380 der Anteil an...

Im Focus: IT-Sicherheit beim autonomen Fahren

FH St. Pölten entwickelt neue Methode für sicheren Informationsaustausch zwischen Fahrzeugen mittels Funkdaten

Neue technische Errungenschaften wie das Internet der Dinge oder die direkte drahtlose Kommunikation zwischen Objekten erhöhen den Bedarf an effizienter...

Im Focus: Innovative Handprothesensteuerung besteht Alltagstest

Selbstlernende Steuerung für Handprothesen entwickelt. Neues Verfahren lässt Patienten natürlichere Bewegungen gleichzeitig in zwei Achsen durchführen. Forscher der Universitätsmedizin Göttingen (UMG) veröffentlichen Studie im Wissenschaftsmagazin „Science Robotics“ vom 20. Juni 2018.

Motorisierte Handprothesen sind mittlerweile Stand der Technik bei der Versorgung von Amputationen an der oberen Extremität. Bislang erlauben sie allerdings...

Im Focus: Temperaturgesteuerte Faser-Lichtquelle mit flüssigem Kern

Die moderne medizinische Bildgebung und neue spektroskopische Verfahren benötigen faserbasierte Lichtquellen, die breitbandiges Laserlicht im nahen und mittleren Infrarotbereich erzeugen. Wissenschaftlerinnen und Wissenschaftler des Leibniz-Instituts für Photonische Technologien Jena (Leibniz-IPHT) zeigen in einer aktuellen Veröffentlichung im renommierten Fachblatt Optica, dass sie die optischen Eigenschaften flüssigkeitsgefüllter Fasern und damit die Bandbreite des Laserlichts gezielt über die Umgebungstemperatur steuern können.

Das Besondere an den untersuchten Fasern ist ihr Kern. Er ist mit Kohlenstoffdisulfid gefüllt - einer flüssigen chemischen Verbindung mit hoher optischer...

Im Focus: Temperature-controlled fiber-optic light source with liquid core

In a recent publication in the renowned journal Optica, scientists of Leibniz-Institute of Photonic Technology (Leibniz IPHT) in Jena showed that they can accurately control the optical properties of liquid-core fiber lasers and therefore their spectral band width by temperature and pressure tuning.

Already last year, the researchers provided experimental proof of a new dynamic of hybrid solitons– temporally and spectrally stationary light waves resulting...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks
Industrie & Wirtschaft
Veranstaltungen

Leben im Plastikzeitalter: Wie ist ein nachhaltiger Umgang mit Plastik möglich?

21.06.2018 | Veranstaltungen

Kongress BIO-raffiniert X – Neue Wege in der Nutzung biogener Rohstoffe?

21.06.2018 | Veranstaltungen

DFG unterstützt Kongresse und Tagungen im August 2018

20.06.2018 | Veranstaltungen

VideoLinks
Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

Leichter abheben: Fraunhofer LBF entwickelt Flugzeugrad aus Faser-Kunststoff-Verbund

22.06.2018 | Materialwissenschaften

Lernen und gleichzeitig Gutes tun? Baufritz macht‘s möglich!

22.06.2018 | Unternehmensmeldung

GFOS und skip Institut entwickeln gemeinsam Prototyp für Augmented Reality App für die Produktion

22.06.2018 | Unternehmensmeldung

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics