Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Virtuelle Kamerafahrten wie aus Hollywood

05.01.2009
Unser Sehzentrum macht es vor: Aus dem Input unseres rechten und linken Auges rekonstruiert es, welche räumlichen Dimensionen das beobachtete Objekt hat. Dieselbe Aufgabe bringt jedoch Computer regelmäßig zur Verzweiflung.

Informatiker der Universität Bonn haben dafür nun einen Lösungsansatz entwickelt, der die meisten gängigen Verfahren in den Schatten stellt. Die Methode erlaubt beispielsweise auch die Berechnung virtueller Kamerafahrten, für die der Film "Die Matrix" so berühmt wurde.

Im Film "Die Matrix" gibt es eine atemberaubende Filmsequenz: Während Filmheld Neo von einem Widersacher beschossen wird, verlangsamt sich scheinbar die Zeit. Neo weicht der wie in Zeitlupe näher kommenden Kugel aus; die Kamera umfährt ihn dabei und zeichnet seine akrobatischen Verrenkungen von allen Seiten auf. Diese spektakuläre Kamerafahrt ist es, die den Reiz der Szene ausmacht.

Doch es ist wie so oft in Hollywood: Sie ist nicht echt. John Gaeta - seines Zeichens verantwortlich für die Spezialeffekte des Films - hatte am Set 36 Kameras installiert. Diese hielten die Szene aus unterschiedlichen Blickwinkeln fest. Erst am Rechner entstand daraus später der Eindruck, eine einzige Kamera habe Neo während des Schusses rasant umkreist.

Der Spezialeffekt nennt sich "Bullet Time". Er hat sicher seinen Teil zum Erfolg von "Die Matrix" beigetragen. Dennoch hat Professor Dr. Daniel Cremers für die Szene nur ein Lächeln übrig. "John Gaeta hatte es leicht", stellt er fest. "Er konnte schummeln." Soll heißen: Bis der Effekt so realistisch aussah, war am Rechner jede Menge Retouchier-Arbeit angesagt. Cremers ist Informatiker; Spezialgebiet: Computer Vision. Sein Team und er haben ein Verfahren entwickelt, das Handarbeit bei derartigen Tricksequenzen weitgehend überflüssig macht.

Der Bonner Forscher hat dabei nicht vor, den Special Effects-Abteilungen von Hollywood ins Handwerk zu pfuschen. "Uns geht es um ein allgemeineres Problem", betont der 37-Jährige: "Wir fotografieren ein Objekt aus verschiedenen Blickwinkeln. Aus diesen Aufnahmen wollen wir dann die dreidimensionale Gestalt des Objekts rekonstruieren." Weiß man, wie das Fotomotiv in 3D aussieht, lässt sich am Computer relativ einfach eine Kamerafahrt programmieren. Und netterweise funktioniert das Ganze nicht nur mit Fotos, sondern eben auch mit Filmsequenzen. "Im Prinzip können wir damit auch 'Bullet Time'-Effekte berechnen", sagt Cremers.

Unser Gehirn führt permanent 3D-Rekonstruktionen durch. Wenn wir vor uns eine Kaffeetasse sehen, wissen wir intuitiv, wie weit wir den Arm ausstrecken müssen, um den Henkel zu greifen. Unsere Augen sehen die Tasse nämlich aus unterschiedlichen Blickwinkeln. Die beiden Bilder, die sie liefern, weichen daher leicht voneinander ab. Aus diesem Unterschied kann das Sehzentrum den Abstand des Henkels berechnen.

Das hört sich simpel an. Diese Fähigkeit in einen Algorithmus zu übersetzen, ist aber extrem schwierig. Rund um den Globus ist momentan ein Wettbewerb um das beste Verfahren im Gange. "Wir liegen derzeit auf Platz 2", erläutert Daniel Cremers nicht ohne Stolz. "Unsere Methode ist überdies das weltweit erste konvexe Optimierungsverfahren. Das bedeutet, dass sie unter allen denkbaren Oberflächen nachweislich die beste berechnet."

Um zu berechnen, wie weit ein beliebiger Punkt auf der Kaffeetasse von zwei Kameras entfernt ist, muss man zwei Dinge wissen. Erstens: Position und Ausrichtung der Kameras. Zweitens: die Information, welche Bildpunkte in beiden Aufnahmen miteinander korrespondieren. Frage eins lässt sich leicht klären. Frage zwei ist es, an dem sich der Computer die nicht vorhandenen Zähne ausbeißt: Er weiß einfach nicht, welcher Bildpunkt in Foto 1 zu welchem Bildpunkt in Foto 2 gehört. Der Algorithmus der Bonner Informatiker löst genau diese Aufgabe.

Das Verfahren lässt sich beispielsweise nutzen, um wertvolle Museumsexponate dreidimensional zu erfassen. "Nehmen Sie etwa eine alte chinesische Vase", sagt Cremers. "Um Sie zu betrachten, müssen Sie ins Museum nach Peking reisen. Wenn Sie Glück haben, können Sie sich vielleicht noch Fotos im Netz anschauen. Oft fehlt dann aber genau das Detail, das Sie interessiert. Eine 3D-Rekonstruktion lässt sich dagegen am Rechner drehen. Sie können sie mit einer virtuellen Lampe beleuchten, um Einzelheiten besser zu erkennen. Sie können die Beleuchtungsrichtung sogar ändern, etwa um Oberflächenstrukturen genauer herauszuarbeiten oder störende Lichtreflexe zu vermeiden."

Mitunter kann man durch 3D-Rekonstruktion sogar unrettbar verloren geglaubten Kunstobjekten neues (wenn auch nur virtuelles) Leben einhauchen. Ein Beispiel ist die berühmte Buddha-Statue von Bamiyan in Afghanistan. Die Taliban hatten das 55 Meter hohe Kunstwerk im März 2001 zerstört. Seitdem existieren davon nur noch Fotos. Mit Hilfe dieser Bilder ist es inzwischen gelungen, die Statue im Computer zu rekonstruieren. Selbst ganze archäologische Ausgrabungsstätten lassen sich auf diese Weise in digitale 3D-Modelle übertragen. Das wird auch heute schon gemacht, aber vergleichsweise primitiv. Cremers: "Mit unserer Methode lassen sich derartige 3D Rekonstruktionen noch deutlich verbessern und automatisieren."

Kontakt:
Professor Dr. Daniel Cremers
Universität Bonn, Arbeitsgruppe Computer Vision
Telefon: 0228/73-4380
Email: dcremers@cs.uni-bonn.de

Frank Luerweg | idw
Weitere Informationen:
http://www.uni-bonn.de/

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Smart Living: VDE-Institut entwickelt Cloud-basierte interoperable Testplattform
15.02.2017 | VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V.

nachricht Saarbrücker Informatiker machen „Augmented Reality“ fotorealistisch
15.02.2017 | Universität des Saarlandes

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: „Vernetzte Autonome Systeme“ von acatech und DFKI auf der CeBIT

Auf der IT-Messe CeBIT vom 20. bis 24. März präsentieren acatech – Deutsche Akademie der Technikwissenschaften und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Kooperation mit der Deutschen Messe AG vernetzte Autonome Systeme. In Halle 12 am Stand B 63 erwarten die Besucherinnen und Besucher unter anderem Roboter, die Hand in Hand mit Menschen zusammenarbeiten oder die selbstständig gefährliche Umgebungen erkunden.

Auf der IT-Messe CeBIT vom 20. bis 24. März präsentieren acatech – Deutsche Akademie der Technikwissenschaften und das Deutsche Forschungszentrum für...

Im Focus: Kühler Zwerg und die sieben Planeten

Erdgroße Planeten mit gemäßigtem Klima in System mit ungewöhnlich vielen Planeten entdeckt

In einer Entfernung von nur 40 Lichtjahren haben Astronomen ein System aus sieben erdgroßen Planeten entdeckt. Alle Planeten wurden unter Verwendung von boden-...

Im Focus: Mehr Sicherheit für Flugzeuge

Zwei Entwicklungen am Lehrgebiet Rechnerarchitektur der FernUniversität in Hagen können das Fliegen sicherer machen: ein Flugassistenzsystem, das bei einem totalen Triebwerksausfall zum Einsatz kommt, um den Piloten ein sicheres Gleiten zu einem Notlandeplatz zu ermöglichen, und ein Assistenzsystem für Segelflieger, das ihnen das Erreichen größerer Höhen erleichtert. Präsentiert werden sie von Prof. Dr.-Ing. Wolfram Schiffmann auf der Internationalen Fachmesse für Allgemeine Luftfahrt AERO vom 5. bis 8. April in Friedrichshafen.

Zwei Entwicklungen am Lehrgebiet Rechnerarchitektur der FernUniversität in Hagen können das Fliegen sicherer machen: ein Flugassistenzsystem, das bei einem...

Im Focus: HIGH-TOOL unterstützt Verkehrsplanung in Europa

Forschung am Karlsruher Institut für Technologie (KIT) unterstützt die Europäische Kommission bei der Verkehrsplanung: Anhand des neuen Modells HIGH-TOOL lässt sich bewerten, wie verkehrspolitische Maßnahmen langfristig auf Wirtschaft, Gesellschaft und Umwelt wirken. HIGH-TOOL ist ein frei zugängliches Modell mit Modulen für Demografie, Wirtschaft und Ressourcen, Fahrzeugbestand, Nachfrage im Personen- und Güterverkehr sowie Umwelt und Sicherheit. An dem nun erfolgreich abgeschlossenen EU-Projekt unter der Koordination des KIT waren acht Partner aus fünf Ländern beteiligt.

Forschung am Karlsruher Institut für Technologie (KIT) unterstützt die Europäische Kommission bei der Verkehrsplanung: Anhand des neuen Modells HIGH-TOOL lässt...

Im Focus: Zinn in der Photodiode: nächster Schritt zur optischen On-Chip-Datenübertragung

Schon lange suchen Wissenschaftler nach einer geeigneten Lösung, um optische Komponenten auf einem Computerchip zu integrieren. Doch Silizium und Germanium allein – die stoffliche Basis der Chip-Produktion – sind als Lichtquelle kaum geeignet. Jülicher Physiker haben nun gemeinsam mit internationalen Partnern eine Diode vorgestellt, die neben Silizium und Germanium zusätzlich Zinn enthält, um die optischen Eigenschaften zu verbessern. Das Besondere daran: Da alle Elemente der vierten Hauptgruppe angehören, sind sie mit der bestehenden Silizium-Technologie voll kompatibel.

Schon lange suchen Wissenschaftler nach einer geeigneten Lösung, um optische Komponenten auf einem Computerchip zu integrieren. Doch Silizium und Germanium...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Aufbruch: Forschungsmethoden in einer personalisierten Medizin

24.02.2017 | Veranstaltungen

Österreich erzeugt erstmals Erdgas aus Sonnen- und Windenergie

24.02.2017 | Veranstaltungen

Big Data Centrum Ostbayern-Südböhmen startet Veranstaltungsreihe

23.02.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Fraunhofer HHI auf dem Mobile World Congress mit VR- und 5G-Technologien

24.02.2017 | Messenachrichten

MWC 2017: 5G-Hauptstadt Berlin

24.02.2017 | Messenachrichten

Auf der molekularen Streckbank

24.02.2017 | Biowissenschaften Chemie