Studium, Ausbildung und Beruf

web uni-protokolle.de
 powered by
NachrichtenLexikonProtokolleBücherForenDienstag, 2. September 2014 

Virtuelle Kamerafahrten wie aus Hollywood

05.01.2009 - (idw) Rheinische Friedrich-Wilhelms-Universität Bonn

Unser Sehzentrum macht es vor: Aus dem Input unseres rechten und linken Auges rekonstruiert es, welche räumlichen Dimensionen das beobachtete Objekt hat. Dieselbe Aufgabe bringt jedoch Computer regelmäßig zur Verzweiflung. Informatiker der Universität Bonn haben dafür nun einen Lösungsansatz entwickelt, der die meisten gängigen Verfahren in den Schatten stellt. Die Methode erlaubt beispielsweise auch die Berechnung virtueller Kamerafahrten, für die der Film "Die Matrix" so berühmt wurde. Im Film "Die Matrix" gibt es eine atemberaubende Filmsequenz: Während Filmheld Neo von einem Widersacher beschossen wird, verlangsamt sich scheinbar die Zeit. Neo weicht der wie in Zeitlupe näher kommenden Kugel aus; die Kamera umfährt ihn dabei und zeichnet seine akrobatischen Verrenkungen von allen Seiten auf. Diese spektakuläre Kamerafahrt ist es, die den Reiz der Szene ausmacht. Doch es ist wie so oft in Hollywood: Sie ist nicht echt. John Gaeta - seines Zeichens verantwortlich für die Spezialeffekte des Films - hatte am Set 36 Kameras installiert. Diese hielten die Szene aus unterschiedlichen Blickwinkeln fest. Erst am Rechner entstand daraus später der Eindruck, eine einzige Kamera habe Neo während des Schusses rasant umkreist.

Der Spezialeffekt nennt sich "Bullet Time". Er hat sicher seinen Teil zum Erfolg von "Die Matrix" beigetragen. Dennoch hat Professor Dr. Daniel Cremers für die Szene nur ein Lächeln übrig. "John Gaeta hatte es leicht", stellt er fest. "Er konnte schummeln." Soll heißen: Bis der Effekt so realistisch aussah, war am Rechner jede Menge Retouchier-Arbeit angesagt. Cremers ist Informatiker; Spezialgebiet: Computer Vision. Sein Team und er haben ein Verfahren entwickelt, das Handarbeit bei derartigen Tricksequenzen weitgehend überflüssig macht.

Der Bonner Forscher hat dabei nicht vor, den Special Effects-Abteilungen von Hollywood ins Handwerk zu pfuschen. "Uns geht es um ein allgemeineres Problem", betont der 37-Jährige: "Wir fotografieren ein Objekt aus verschiedenen Blickwinkeln. Aus diesen Aufnahmen wollen wir dann die dreidimensionale Gestalt des Objekts rekonstruieren." Weiß man, wie das Fotomotiv in 3D aussieht, lässt sich am Computer relativ einfach eine Kamerafahrt programmieren. Und netterweise funktioniert das Ganze nicht nur mit Fotos, sondern eben auch mit Filmsequenzen. "Im Prinzip können wir damit auch 'Bullet Time'-Effekte berechnen", sagt Cremers.

Unser Gehirn führt permanent 3D-Rekonstruktionen durch. Wenn wir vor uns eine Kaffeetasse sehen, wissen wir intuitiv, wie weit wir den Arm ausstrecken müssen, um den Henkel zu greifen. Unsere Augen sehen die Tasse nämlich aus unterschiedlichen Blickwinkeln. Die beiden Bilder, die sie liefern, weichen daher leicht voneinander ab. Aus diesem Unterschied kann das Sehzentrum den Abstand des Henkels berechnen.

Das hört sich simpel an. Diese Fähigkeit in einen Algorithmus zu übersetzen, ist aber extrem schwierig. Rund um den Globus ist momentan ein Wettbewerb um das beste Verfahren im Gange. "Wir liegen derzeit auf Platz 2", erläutert Daniel Cremers nicht ohne Stolz. "Unsere Methode ist überdies das weltweit erste konvexe Optimierungsverfahren. Das bedeutet, dass sie unter allen denkbaren Oberflächen nachweislich die beste berechnet."

Um zu berechnen, wie weit ein beliebiger Punkt auf der Kaffeetasse von zwei Kameras entfernt ist, muss man zwei Dinge wissen. Erstens: Position und Ausrichtung der Kameras. Zweitens: die Information, welche Bildpunkte in beiden Aufnahmen miteinander korrespondieren. Frage eins lässt sich leicht klären. Frage zwei ist es, an dem sich der Computer die nicht vorhandenen Zähne ausbeißt: Er weiß einfach nicht, welcher Bildpunkt in Foto 1 zu welchem Bildpunkt in Foto 2 gehört. Der Algorithmus der Bonner Informatiker löst genau diese Aufgabe.

Das Verfahren lässt sich beispielsweise nutzen, um wertvolle Museumsexponate dreidimensional zu erfassen. "Nehmen Sie etwa eine alte chinesische Vase", sagt Cremers. "Um Sie zu betrachten, müssen Sie ins Museum nach Peking reisen. Wenn Sie Glück haben, können Sie sich vielleicht noch Fotos im Netz anschauen. Oft fehlt dann aber genau das Detail, das Sie interessiert. Eine 3D-Rekonstruktion lässt sich dagegen am Rechner drehen. Sie können sie mit einer virtuellen Lampe beleuchten, um Einzelheiten besser zu erkennen. Sie können die Beleuchtungsrichtung sogar ändern, etwa um Oberflächenstrukturen genauer herauszuarbeiten oder störende Lichtreflexe zu vermeiden."

Mitunter kann man durch 3D-Rekonstruktion sogar unrettbar verloren geglaubten Kunstobjekten neues (wenn auch nur virtuelles) Leben einhauchen. Ein Beispiel ist die berühmte Buddha-Statue von Bamiyan in Afghanistan. Die Taliban hatten das 55 Meter hohe Kunstwerk im März 2001 zerstört. Seitdem existieren davon nur noch Fotos. Mit Hilfe dieser Bilder ist es inzwischen gelungen, die Statue im Computer zu rekonstruieren. Selbst ganze archäologische Ausgrabungsstätten lassen sich auf diese Weise in digitale 3D-Modelle übertragen. Das wird auch heute schon gemacht, aber vergleichsweise primitiv. Cremers: "Mit unserer Methode lassen sich derartige 3D Rekonstruktionen noch deutlich verbessern und automatisieren."


Kontakt:
Professor Dr. Daniel Cremers
Universität Bonn, Arbeitsgruppe Computer Vision
Telefon: 0228/73-4380
Email: dcremers@cs.uni-bonn.de

uniprotokolle > Nachrichten > Virtuelle Kamerafahrten wie aus Hollywood
ImpressumLesezeichen setzenSeite versendenDruckansicht

HTML-Code zum Verweis auf diese Seite:
<a href="http://www.uni-protokolle.de/nachrichten/id/169583/">Virtuelle Kamerafahrten wie aus Hollywood </a>