Virtuelle Kamerafahrten wie in Hollywood

Bonner Informatiker bringen Computern bei dreidimensional "zu sehen"

Bonn. (sj) Im Film "Die Matrix" gibt es eine atemberaubende Filmsequenz: Während Filmheld Neo von einem Widersacher beschossen wird, verlangsamt sich scheinbar die Zeit. Neo weicht der wie in Zeitlupe näher kommenden Kugel aus; die Kamera umfährt ihn dabei scheinbar und zeichnet seine akrobatischen Verrenkungen von allen Seiten auf.

Diese spektakuläre Kamerafahrt ist es, die den Reiz der Szene ausmacht. Doch es ist wie so oft in Hollywood: Sie ist nicht echt. John Gaeta - verantwortlich für die Spezialeffekte des Films - hatte am Set 36 Kameras installiert. Diese hielten die Szene aus unterschiedlichen Blickwinkeln fest.

Erst am Rechner entstand daraus später der Eindruck, eine einzige Kamera habe Neo während des Schusses rasant umkreist. Der Spezialeffekt nennt sich "Bullet Time". Der Informatiker Professor Daniel Cremers von der Universität Bonn hat für die Szene nur ein Lächeln übrig: "John Gaeta hatte es leicht, er konnte schummeln."

Bis der Effekt so realistisch aussah, sei am Rechner jede Menge Retuschier-Arbeit nötig gewesen. Cremers und sein Team haben ein Verfahren entwickelt, das Handarbeit bei derartigen Tricksequenzen weitgehend überflüssig macht.

Der Forscher hat dabei nicht vor, Hollywood ins Handwerk zu pfuschen. "Uns geht es um ein allgemeineres Problem", betont der 37-Jährige: "Wir fotografieren ein Objekt aus verschiedenen Blickwinkeln. Aus diesen Aufnahmen wollen wir dann die dreidimensionale Gestalt des Objekts rekonstruieren."

Weiß man, wie das Fotomotiv dreidimensional aussieht, lässt sich am Computer relativ einfach eine Kamerafahrt programmieren. "Im Prinzip können wir damit auch “Bullet Time„-Effekte berechnen", sagt Cremers.

Unser Gehirn führt permanent 3D-Rekonstruktionen durch. Wenn wir vor uns eine Kaffeetasse sehen, wissen wir intuitiv, wie weit wir den Arm ausstrecken müssen, um den Henkel zu greifen. Unsere Augen sehen die Tasse nämlich aus unterschiedlichen Blickwinkeln.

Daraus kann das Sehzentrum den Abstand des Henkels berechnen. Das hört sich simpel an. Diese Fähigkeit in einen Algorithmus zu übersetzen, ist aber extrem schwierig. Um zu berechnen, wie weit ein beliebiger Punkt auf der Kaffeetasse von zwei Kameras entfernt ist, muss man zwei Dinge wissen.

Erstens: Position und Ausrichtung der Kameras. Zweitens: die Information, welche Bildpunkte in beiden Aufnahmen miteinander korrespondieren. Frage eins lässt sich leicht klären. Frage zwei ist es, an dem sich der Computer die nicht vorhandenen Zähne ausbeißt: Er weiß einfach nicht, welcher Bildpunkt in Foto 1 zu welchem Bildpunkt in Foto 2 gehört.

Der Algorithmus der Bonner Informatiker löst genau diese Aufgabe. Das Verfahren lässt sich beispielsweise nutzen, um wertvolle Museumsexponate dreidimensional zu erfassen und im Internet zu veröffentlichen.

Mitunter kann man durch 3D-Rekonstruktion sogar unrettbar verloren geglaubten Kunstobjekten neues - wenn auch nur virtuelles - Leben einhauchen. Ein Beispiel ist die berühmte Buddha-Statue von Bamiyan in Afghanistan.

Die Taliban hatten das 55 Meter hohe Kunstwerk im März 2001 zerstört. Seitdem existieren davon nur noch Fotos. Mit Hilfe dieser Bilder ist es inzwischen gelungen, die Statue im Computer zu rekonstruieren.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort