Neue Kameratechnologie kann Blickwinkel und Schärfe nachträglich verändern
Und Action! Am Filmset geht es oft hektisch zu, alles wuselt durcheinander. Fehler sind da schnell gemacht, der Blickwinkel ist suboptimal, die Schärfe stimmt nicht. Doch einer neuer Dreh kostet Zeit und Geld. Forscher aus Erlangen haben jetzt eine neuartige Kameratechnologie vorgestellt, die es ermöglicht, Blickwinkel oder Schärfe noch nachträglich am Schneidetisch zu ändern.
Einen starken Auftritt hat Daniel Craig als James Bond in Sam Mendes Film Skyfall in der ersten Einstellung: Er geht auf die Kamera zu, kommt als schwarze Kontur aus extremer Unschärfe einen schummrigen Flur entlang, schält sich immer mehr aus der verwaschenen Kontur heraus, bis sein stahlhartes Gesicht im Lichtkegel in der Schärfenebene verharrt. Solche Szenen müssen am Filmset sehr gut durchgeplant werden, es kommt auf Zentimeter an, damit die Schärfenebene genau im Lichtpunkt sitzt.
Forscher des Fraunhofer Institut für Integrierte Schaltungen IIS in Erlangen haben jetzt eine neue Kameratechnologie entwickelt, die es ermöglicht, solche starken Effekte nach dem Dreh am Schneidetisch zu erzeugen. Die neue Kameratechnologie besteht aus einem Kamera-Array, welches die Lichtstrahlen einer Szene an verschiedenen Punkten einsammelt. „Das Array besteht aus insgesamt 16 Kameras, die in vier Zeilen und vier Spalten angeordnet sind“, erläutert Frederik Zilly, Gruppenleier am IIS.
Informationen über die Position und die Richtung der Lichtstrahlen
Mit diesem Kamera-Array zeichnen die Forscher das ganze Lichtfeld ein, welches die aktuelle Filmszene abgibt. Das Lichtfeld ist eine Funktion, welche die Lichtmenge beschreibt, die an jedem Punkt des Raumes in alle Richtungen fällt. Denn durch die Aufzeichnung mit den 16 Kameras liegt nicht nur die Information über die Lichtintensität an einem Punkt der Szene vor, sondern auch die Position und die Richtung der Lichtstrahlen. Aus diesen Informationen können die unterschiedlichen Ebenen einer aufgenommen Szene rekonstruiert werden. Eine ausgeklügelte Auswertungssoftware hinter dem Kamera-Array hilft dabei.
„Für jeden Pixel, den die Kameras aufnehmen, schätzt die Software die Tiefe ab. Sie ermittelt also, wie weit das abgebildete Objekt vom Kameraarray entfernt ist“, erklärt IIS-Forscher Zilly. „Aus dieser Tiefeninformation können in der Postproduktion Zwischenbilder errechnet werden, so dass wir virtuell die Daten nicht nur von 4 mal 4 Kameras, sondern von 100 mal 100 Kameras haben.“ Dadurch liegen dann auch für jede Ebene der Szene die Tiefeninformationen über die ganze Breite der Szene vor. So kann später die Unschärfe für jede Ebene korrekt per Computer erzeugt werden, selbst wenn bei der Aufnahme der Schauspieler bei seinem Gang auf die Kamera nicht immer scharf abgebildet war.
Weil jede der 16 Kameras einen leicht veränderten Blickwinkel auf die Szene hat, liegen auch die Informationen darüber vor, was sich hinter dem Schauspieler verbirgt. Denn gerade die äußersten Kameras im Array blicken erheblich mehr von der Seite auf die Szene, als die mittig positionierten Kameras. Dadurch ist es möglich, virtuell um eine Person oder einen Gegenstand herumzufahren. Dieser vor allem aus Matrix-Filmen bekannte Effekt sorgt dann für die Illusion, dass der Schauspieler wie eingefroren verharrt, während die Kamera um ihn herum saust.
Theorie vom Licht als Feld stammt von Michael Faraday
Die Theorie vom Licht als Feld ist im Prinzip schon weit über 150 Jahre alt. Sie wurde von Michael Faraday im Jahre 1846 beschrieben, der sich zu dieser Zeit sehr intensiv mit dem magnetischen Feld beschäftigt hatte. Den Begriff Lichtfeld prägte Arun Gershun im Jahre 1936 in seinem Buch „The Light Field“. Mit der Aufzeichnung des ganzen Lichtfeldes einer Szene durch das Kamera-Array stehen den Filmemachern sehr viel mehr Informationen über eine Szene zur Verfügung. So ist es problemlos möglich, 3D-Sequenzen aus dem mit der Array-Kamera gedrehten Videomaterial zu generieren, weil ja verschiedene Blickwinkel für jede Zeiteinheit vorliegen.
Es ist auch möglich, die Tiefenkarten, also die von der Software errechneten Entfernungsinformationen zu jedem einzelnen Pixel, dafür zu nutzen, nachträglich die Szenen einfach um gerenderte Objekte oder auch Effekte zu ergänzen, die genau in einer bestimmten Tiefenebene mit allen sich daraus ergebenden Verdeckungen und Schärfen angesiedelt sind. Auf der diesjährigen „International Broadcasting Convention (IBC)“ vom 13. bis 17. September in Amsterdam wollen die IIS-Forscher ihr Kamera-Array in Halle 8 am Stand 8.B80 präsentieren.
Kompaktes Kamera-Array für den Film
Das Kamera-Array der Fraunhofer-Forscher aus Erlangen dürfte für kreative Filmemacher von großem Interesse sein. Denn trotz seiner 16 Kameras ist es kompakt: Es hat ein Maß von 30 mal 30 Zentimeter und lässt sich daher problemlos auf dem Filmset und im Studio einsetzen. Auf der IBC präsentieren die Forscher ihr Kamera-Array mit der Software, welche die Kameraaufnahmen verarbeitet, und einer grafischen Benutzeroberfläche für die Aufnahme am Filmset. Das reicht aus, um die Anwendungsmöglichkeiten der Lichtfeld-Filmtechnik zu demonstrieren.
Noch Zukunftsmusik ist hingegen die Benutzeroberfläche für die Nachbearbeitung. Diese soll in einem halben Jahr bereit stehen. Wenn es soweit ist, realisieren die Forscher ihren ersten kleinen Film mit der neuartigen Filmtechnik. Sie wollen einen Stop-Motion-Film drehen, der sich besonders gut für die Testläufe der Software eignet. „Später wollen wir ihn als Demofilm verwenden“, verrät Zilly. „So können wir Interessenten zeigen, welche Möglichkeiten sich beim Einsatz des Kameraarrays bieten.“ Schauspieler Daniel Craig und sein Regisseur Sam Mendes dürften schon bald eine Menge Nachahmer ihrer starken Einstiegsszene in Skyfall finden.
Ein Beitrag von: