first.stage ermöglicht die Platzierung von Figuren und Objekten im virtuellen Raum. Bewegungen werden mit Hilfe der farbigen Markierungen geplant und umgesetzt.Mit Hilfe von Virtual-Reality-Brillen und einer neu entwickelten Software können Film- und Theaterschaffende die Szenen einer Theater- oder Filmproduktion vorab realitätsnah planen. Auch für Animationsstudios ist die Technologie interessant, die unter Leitung der Universität Bremen im Projekt „first.stage“ entwickelt wurde. Die EU hat das Vorhaben innerhalb des Rahmenprogramms Horizont 2020 mit insgesamt rund drei Millionen Euro gefördert.

Die Planung eines Theaterstücks, einer Filmproduktion oder eines Animationsfilms ist aufwändig und kostspielig: Zahlreiche Ideen werden entwickelt, getestet und oftmals wieder verworfen. Wenn die eigentliche Produktion startet, müssen viele Details dennoch neu gestaltet werden, weil sie in der Realität anders wirken als in der vorgeschalteten Prävisualisierungsphase („Previs“) erhofft. Im Rahmen des EU-Projekts „first.stage“ haben acht Partner nun eine Virtual-Reality-Anwendung entwickelt, die diese Previs-Phase spürbar erleichtert.
Bild: first.stage ermöglicht die Platzierung von Figuren und Objekten im virtuellen Raum. Bewegungen werden mit Hilfe der farbigen Markierungen geplant und umgesetzt.
„Eine umfassende Evaluation der Projektergebnisse hat gezeigt, dass Virtual Reality (VR) den Kreativschaffenden in allen untersuchten Bereichen helfen kann, Zeit und Kosten zu sparen“, erläutert Thomas Münder, der das Projekt am Technologie-Zentrums Informatik und Informationstechnik (TZI) betreut.

Die Software, die unter Leitung des TZI der Universität Bremen entwickelt wurde, wird nun vom britischen Projektpartner Moviestorm zur Marktreife geführt und soll 2020 in einer Testversion verfügbar sein. Parallel dazu haben die TZI-Wissenschaftler das Projekt genutzt, um die intuitive Interaktion von Anwendern mit VR-Technologien zu erforschen.

System ohne Vorkenntnisse nutzbar

Das Projektkonsortium hat zahlreiche Prototypen von Funktionen entwickelt und im first.stage-System zusammengeführt. Zu den zentralen Funktionalitäten zählt das Importieren von Objekten, Personen oder Fahrzeugen, die sich in der virtuellen Welt zu der gewünschten Szene zusammenstellen und animieren lassen. Die Anwender können auch special effects (Trickeffekte) wie Explosionen, Feuer oder bewegte Gewässer mit geringem Aufwand einbauen. „Das System ist darauf ausgelegt, dass es auch von Personen ohne Programmierkenntnisse leicht genutzt werden kann“, erklärt Münder..

Am Landestheater Linz, das die VR-Lösung bei der Umsetzung von fünf Produktionen getestet hat, zählte beispielsweise ein Beleuchter zu den intensivsten Nutzern. first.stage ermöglicht ihm, das Bühnenbild in der virtuellen Welt zu erzeugen und dabei auch verschiedenste Lichtfarben und Beleuchtungswinkel auszuprobieren, um die gewünschte Stimmung zu erzeugen. Dies spart viel Zeit, in der die reale Bühne für andere Proben genutzt werden kann – ein erheblicher Gewinn für große Theater, an denen die Bühnen durchgehend ausgebucht sind.

Für Filmproduzenten wie den Projektpartner Vogel Audiovision liegt der Reiz von first.stage zum einen darin, dass die Beteiligten bereits vorab gemeinsam Szenen entwerfen können, auch wenn sie sich geografisch weit voneinander entfernt befinden. Zum anderen hilft die realistische Vorab-Visualisierung aber auch, die Abläufe beim tatsächlichen Drehtermin zu beschleunigen, weil weniger Überraschungen drohen. Das System erlaubt es beispielsweise, unterschiedlichste Kameraperspektiven zu testen und in der virtuellen Realität reale Filmsequenzen aufzunehmen. Regisseurinnen und Regisseure können diese Sequenzen nutzen, um ihren Teams zu verdeutlichen, worauf es ihnen ankommt.

Auch das Animationsstudio arx anima berichtete in der Evaluation von sehr guten Erfahrungen. Besonderes Potenzial wird dort in der Möglichkeit gesehen, viele kreative Ideen in kurzer Zeit auszuprobieren und ihre Wirkung zu testen. Dieser Arbeitsschritt kann mit first.stage deutlich schneller bewältigt werden als bisher.

Wissenschaftler untersuchen intuitives Verhalten in der virtuellen Realität

Das TZI legte den wissenschaftlichen Schwerpunkt auf die Frage, wie VR-Technologien gestaltet werden können, damit auch ungeübte Nutzerinnen und Nutzer so gut wie möglich unterstützt werden. Ein erfolgreicher Ansatz: „Die Testpersonen fanden sich besonders schnell zurecht, wenn sie die Szenen mit Hilfe realer Objekte bauen konnten – vergleichbar mit einem Puppenhaus. Eine reale Legofigur kann in der VR-Welt beispielsweise eine fiktive Person darstellen, die der first.stage-Nutzer mit der Hand greift und an die gewünschte Position stellt, wobei er die Szene mit der VR-Brille betrachtet“, so Münder.

Neben den genannten Projektpartnern waren auch die Firmen Next Limit Technologies, Rokoko und Info Consult an first.stage beteiligt. Aktuell ist eine Weiterentwicklung des Systems um Funktionalitäten aus den Bereichen Künstliche Intelligenz und Erweiterte Realität (Augmented Reality) im Gespräch.

Technologie-Zentrum Informatik und Informationstechnik Uni Bremen

Click to listen highlighted text! Powered By GSpeech