Womit Events & Videos in virtuellen Sets produzieren?
Mit der Kombination von Unreal Engine 5 und Aximmetry lässt sich die Art und Weise, wie wir virtuelle Inhalte erstellen und präsentieren, revolutionieren. In diesem Beitrag klären wir die wichtigsten Begriffe, zeigen euch, wie wir bei Produktionen vorgehen und welche Tools wir dafür nutzen.
Mit der Kombination von Unreal Engine 5 und Aximmetry lässt sich die Art und Weise, wie wir virtuelle Inhalte erstellen und präsentieren, revolutionieren. In diesem Beitrag klären wir die wichtigsten Begriffe, zeigen euch, wie wir bei Produktionen vorgehen und welche Tools wir dafür nutzen.
Vorbereitung einer Produktion in virtual oder mixed Reality-Sets
Wir sind wollen unsere Kunden und deren Publikum mit einzigartigen und beeindruckenden Inhalten begeistern. Und mit der Unreal Engine 5 und Aximmetry können wir die Grenzen dessen, was in der virtuellen Produktion möglich ist, immer weiter ausloten. Die virtuelle Produktion ist mehr als nur ein Trend - sie ist in vielerlei Hinsicht die Zukunft der Medienproduktion und wir sind bereit, diese Zukunft zu gestalten.
Ist die Konzeptionsphase eines Events oder einer Filmproduktion erst einmal abgeschlossen, gehen wir in der Kreationsphase folgendermaßen vor:
Schritt 1: Modellieren und Texturieren in Blender
Unser Prozess beginnt in Blender, einer Open-Source 3D-Software, in der wir unsere 3D-Modelle und Texturen erstellen. Blender bietet uns die Freiheit und Flexibilität, die wir benötigen, um unsere Ideen zum Leben zu erwecken. Wir können Formen und Strukturen erstellen, die exakt unseren Vorstellungen entsprechen. Nachdem wir unser Modell erstellt haben, geben wir ihm mit Texturen Leben und Details. Diese Texturen können Farben, Muster und sogar das Gefühl eines bestimmten Materials simulieren.
Ein wichtiger Aspekt bei der Arbeit mit Blender ist die Optimierung der Modelle für den Echtzeitbetrieb. Anders als bei Offline-Renderings, bei denen die Rechenzeit keine Rolle spielt, müssen virtuelle Sets in Echtzeit dargestellt werden. Das bedeutet: Die Polygon-Anzahl muss im Gleichgewicht zwischen Detailreichtum und Performance stehen. Wir nutzen Techniken wie Level of Detail (LOD), bei denen Objekte in der Entfernung mit weniger Polygonen dargestellt werden, während Elemente im Vordergrund volle Detailtreue behalten.
Schritt 2: Erstellung virtueller Räume in der Unreal Engine
Nachdem wir unsere Modelle und Texturen erstellt haben, übertragen wir diese in die Unreal Engine. Unreal Engine 5 ist eine der leistungsfähigsten Spiel-Engine-Technologien, die derzeit verfügbar sind, und sie ermöglicht uns, erstaunliche virtuelle Räume und Animationen zu erstellen. Wir können Lichteffekte, Wetterbedingungen und vieles mehr hinzufügen, um eine immersive Umgebung zu schaffen. Dank der Nanite-Technologie von Unreal Engine 5 können wir sogar Milliarden von Polygonen in einer Szene darstellen, ohne die Leistung zu beeinträchtigen.
In Kombination mit unserer Modellierung und Texturierung in Blender können wir eine nahezu unbegrenzte Vielfalt an Szenen und Umgebungen schaffen.
Die Unreal Engine bietet darüber hinaus mit Lumen ein revolutionäres globales Beleuchtungssystem, das Lichtreflexionen und -brechungen in Echtzeit berechnet. Für virtuelle Produktionen bedeutet das: Lichtveränderungen in der Szene - etwa wenn ein Scheinwerfer geschwenkt wird oder eine virtuelle Tür geöffnet wird - wirken physikalisch korrekt und natürlich. Das ist ein gewaltiger Qualitätssprung gegenüber älteren Render-Methoden, bei denen Beleuchtungsänderungen vorberechnet werden mussten.
Schritt 3: Kameratracking - Matching von virtuellen und physischen Kameras
Ein entscheidender Bestandteil unseres Prozesses ist das Kameratracking. Durch die Erfassung der Bewegung unserer realen Kamera und die Übertragung dieser Daten auf die virtuelle Kamera in Unreal Engine 5 können wir eine nahtlose Verbindung zwischen unserer realen Welt und der virtuellen Umgebung herstellen.
Dieser Prozess erhöht nicht nur den Realismus unserer Szenen, sondern bietet uns auch die Flexibilität, eine Vielzahl von Kamerabewegungen zu realisieren. Darüber hinaus eröffnet das Kameratracking uns neue kreative Möglichkeiten, die wir sonst nicht hätten.
Schritt 4: Finaler Composite in Aximmetry
Schließlich verwenden wir Aximmetry, um unsere virtuellen Elemente mit den realen Aufnahmen zu kombinieren. Aximmetry ist eine leistungsstarke Software für die Live-Produktion, die uns hilft, eine endgültige Komposition zu erstellen, die sowohl unseren virtuellen als auch unseren realen Elementen gerecht wird.
Schlüsseltechnologien unserer virtuellen Produktionen
Auf zwei Technologien und ihre Vorteile für unsere Kreations- und Produktions-Workflows möchten wir hier noch einmal gesondert eingehen.

Kameratracking: Reale und Virtuelle Kameras Matchen
Kameratracking, auch bekannt als Match Moving, ist ein Prozess, bei dem die Bewegung einer realen Kamera in 3D erfasst und auf unsere virtuelle Kamera in der Unreal Engine übertragen wird. Dies ermöglicht uns, eine kohärente Perspektive zwischen unserer realen Aufnahme und der virtuellen Umgebung zu gewährleisten.
Warum man viel Zeit und Mühe in das Kameratracking investieren sollte? Weil Kameratracking es uns ermöglicht, eine nahtlose Verbindung zwischen der realen Welt und unserer virtuellen Szene zu schaffen. Das eröffnet uns wiederum kreative Freiheit in Sachen Bildkomposition und Kamerafahrten.
Vorteile: Realismus und absolute Flexibilität in der Szenenkomposition
Es erzeugt Realismus. Wenn unsere reale Kamera sich bewegt, bewegt sich auch die virtuelle Kamera, was dazu führt, dass die Perspektive in unserer virtuellen Szene ständig angepasst wird. Dies sorgt dafür, dass die Interaktion zwischen unseren realen Elementen und der virtuellen Umgebung realistisch und überzeugend aussieht.
Außerdem bietet Kamera Tracking uns mehr Flexibilität. Egal ob wir eine einfache Schwenkbewegung oder eine komplexe Kamerafahrt durchführen, das Kameratracking sorgt dafür, dass unsere virtuelle Szene immer korrekt ausgerichtet ist. Dies ermöglicht uns, eine Vielzahl von Aufnahmen und Bewegungen zu realisieren, ohne uns Gedanken darüber machen zu müssen, ob sie mit unserer virtuellen Szene übereinstimmen.
Aximmetry bringt alle Komponenten zusammen
Aximmetry ist bei unseren Produktionen ein entscheidendes Werkzeug in unserem virtuellen Produktionsprozess. Mit Aximmetry können wir unsere in Unreal Engine 5 erstellten Szenen mit realen Videobildern kombinieren. Darüber hinaus bietet es uns die Möglichkeit, real-time Grafiken und Animationen zu erstellen und diese in unsere Live-Videos einzufügen. Dank des integrierten Keyers sind wir in der Lage, Greenscreen-Aufnahmen in Echtzeit zu verarbeiten und das Hintergrundbild durch unsere virtuelle Szene zu ersetzen. Wir können auch Kamerafahrten simulieren und die Perspektive unserer virtuellen Szene entsprechend anpassen, um ein wirklich immersives Erlebnis zu schaffen.
Aximmetry ist mehr als nur eine Software. Sie ist ein mächtiger Verbündeter, der es uns ermöglicht, über die Grenzen der physischen Welt hinauszugehen und beeindruckende virtuelle Szenarien zu schaffen. Aber warum ist Aximmetry so wichtig für unsere Produktionen?
Vorteile: Kosten unter Kontrolle und absolute Flexibilität, sogar während der Produktion
Zum Einen ermöglicht uns Aximmetry, beeindruckende visuelle Effekte zu erzielen, die mit traditionellen Methoden schwierig oder unmöglich zu erreichen wären. Außerdem hilft es, die Kosten für physische Sets und Reisen zu reduzieren. Wir können praktisch jede Umgebung erschaffen, die wir uns vorstellen können, ohne das Studio zu verlassen.
Zum Anderen bietet Aximmetry uns eine enorme Flexibilität. Wir können Änderungen an unserer Szene vornehmen, während wir live sind, und wir können verschiedene Szenarien für verschiedene Teile unserer Produktion verwenden.
Technologievergleich: Welche Tools eignen sich wofür?
Die Landschaft der virtuellen Produktionstechnologien ist vielfältig, und nicht jede Lösung eignet sich für jeden Anwendungsfall. Hier ein Überblick über die wichtigsten Plattformen und ihre jeweiligen Stärken:
Unreal Engine 5 vs. Unity: Beide sind leistungsstarke Echtzeit-Render-Engines, aber für Virtual Production hat sich Unreal Engine als Branchenstandard etabliert. Der Grund: Nanite und Lumen liefern eine Bildqualität, die für professionelle Videoproduktionen ausreicht, ohne dass aufwändige Optimierung nötig ist. Unity hat seine Stärken eher in interaktiven Anwendungen und bei Projekten mit geringeren Hardware-Anforderungen.
Aximmetry vs. Disguise vs. Zero Density: Alle drei sind professionelle Virtual-Production-Plattformen. Aximmetry überzeugt uns durch sein Preis-Leistungs-Verhältnis und die direkte Integration von Unreal Engine. Disguise ist der Platzhirsch bei Großproduktionen und LED-Walls, während Zero Density besonders im Broadcast-Bereich stark vertreten ist. Für unser Greenscreen-basiertes Setup bietet Aximmetry die optimale Balance aus Leistung, Flexibilität und Bedienbarkeit.
Blender vs. Cinema 4D vs. Maya: Für die 3D-Modellierung setzen wir auf Blender - nicht nur wegen der Open-Source-Lizenz, sondern vor allem wegen des nahtlosen FBX-Exports in die Unreal Engine und der aktiven Community, die ständig neue Plugins und Workflows entwickelt. Cinema 4D hat Stärken im Motion Design, Maya in der Character-Animation - aber für architektonische virtuelle Sets bietet Blender das beste Gesamtpaket.
Einsatzbereiche virtueller Produktionen
Die Technologie, die wir nutzen, ist vielseitig einsetzbar. Hier sind die wichtigsten Anwendungsfelder, in denen wir virtuelle Sets erfolgreich einsetzen:
Unternehmensevents und Konferenzen: Für Firmenveranstaltungen bieten virtuelle Sets die Möglichkeit, eine beeindruckende Bühnenumgebung zu schaffen, die zur Markenidentität passt - ohne den logistischen und finanziellen Aufwand einer physischen Kulisse. Besonders bei hybriden Events, bei denen ein Teil des Publikums remote zuschaut, sorgen virtuelle Hintergründe für ein visuell einheitliches und hochwertiges Erlebnis.
Produktlaunches und Brand Events: Ein neues Produkt verdient eine Präsentation, die so innovativ ist wie das Produkt selbst. In virtuellen Sets können wir das Produkt in jeder erdenklichen Umgebung inszenieren - von einem futuristischen Showroom über eine naturnahe Landschaft bis hin zu abstrakten Markenwelten.
Livestreams und Webinare: Für regelmäßige Live-Formate bieten virtuelle Sets den Vorteil, dass sie schnell angepasst und wiederverwendet werden können. Ein einmal erstelltes Set kann mit minimalen Anpassungen für verschiedene Themen und Anlässe genutzt werden.
Filmproduktionen und Werbespots: Auch für vorproduzierte Inhalte bieten virtuelle Sets erhebliche Vorteile. Szenen, die sonst teure Location-Drehs oder aufwändige Kulissenbauten erfordern würden, können im Studio realisiert werden - bei voller Kontrolle über Licht, Wetter und Perspektive.
Die Vorteile virtueller Produktion für unsere Kunden
Warum sollten sich Unternehmen für eine virtuelle Produktion entscheiden? Die Vorteile gehen weit über die reine Kostenersparnis hinaus:
Kreative Grenzenlosigkeit: In virtuellen Sets gibt es keine physischen Einschränkungen. Ob ein Unterwasserszenario, eine Weltraumumgebung oder ein fotorealistischer Nachbau eines historischen Gebäudes - alles ist möglich, ohne das Studio zu verlassen.
Zeitersparnis: Der Aufbau eines physischen Sets kann Tage oder Wochen dauern. Ein virtuelles Set kann in der gleichen Zeit erstellt und bei Bedarf in Minuten angepasst werden. Auch kurzfristige Änderungswünsche des Kunden lassen sich problemlos umsetzen.
Nachhaltigkeit: Virtuelle Produktionen reduzieren den Material- und Energieverbrauch erheblich. Keine physischen Kulissen, die nach dem Dreh entsorgt werden, keine Transportfahrten zu externen Locations, kein Materialverschleiß.
Konsistenz: Ein virtuelles Set sieht bei jeder Nutzung exakt gleich aus. Das ist besonders wichtig bei Serienproduktionen oder wiederkehrenden Formaten, bei denen ein einheitliches visuelles Erscheinungsbild gefragt ist.
Skalierbarkeit: Von einem einfachen Hintergrund für ein Webinar bis zu einer komplexen, animierten Welt für eine Produktshow - der Aufwand lässt sich flexibel an Budget und Anforderungen anpassen.
Die Zukunft der virtuellen Produktion
Die Entwicklung in der virtuellen Produktion schreitet rasant voran. Einige Trends, die wir beobachten und aktiv in unsere Workflows integrieren:
LED-Walls und In-Camera VFX: Während wir aktuell primär mit Greenscreen und Echtzeit-Compositing arbeiten, gewinnen LED-Volumes zunehmend an Bedeutung. Sie bieten den Vorteil, dass Reflexionen und Lichteffekte bereits am Set korrekt auf den Protagonisten wirken. Für bestimmte Produktionen planen wir, diese Technologie in Zukunft ergänzend einzusetzen.
KI-gestützte Content-Erstellung: Künstliche Intelligenz wird zunehmend bei der Erstellung von Texturen, der Generierung von 3D-Objekten und der Automatisierung von Animationen eingesetzt. Das beschleunigt den Kreationsprozess erheblich und ermöglicht es uns, auch bei knappen Timelines hochwertige virtuelle Sets zu liefern.
Interaktive und datengetriebene Sets: Virtuelle Umgebungen, die in Echtzeit auf Daten reagieren - etwa Live-Umfrageergebnisse, Social-Media-Feeds oder Börsenkurse, die direkt ins Set integriert werden. Diese Form der dynamischen Visualisierung wird besonders für Konferenzen und Nachrichtenformate an Bedeutung gewinnen.
Die virtuelle Produktion ist gekommen, um zu bleiben. Sie verändert nicht nur, wie wir Inhalte produzieren, sondern auch, was überhaupt möglich ist. Als Team mit tiefer technischer Expertise und kreativer Leidenschaft sind wir bei Jakobs Medien bereit, diese Entwicklung aktiv mitzugestalten - für unsere Kunden und für die Branche insgesamt.