So wurde mit Cinema 4D eine düstere Vision der Zukunft erstellt Das Team von Sarofsky spricht über den Einsatz von Cinema 4D, Houdini und mehr für den Titel der FITC Toronto 2020.
Die FITC Toronto 2020 wurde wegen der Corona-Pandemie abgesagt, aber die Haupttitel für die Veranstaltung wurden am 19. April während eines Live-Podcasts von mograph.com mit der Produktionsfirma Sarofsky aus Chicago vorgestellt.
Die FITC-Titel tragen den treffenden Namen What You May Find und bieten eine düstere und referenzielle Vision einer Zukunft, in der Technologie und Innovation zur Manipulation und Homogenisierung der Menschheit eingesetzt werden. Erin Sarofsky, die ihre designorientierte Produktionsfirma 2009 gründete, sagt, ihr Team habe sich geehrt gefühlt, als der Gründer von FITC, Shawn Pucknell, sie bat, die Titel zu gestalten. Mit einer Kombination aus Cinema 4D, After Effects, Houdini, X-Particles und Arnold wollten sie „etwas Außergewöhnliches schaffen“.
Hier spricht Sarofsky zusammen mit dem Co-Direktor des Produktionshauses, Duarte Elvas, und dem Lead Artist, Jake Allen, über ihren Prozess zur Erstellung der Titel.
Erin, wie war es, mit FITC zusammenzuarbeiten?
Sarofsky: Shawn und das FITC-Team waren wunderbar. Das Jahr war ein Meilenstein für die Veranstaltung, und wir wollten wirklich sicherstellen, dass unsere Arbeit den Erwartungen entspricht. Wir fanden es toll, dass sie unsere kreative Freiheit respektiert haben. Und sie haben sich sehr engagiert in den Prozess eingebracht, indem sie Einblicke in das Publikum gaben, die anfängliche Brainstorming-Sitzung leiteten und regelmäßige Kontrolltermine und einen formalen Zeitplan aufstellten, was sehr hilfreich war, um uns auf Kurs zu halten.
Beschreib uns die Aufgabenstellung und wie du sie angegangen bist.
Sarofsky: Shawn wollte, dass sich die Titel um die Zukunft drehen, und wir wollten ein Konzept, das mit den Kernattributen des FITC übereinstimmt – Zukunft, Innovation, Technologie und Kreativität. Wir begannen den Prozess mit einem Brainstorming darüber, wie wir uns das Jahr 2020 vorstellten, als wir noch Kinder waren. Für mich waren es The Jetsons: fliegende Autos, Haushaltsroboter und Jetpacks. Natürlich erwähnte auch jemand Hoverboards. Schließlich sprachen wir über die „alte“ Zukunft, was ein echter Wendepunkt in der Unterhaltung war, weil wir alle erkannten, dass Technologie uns zwar erfreuen kann, dass Innovation und Technologie aber auch dazu benutzt werden können, uns zu manipulieren und zu homogenisieren.
In diesem Moment wurde uns klar, dass wir ein Stück machen wollten, das im Futurismus verwurzelt ist und das davor warnt oder darüber spekuliert, dass die Technologie dazu benutzt werden könnte, die Menschheit in eine totalitäre Struktur zu manipulieren. Das ist nicht nur ein nationales Problem, es ist ein globales Problem. Und die Menschen müssen anfangen, die Schönheit in unseren natürlichen Unterschieden zu sehen, denn totale Homogenisierung ist viel beängstigender als Individualität.
Warum habt ihr euch für den Titel „In the Year 2525“ aus dem Jahr 1969 entschieden?
Sarofsky: Jemand erinnerte sich an den Song, der von Zager und Evans stammt. Uns gefiel der alte, volkstümliche Sound, der düstere, seltsame Text und die Art und Weise, wie sie die Dinge beschreiben, die für Interpretationen offen sind.
Duarte Elvas: Als wir die dystopischen Texte hörten, kamen uns sofort Bilder in den Kopf. Wir waren auch sehr angetan von der Art und Weise, wie sich viele der Verse auf Ereignisse beziehen, sowie von den wissenschaftlichen und technologischen Fortschritten, die wir heute erleben. Das schien uns eine großartige Grundlage zu sein, um eine visuell reichhaltige und fesselnde Geschichte zu erzählen, die aufzeigt, wohin wir uns bewegen könnten. So sind wir auf What You May Find gekommen.
Erzählt uns etwas über eure Inspiration und das Konzept für diesen Film.
Sarofsky: Wir haben uns auf die Filme Metropolis, 1984 und Citizen Kane sowie auf eine Reihe von Art-Déco-Illustrationen und Architektur bezogen.
Elvas: Wie bei all unseren Projekten haben wir hart an den Feinheiten des Konzepts gearbeitet, das zwar vom Text des Songs geprägt ist, aber auch Szenarien beinhaltet, die unsere Vision der Zukunft illustrieren. Wir haben das Skript/die Texte in Strophen unterteilt und uns für jede Strophe ein Szenario ausgedacht, das auf den Bildern basiert, die wir uns vorgestellt haben. Dann erstellten wir ein Storyboard für jedes dieser Szenarien, um eine grobe Vorstellung vom Inhalt und der Komposition der einzelnen Aufnahmen zu bekommen. Nachdem wir die Skizzen auf den Song zugeschnitten hatten, verfügten wir über ein Animatic, das eine gute Grundlage für die Artists war, um mit der Erstellung von Assets in 3D zu beginnen.
Was war für euch die größte Herausforderung bei diesem Projekt?
Sarofsky: Unsere größte Herausforderung bestand darin, einen konsistenten Look zu entwickeln, der sowohl fotorealistisch als auch stark stilisiert, fast illustriert, wirkt. Der Schlüssel lag darin, starke Designelemente wie Lichtstrahlen in verschiedenen Szenen einzubauen. Ein Teil der Beleuchtung ist also natürlich, ein anderer Teil wurde auf der Grundlage der allgemeinen Designästhetik stark manipuliert. Generell haben wir darauf geachtet, dass alle Kompositionen sehr designorientiert sind, sich aber dennoch auf die Erzählung der Geschichte konzentrieren. Wir haben auch eine sehr begrenzte Farbpalette verwendet, hauptsächlich Schwarz und Weiß, aber gelegentlich haben wir auch Metalltöne wie Kupfer, Gold und Rotguss eingesetzt.
Beschreib uns einige der technischen Aspekte des Projekts.
Jake Allen: Wir haben zunächst unsere Skizzen verwendet, um unsere Assets in Cinema 4D zu modellieren. Einige der Assets in unseren Aufnahmen mussten nicht animiert werden, also nutzten wir die Vorteile des Volume Builder-Toolsets von Cinema 4D, um die Formen subtraktiv zu modellieren und gleichzeitig alles prozedural zu halten, wenn Änderungen vorgenommen werden mussten. Diese Strategie war von unschätzbarem Wert bei der Erstellung von Dingen wie den Gesichtern der Charaktere, ihren Rüstungen und dem Logo der Weltregierung. Wenn wir eine bessere Topologie benötigten, haben wir das Quad Remesher Plugin für Cinema 4D verwendet.
Sarofsky: Bei der Blume am Ende der Sequenz geht es darum, Hoffnung und die Wiedergeburt des Planeten auszudrücken. Also haben wir sie so gestaltet, dass sie außerirdisch aussieht. Um das zu erreichen, haben wir darüber diskutiert, wie schön es wäre, wenn die Blume statt Blütenblättern federartige Ranken entfalten würde. Jake nahm diese Herausforderung direkt in Cinema 4D an.
Allen: Wir waren mit dem Haarsystem von Cinema 4D vertraut, also beschlossen wir, mit Federeffekten zu experimentieren. Für das grundlegende Setup haben wir ein Rohr mit Haaren auf beiden Seiten erstellt, das wir mit den Brush Cutting Tools zu einer Feder geformt haben. Wir verwendeten verschiedene Verläufe und Verlaufsumsetzungen, um sowohl die Farbe als auch die Länge der Federn zu steuern. Durch die Animation dieser Farbverläufe konnten wir die Feder mit der Zeit wachsen lassen. Wir haben das im Cache gespeichert, und die Simulations-Engine hat die Dynamik für uns übernommen.
Wir haben die Haare aktiviert und die Länge mit einem Farbverlauf gesteuert. Als wir alles miteinander kombinierten und die Dynamik ein- und die Schwerkraft ausschalteten, erhielten wir zusammen mit ein wenig Turbulenz etwas, das wirklich interessant aussah und ein Unterwassergefühl vermittelte. Nach dem Zwischenspeichern wendete das Cinema 4D-Haarmaterial Knicke, Locken und Noise an und verwandelte es in etwas, das wir sehr cool fanden. Danach haben wir herausgefunden, wie wir jedes Stiel- und Federsystem duplizieren können, und dann haben wir jedes einzelne zwischengespeichert. Bei der Animation sah die Bewegung der Federn organisch und natürlich aus.
Erzählt uns von den Tools, die ihr für das Shading und die Beleuchtung verwendet habt.
Allen: Shading und Beleuchtung wurden in Arnold für Cinema 4D erstellt und wir haben uns stark auf Lichtverknüpfungen verlassen, um Licht-Setups pro Objekt oder pro Figur zu haben, die geklont und dupliziert werden konnten. Wenn es möglich war, nutzten wir Farbverläufe und Noises in Texturen, um Lichter direkt zu erzeugen, anstatt physische Lichter zu verwenden. So konnten wir die Renderings leichter halten, aber auch dafür sorgen, dass speziell platzierte Lichter nicht verschwinden, wenn sich die Kamera bewegt. Alles wurde in After Effects zusammengesetzt, wo wir Farbkorrekturen und zusätzliche Elemente zu den Szenen hinzufügten, z.B. Volumenlicht, Partikel und Glühen. Wir haben die Aufnahmen in separate Renderings aufgeteilt und XRefs verwendet, um zu verhindern, dass die Szenen zu schwer werden, und um flexibel zu bleiben, falls sich im Laufe der Zeit Änderungen ergeben.
Welche Herausforderungen stellten die dynamischen Elemente dar?
Die größten Herausforderungen waren Partikel, Staub und Rauch. In vielen Szenen konnten wir X-Particles einsetzen, z.B. in der Szene, in der man eine sich auflösende Hand sieht. Und wir haben gebackene Ambient Occlusion-Texturen verwendet, um Partikel in den Ritzen des Gehirns zu erzeugen. Die Netzwerke der Venen im Gehirn und die Szene mit dem Baby waren ebenfalls eine Herausforderung. Eine partikelbasierte Lösung hätte funktioniert, aber wir mussten kontrollieren, wo die Punkte beginnen und enden würden, also verwendeten wir ein Setup in Houdini, das Venennetzwerke erzeugte, ohne eine Simulation durchführen zu müssen. Die Modelle wurden als Alembic-Dateien importiert, und der Find Shortest Path-Knoten generierte Kurven, die wir als Alembics zurück in Cinema 4D exportieren konnten.
Welche Botschaft wolltet ihr den Menschen mit auf den Weg geben?
Sarofsky: Es ist zwar ein ziemlich düsteres Stück, aber wir sehen es letztlich als Ausdruck der Hoffnung. Ich liebe es, wenn die farbige Blume am Ende durchbricht. Sie zeigt, dass es trotz der düsteren visuellen Erkundung einer dystopischen Zukunft immer noch Hoffnung gibt, dass die Natur und die Individualität fortbestehen werden.
Elvas: Ich finde es wirklich toll, dass dieses Stück zum Nachdenken anregt und das Bewusstsein dafür schärfen kann, was in der heutigen Welt richtig und falsch ist. Die eher kontroversen Aspekte des Stücks haben das Potenzial, die Sichtweise der Menschen auf die Welt zu verändern und hoffentlich ihre Entscheidungen und ihr Verhalten zu beeinflussen. In die Zukunft zu blicken und zu sehen, wie beängstigend die Welt werden kann, aber mit einer positiven und hoffnungsvollen Note zu enden, war mein Lieblingsteil dieses ganzen Prozesses.
Credits
Special Thanks to the FITC team led by Shawn Pucknell
Design/Production Company: Sarofsky
Director: Erin Sarofsky
Co-Director: Duarte Elvas
Executive Producer: Steven Anderson
Producer: Kelsey Hynes
Lead Artists: Josh Smiertka, Jake Allen, Tanner Wickware, Matt Miltonberger
Additional Design and Animation: Ally Munro, Griffin Thompson, Andrew Hyden, Dan Moore, Tobi Mattner, Nik Braatz
Additional Contributors: Jamie Gray, Andrew Rosenstein, Mark Galazka, Kenny Albanese
Music Supervision: Groove Guild
Final Mix and Sound Design: Groove Guild
Music Track: "In the Year 2525"
Composer: Richard Evans
Performed by: Jon Notar featuring Jean Rohe
Master Recording: Groove Guild
Publisher: Zerlad Music Enterprises, Ltd. (BMI)
Worldwide Rights Administrator: Grow Your Own Music (BMI), a division of "A" Side Music, LLC d/b/a Modern Works Music Publishing