von Text: Paul Tingen; Übersetzung: Dr. Andreas Hau,
Anzeige
Man muss sich nur die Nachrichten anschauen, um zu verstehen, warum dystopische Science-Fiction-Filme derzeit so populär sind. Ein Beleg für diesen Trend ist der Erfolg von Die Bestimmung − Divergent.
Diese Verfilmung eines Romans von Veronica Roth war einer der großen Blockbuster des Jahres 2014; die Fortsetzung folgte in diesem Frühjahr. Verantwortlich für den Soundtrack war Tom Holkenborg aka Junkie XL — der auch noch den Score für einen weiteren, ähnlich düsteren Blockbuster des Jahres 2014 schrieb, 300: Rise Of An Empire.
Anzeige
Bekannt wurde der Holländer Tom Holkenborg als Musiker und Produzent im Bereich EDM. Sechs Soloalben hat er unter seinem Pseudonym „Junkie XL“ veröffentlicht; 2002 landete er sogar einen weltweiten Hit mit seinem Remix eines − bis dato kaum bekannten − Elvis-Songs von 1968: A Little Less Conversation. Seit seinem bislang letzten Soloalbum Synthesized (2012) hat sich Holkenborg offenbar in den Kopf gesetzt, Hollywoods düsterste Blockbuster zu vertonen: 2013 schrieb er die Musik für den Thriller Paranoia und war außerdem an Man Of Steel maßgeblich beteiligt. Zuletzt schrieb er den Score für den vierten Mad-Max-Film, Fury Road, der im Mai dieses Jahres erschien.
Zu Hause in Los Angeles erklärt Holkenborg, es sei kein Zufall, dass er nun große Hollywood-Produktionen vertone, sondern das Ergebnis einer Strategie, die er verfolgte, seit er 2002 nach Los Angeles zog: „In meiner gesamten Karriere wollte ich immer viele Dinge gleichzeitig tun, und so habe ich Soloalben und Singles veröffentlicht, mit anderen Künstlern zusammen gearbeitet, Songs geschrieben, produziert und Remixes gemacht, Musik für Werbung und Videospiele geschrieben und vieles mehr. Nach Los Angeles gezogen bin ich, um die Kunst und das Handwerk des Film-Scorings von Grund auf zu erlernen. Das hat damit zu tun, dass ich 1995 sehr beeindruckt davon war, wie jemand einen meiner Tracks in einem Film verwendete. Um mehr über Filmmusik zu lernen, habe ich nach meinem Umzug nach L.A. Gelegenheitsjobs angenommen, die alles andere als glamourös waren, etwa Samples schneiden als Assistent von Harry Gregson-Williams, während ich gleichzeitig einen weltweiten Hit mit meinem Elvis-Remix hatte. Das war eine bizarre Situation!
In dieser Episode sprechen wir mit den beiden Komponisten und Arrangeuren Malte und Niklas Melcher über das Erzeugen und Transportieren von Emotionen in der Filmmusik.
Dir gefällt das Video? Dann folge uns auf Facebook und YouTube!
Diesen Beitrag gibt es auch als Podcast, den du hier abonnieren kannst:
Nach und nach arbeitete ich mich immer tiefer ins Film-Scoring ein, beispielsweise war ich an der Matrix-Trilogie beteiligt, ebenso wie am Videospiel The Matrix: Path of Neo. Gelegentlich habe ich auch mit Hans Zimmer gearbeitet, und als ich 2009 anfing, enger mit ihm zusammenzuarbeiten, bot er mir an, mir einen Raum in seinen Remote Control Studios zu vermieten. Während der letzten zwei Jahre hat das Filmgeschäft mich völlig in Beschlag genommen. Die Wahl, mich darauf zu konzentrieren, habe ich getroffen, weil ich 46 bin und du als Filmkomponist arbeiten kannst, bis du 96 bist. Auf Tour zu gehen und auf der Bühne rumzuhüpfen, kann ich mir dagegen mit 96 nicht mehr so recht vorstellen. Von daher war es eine logische Entscheidung. Meine Jahre in der elektronischen Musikszene habe ich wirklich genossen, aber für mich ist es eine viel größere und interessantere Herausforderung, mit einem Regisseur an einem Film zu arbeiten als zu versuchen, dem Zeitgeschmack der EDM-Welt hinterherzulaufen.
Ich bin ein Sound-Freak, ein Software-Freak und ein Plugin-Freak, und diesen Neigungen kann ich beim Film-Scoring freien Lauf lassen. Manches, was ich mache, ist zu düster, zu bedrohlich und zu angsteinflößend für eine Musik-CD, passt aber perfekt als Filmmusik, und das gibt mir eine tiefe Befriedigung.“ Man könnte meinen, dass Holkenborg scherzhaft übertreibt, wenn er sich als „Freak“ bezeichnet, aber wie im Verlauf dieses Artikels klar werden wird, ist es eine völlig akkurate Selbsteinschätzung. Seinen Spitz namen „Junkie“ erhielt er vor fast 20 Jahren, eben weil seine Musik- und Technik-Besessenheit schon damals suchtähnliche Züge aufwies. Der Zusatz „XL“ steht für „expanding limits“. Während er die Suchtkomponente im Griff hat (inzwischen ist er ein glücklicher Familienmensch), ist seine Besessenheit geblieben.
2.800 Cubase-Spuren und ein Halleluja
Holkenborg arbeitet heute mit einem unfassbaren Gerätepark in vier Studios: eines bei sich zu Hause und drei bei Remote Control − jeweils mit identischen Setups und Racks voller speziell angefertigter Quad-Core-PCs, die auf 3,5 GHz übertaktet und mit maximalem Speicherausbau sowie ultraschnellen Festplatten ausgestattet sind. Diese „überdrehten Arbeitstiere“, wie Holkenborg seine Hi-Tech-PCs nennt, laufen so heiß, dass sie in separate Räume mit Klimaanlage ausgelagert werden mussten. Sie laufen mit Cubase und Pro Tools und verfügen über „… jeden Softsynth, jedes Mix-Plugin und jede Orchester-Library, die der Menschheit bekannt ist“, u. a. Vienna Ensemble Pro, Symbolic Sound Kyma, Native Instruments Kontakt und das SAM Sampling-System, das Mark Wherry für Hans Zimmer programmiert hat.
Um eine Größenordnung von Holkenborgs Setup zu bekommen: Sein Cubase-Template zählt 2.800 Spuren. In Worten: zweitausendachthundert! Junkie XL − den Namen hat sich Holkenborg redlich verdient − erläutert: „Der Grund dafür, dass mein Template so viele Tracks hat, ist, dass ich immer alles bereits geladen haben möchte. Dadurch kann ich, wann immer ich möchte, sofort zu einem anderen Sound oder einer anderen Artikulation wechseln. Beispielsweise habe ich über die letzten 15 Jahre eine sehr umfangreiche Drum-Library aufgenommen, von der ich über 300 Instrumente regelmäßig einsetze. Gerade erst hatte ich eine weitere große Sampling-Session für den Mad-Max-Film, für die ich weitere 200 Instrumente gesampelt habe. Das macht dann also 500 Spuren, die mitsamt ihren Track Settings, Outputs, Plugins usw. vorgeladen werden.
Dazu kommen meine ganzen Streicherund Bläser-Libraries mit jeder Menge Artikulationen, was bedeutet, dass mein Template 300 Spuren nur für die Streicher und 100 nur für die Bläser vorlädt. Jedem Library-Track sind 8, 9 oder 10 MIDI-Controller zugeordnet, für die verschiedenen Mikrofonpositionen, Anschlagstärken, Key-Mappings usw. Tatsächlich umfassen alleine die VST-Returns meiner Vienna Symphonic Library 900 Kanäle, mitsamt Aux-Sends, Kompressoren, Transient Designers und Distortion-Plugins! Und es wird immer mehr. Aber egal − wenn du Filmmusik schreibst, musst du extrem flexibel und schnell sein. Ich habe keine Zeit, etwas zu laden, wenn ich arbeite oder während der Regisseur daneben steht und ich ihm mal eben eine Idee präsentieren will. Natürlich brauchst du keine 2.800 Spuren, um großartige Musik zu machen.
Alles, was du heute brauchst, ist ein Laptop mit einer DAW und ein paar Plugins, und schon kann’s losgehen. Als ich meine Junkie-XL-Alben aufnahm, habe ich nie mit Templates gearbeitet. Ich habe jede Session bei Null begonnen, weil es das ist, was einen Künstler ausmacht: Du widmest dich jedem Aspekt mit deiner Kreativität und triffst dabei nach und nach deine Entscheidungen. Beim Film-Scoring musst du dein Template aufbauen, bevor du überhaupt mit dem Schreiben beginnst.“
Sound, Design, Templates
„Manchmal arbeite ich drei bis vier Wochen an den Sounds, die ich für einen Film verwenden möchte. Das Coole daran ist, dass dadurch ein konsistentes Klangbild für den ganzen Film entsteht. Erst wenn ich mit dem Sounddesign fertig bin und das Template entsprechend eingerichtet habe, fange ich an, die Musik zu schreiben. Tatsächlich verwende ich am Ende meist nur etwa 300 Spuren, aber wie gesagt: Diese riesigen Templates mit unzähligen Tracks sind erforderlich, um die nötige Flexibilität zu haben, denn zu jedem Zeitpunkt, selbst am letzten Tag des Mixes, kann der Regisseur oder das Studio Änderungen fordern, auch von ganz kleinen Details.“
Angesichts der enormen Komplexität seines DAW-Setups versucht Holkenborg, alles andere so transparent wie möglich zu gestalten. So benutzt er zwar ein State-of-the-Art-Computer-Arsenal, darauf laufen aber ältere Versionen von Windows, Cubase und Pro Tools. Als Haupt-Keyboard dient ihm ein Doepfer LMK4, während der Rest der Arbeitsfläche von einem JC Cooper Fader Master, zwei Cubase-Controllern, einem iPad und zwei Genelec-Monitorboxen eingenommen wird.
Die Nahfeldmonitore verwendet er nur für den Stereomix; als Hauptabhöre dienen ihm Dynaudio Air-25-Speaker. Sein Sounddesign beruhe hauptsächlich auf „akustischen Aufnahmen oder organischen Sounds von analogen Synths“, beteuert Holkenborg, weshalb sein Studio von mehr als 30 Gitarren und verschiedenen Hardware-Synths bevölkert ist. Ins Auge springen vor allem die Analog Systems 3500- und 8500-Synths mit einem French-Connection-Keyboard sowie ein Klavier, an dem Holkenborg ein paar Veränderungen vorgenommen hat …
Piano from Hell
… mit der Axt! Er nennt es sein „Piano from Hell“. „Ich habe das Klavier gekauft, als ich am Score für 300 arbeitete. Mit einer Axt habe ich die äußeren Teile entfernt, bis nur noch das metallene Innenleben, die Harfe, übrig war, die ich dann in eine neue Verkleidung steckte. Deshalb hat das Klavier praktisch keine Akustik mehr. Wie bei einer elektrischen Gitarre gibt es kaum Geräusche, wenn du die Saiten spielst. Ich verwende Tonabnehmer, u. a. solche für E-Gitarren, die ich an verschiedenen Stellen an den Saiten montiere. Deren Signal läuft durch ART Röhrenvorverstärker, manchmal auch durch andere Amps, und das Resultat nehme ich dann in Cubase auf. Ich spiele das Klavier mit Schlägeln oder Schlagzeug-Sticks bzw. -Besen.
Es ist ein Instrument mit einem sehr eigentümlichen Klang, das ich auch für den Divergent-Score eingesetzt habe. Die Analog-Systems-Synths leiden unter all den Nachteilen von Analogtechnik, wie Oszillatoren, die sich verstimmen und Hüllkurven, die nicht ganz das machen, was sie sollen; aber all das trägt zu dieser speziellen Magie bei. Fantastisch! Eines der Module, die ich verwende, ist eine direkte Kopie des ersten Fairlight-Samplers, und ein anderes Modul wandelt MIDI in CV und umgekehrt, damit ich den Synth mit Cubase und anderen Keyboards verbinden kann.“
Sequenzer Galore
Bekanntermaßen arbeitet Hans Zimmer bevorzugt mit Cubase auf der PC-Plattform, sodass Holkenborgs Setup sich nahtlos in die Remote Control Studios einfügt. Dies sei jedoch nicht der Grund, warum er mit Cubase arbeitet, beteuert Holkenborg. „Ich habe alles, was es an DAWs gibt: Logic, Fruity Loops, Ableton Live. Aber weil ich so ein Software-Freak bin, frage ich mich regelmäßig: ›Arbeite ich wirklich mit der Software, die mir all das gibt, was ich jetzt gerade brauche?‹ Angefangen habe ich mit Steinberg Pro 24; das war 1984. In den späten 80ern habe ich dann mit Notator und Cubase verglichen und mich für Letzteres entschieden. Als drei Jahre später Logic raus kam, habe ich erneut gewechselt. 1997 oder 98 wechselte ich dann zu Pro Tools und zu Audio-Editing statt MIDI-Sequencing.
Da ich einen Sampling-Background habe, fand ich es viel interessanter, das Timing von Audioclips zu manipulieren als MIDI-Noten zu verschieben. Als ich dann nach LA zog, wollte ich wieder einen Sequenzer, weil ich mit Orchester-Samples arbeitete; also bin ich wieder zu Logic zurückgegangen, weil MIDI in Pro Tools nicht gut funktionierte. Ich habe regelmäßig Logic mit Cubase und Ableton verglichen, und als dann Cubase 6 rauskam, habe ich gewechselt. Das ist kein Spaß für meine Assistenten, weil die sich jedes Mal einarbeiten müssen, aber für mich ist es ein Segen, mitverfolgt zu haben, wie Cubase und Notator angefangen haben. Noch heute sehe ich Sachen in Logic, die aus den Notator-Zeiten stammen, und ich erkenne die Ursprünge von Cubase und Pro Tools.
Cubase-Junkie
Der Hauptgrund für mich, mit Cubase zu arbeiten, ist die Art und Weise, wie es mit MIDI umgeht. Das ist einfach phänomenal! Wenn du beispielsweise mehrere Streicher-Parts schreibst, ist es klasse, dass du alle Parts gleichzeitig sehen kannst und dabei Informationen in den Hintergrund schieben oder hervorholen kannst. Außerdem kannst du Controller-Daten mit bestimmten MIDI-Noten verknüpfen, sodass sie mitkopiert werden. Und du kannst die Controller-Daten in der Expression-Map einschließen; wenn du die Parts dann in Sibelius reinziehst, werden die Artikulationen automatisch mitgedruckt − das ist einfach super. Zudem arbeitet die Mix-Engine mit 32 Bit Fließkomma. D. h., wenn es anfängt zu verzerren, während du deine Tracks aufbaust, brauchst du nur den Master-Fader runterziehen; die ganze Kette wird neu berechnet und die Verzerrungen verschwinden. Das ist bemerkenswert!
Außerdem kann Cubase in Verbindung mit Kontakt auf der PC-Plattform locker mein 2.800-Track-Template bewältigen. Sampling ist meine Haupt-Klangquelle, wenn ich Musik mache, und die Möglichkeit, mehrere Sampler gleichzeitig laufen zu haben, war schon immer sehr wichtig für mein Setup. Aus welchen Gründen auch immer zieht Kontakt als Audio-Unit auf dem Mac viel mehr Prozessorleistung als auf dem PC. Wenn ich mit Cubase auf dem Mac arbeite und 40 oder 50 Kontakt-Samples öffne, ist die CPU am Limit, während ich auf dem PC 200 Samples öffnen kann und erst bei 20 % CPU-Auslastung bin. Plugins im VST-Format arbeiten viel effizienter auf dem PC als auf dem Mac. Außerdem: Logic hat mit Version X komplett den Faden verloren. Ich weiß nicht, was die sich gedacht haben. Logic 6 bis 9 waren sehr attraktiv im Vergleich zu den damaligen Cubase-Versionen, aber seit Logic mehr in die Apple-Sphäre gewandert ist, hat es an Innovationskraft verloren.“
So überzeugt Holkenborg von Cubase ist, könnte man denken, er verwende Pro Tools als Zweit-DAW, nur weil es der Industriestandard ist. Doch Holkenborg schüttelt den Kopf und erklärt: „Cubase und Pro Tools laufen bei mir simultan, synchronisiert über MIDI-Time-Code und eine MADI FX-Karte. So kann ich bis zu 192 Kanäle von Cubase an Pro Tools schicken. Etwa 80 % des Mixings und Processings erledige ich in Cubase, und dann liefere ich bis zu 60 − 70 Stems an Pro Tools, wo ich die Sachen dann noch ein bisschen weiter verfeinere. Manches lässt sich schneller in Pro Tools erledigen.
Angenommen, ich habe 25 Streicherspuren und möchte sie alle um 2 dB absenken. In Cubase müsste ich für jeden Part via MIDI die Expression- und Volume-Daten anpassen, während ich in Pro Tools einfach nur den Gruppen-Fader runterziehe. Außerdem, wenn ich einen Cue fürs Mixing liefere, kann ich in Pro Tools einfach auf Print klicken, und alles wird gleichzeitig ausgespielt, und zwar mit Time-Stamp, sodass alles sofort an der richtigen Stelle sitzt und bildsynchron läuft, wenn der Editor die Tracks importiert. Allerdings kann auch Cubase all diese Tracks gleichzeitig und mit eingebettetem SMTE-Code exportieren. Dass ich Pro Tools zusätzlich zu Cubase verwende, liegt nicht daran, dass Pro Tools der Industriestandard ist und sich fantastisch fürs Mixing eignet − obwohl das stimmt. Der eigentliche Grund ist der Sound.
In Cubase zu mischen, ist völlig okay, aber ich bevorzuge das Summing in Pro Tools. Wenn du Material mit starken Transienten ein wenig in den roten Bereich fährst, bekommst du in Pro Tools eine leichte Verzerrung und einen zusätzlichen Punch, den ich sehr mag. Das Summing in Pro Tools hat eine gewisse Magie, die ich aus anderen DAWs nicht herausholen kann. Warum ich ältere Software-Versionen benutze? Ich habe ein sehr großes Setup, und wenn das stabil läuft, lässt du es so lange wie möglich so laufen. Das Letzte, was du inmitten eines Projektes machen solltest, ist die Software zu aktualisieren, um dann festzustellen, dass einige Plugins nicht mehr funktionieren. Deshalb bin ich immer noch bei Cubase 6 und einer frühen Version von Pro Tools 10. Außerdem verwenden wir immer noch eine frühe Version von Windows 7, was nur funktioniert, weil keiner der Computer online geht.
Rechner und Sicherheit
Die Rechner in allen vier Studios laufen 24 Stunden am Tag, sieben Tage die Woche, ohne jeden Crash. Vor 14 Monaten, nach Man of Steel, habe ich mein Setup zuletzt verändert, und in keinem der vier Räume gab es seitdem einen Absturz. Wir machen lediglich ab und an einen Neustart, bloß um den Speicher zu leeren. Früher war ich ein Trendsetter, was neue Technologie angeht, ein ›early adaptor‹. Ich habe neue Software gekauft, sobald sie rauskam, und mich entsprechend häufig mit den anfänglichen Bugs dieser Programme herumgeschlagen. Es war wirklich nett, nun mal drei Jahre lang nicht jeder neuen Entwicklung hinterhergerannt zu sein.
Im Remote Control verwenden wir gelbe Kabel für die Vienna-Ensemble-Verbindungen und blaue fürs Netzwerk. Zusätzlich läuft ein einziges massives Kabel für Online-Verbindungen durchs Studio. Das verbinden wir nur für System-Updates und um Plugins herunterzuladen − dafür werden die Festplatten mit sensiblen Daten, d. h. Musik und Video, entfernt und in den Safe eingeschlossen. Um Daten von meinem Studio zu Hause in die Remote Control Studios zu bringen, verwende ich externe Festplatten mit Fingerabdruck-Sicherung. Nur zwei Leute haben Zugang zu diesen Festplatten, gewöhnlich ich und einer meiner Assistenten.
Selbst wenn eine Festplatte verloren geht, können Fremde sie also nicht auslesen. Sie liest deinen Fingerabdruck, und dann musst du noch an drei Stellen ein ziemlich kompliziertes WPA2-Passwort eingeben, und nur dann bekommst du Zugang zu den Daten. Versucht jemand, die Sicherheitsvorkehrungen zu umgehen, werden die Daten zerstört.“
Workflow
„Die meiste Arbeit erledige ich zu Hause, aber manchmal arbeite ich auch im Remote Control wegen der exzellenten Akustik dort. Und weil Hans [Zimmer] praktisch nebenan sitzt; wenn wir gemeinsam an einem Projekt arbeiten, macht es natürlich Sinn, nahe beieinander zu sein. Darüber hinaus sind die drei Räume im Remote Control extrem wichtig, weil meine Assistenten sich dort mit den ständigen Änderungen beim Filmschnitt befassen. Die Cues, die ich schreibe, bleiben nicht über das gesamte Filmprojekt unverändert, denn der Film wird ständig umgeschnitten; Szenen werden entfernt oder verlängert, möglicherweise wird plötzlich ein Flashback eingefügt usw.
Ganz zum Schluss ist das Studio möglicherweise mit dem Filmende nicht zufrieden, und es gibt weitere Veränderungen, für die vielleicht die Story umgeschrieben und neue Szenen gedreht werden müssen. All diese Dinge haben natürlich Auswirkungen auf die Filmmusik, und ich würde sagen, dass der größte Teil der Scoring-Arbeit in die Anpassung an Veränderungen am Film fließt. Wenn ich also einen Cue geschrieben habe und plötzlich vier Sekunden gekürzt werden, lädt einer meiner Assistenten den Cue, schneidet ihn und achtet darauf, dass es musikalisch immer noch Sinn ergibt.
Vielleicht gehe ich später auch noch mal drüber und mache Vorschläge, aber die Arbeit meiner Assistenten ist extrem wichtig. Einen Film-Score ganz alleine zu produzieren wäre unmöglich; die Arbeitsbelastung wäre einfach zu hoch.“ Doch selbst Holkenborgs hoch professioneller, fast schon industrieller Produktionsansatz stieß beim Score für Divergent an seine Grenzen. Tatsächlich musste er zeitweise gleichzeitig auch noch am Score für 300 arbeiten − die daraus resultierende Arbeitsbelastung mag man sich gar nicht vorstellen. Eine der Konsequenzen war, dass Holkenborg, der normalerweise seine Musiken selbst mischt, einen von Hollywoods renommiertesten Scoring-Mixers engagierte, um ihm bei Divergent zu helfen. Die Rede ist von Alan Meyerson, der seit 1994 mit Hans Zimmer arbeitet und ebenfalls ein Studio im Remote Control hat.
Meyerson und Zimmer haben an 200 Filmen zusammengearbeitet; zur imposanten Liste seiner Credits gehören u. a. Man of Steel, Iron Man, die „Pirates of the Caribbean“-Serie, Sherlock Holmes: A Game of Shadows, Inception, The Dark Knight, Kung-Fu Panda 1 & 2, Despicable Me 1 & 2, The Last Samurai, Gladiator und Hannibal. Meyersons erste Zusammenarbeit mit Holkenborg war Man of Steel.
Dreamteam der krassen Sounds
Das Team aus Hollywoods neuem Scoring-Wunderkind und dem erfahrenen Studio-Wizzard sollte sich als extrem effektiv erweisen, zumal beide es gerne mal krachen lassen, was den Sound angeht. „So aggressiv hat noch keine Filmmusik geklungen, an der ich gearbeitet habe“, beteuert Meyerson. Holkenborg: „Jeder Film hat einen anderen Sound und einen anderen Ansatz. Wie immer habe ich damit begonnen, mir zu überlegen, wie ich Divergent angehen sollte, nicht unbedingt musikalisch, sondern konzeptionell. Als wir anfingen, gab es noch keinen Director’s Cut, also habe ich das Drehbuch ein paar mal durchgelesen und mich lange mit dem Regisseur [Neil Burger] sowie den Produzenten unterhalten, um daraus Ideen für die Filmmusik zu entwickeln. Divergent ist aus der Ich-Perspektive erzählt, d. h., wir sehen alles aus Sicht der Hauptfigur [Beatrice Prior, gespielt von Shailene Woodley], und die Filmmusik musste das reflektieren.“
Sound-Scaping mit Kyma
Hat sich Holkenborg erst auf ein generelles Konzept festgelegt, ist sein nächster Schritt das Sound-Scaping. Dazu verwendet er Kyma, „…im Grunde eine extrem komplizierte Version von Reaktor“, so Hokenborg. „Damit kannst du ganz verrückte Sachen machen. Du kannst in Echtzeit zwischen Sounds morphen, FFT-Envelopes berechnen und sehr komplizierte Vocoder-Funktionen anwenden usw. Ein sehr mächtiges Werkzeug für Sounddesign. Diese Sounds wandle ich dann mittels sehr komplexer Skripte in spielbare Kontakt-Instrumente, die ich verwenden kann, um die Musik zu schreiben. Ich habe Leute, die sich sehr gut mit Scripting für Kontakt auskennen; unsere Sound-Libraries sind mindestens so gut programmiert wie kommerzielle Libraries.
Das ist mit ein Grund, warum wir diese riesigen PCs mit so viel Rechenleistung benötigen. Das Coole am Sounddesign für Filme ist, dass ich dabei mit den Jungs von den Sound-Effects zusammenarbeite, wo es immer mehr Überschneidungen mit der Welt der Musik gibt. Beispielsweise gibt es in Divergent eine Menge Szenen mit Zügen, bei denen sie die Fahrgeräusche mit meinen Rhythmen synchronisiert haben − das hat bestens funktioniert.“
Vom Sounddesign zur Musik
„Sobald ich mit dem Sounddesign fertig bin, fange ich an, die musikalischen Parts zu schreiben, was auch die Orchester-Arrangements mit einschließt. Da ich eine klassische Ausbildung habe, schreibe ich die selber. Beim Schreiben muss ich die lizenzierten Songs bedenken, denn es gibt Stellen, wo sich die Songs und die Filmmusik überschneiden. Manchmal muss ich beispielsweise eine Streicherüberleitung für einen Song schreiben. Ansonsten hatte ich mit den lizenzierten Songs nichts zu tun. Mit Ellie Goulding habe ich allerdings gearbeitet, sie hat Melodien eingesungen, die ich für meinen Score geschrieben hatte.
Bild: Archiv
Bild: Archiv
Das war sehr effektiv, denn die Frauenstimme funktioniert fast wie die innere Stimme der Hauptfigur. Als ich alle Arrangements geschrieben und alle Tracks aufgenommen hatte, bat ich Alan, mir zu helfen, das Orchester aufzunehmen und zu mischen. Wir sind gute Kumpels, und als Mixer ist er schlichtweg unfehlbar. Er hat einen ganz eigenen Stil, der viel zur besonderen Klang – magie von Divergent beigetragen hat.“
Percussion-Aufnahmen
Meyersons erste Aufgabe war, in den Remote Control Studios zusätzliche Percussion-Samples aufzunehmen. „Junkie hatte alles fertig geschrieben und programmiert und brauchte weitere Percussion-Aufnahmen; die Percussion sollte mehr Transienten bekommen und echter klingen. Wir ließen einen Percussionisten namens Satnam Ramgotra kommen, mit dem wir fünf oder sechs Tage eine Menge Drums und Ethnic Percussion aufgenommen haben. Für Letztere habe ich zwei Kondensatormikros mit ausgezeichneter Transientenwiedergabe verwendet, das DPA 4011, das eine sehr schnelle Kleinmembrankapsel hat, sowie das Sennheiser MKH800, eines der besten Universal-Mikros, das ich kenne; es kann enorme Pegel verarbeiten.
Ich habe neun Stück davon. Beide Mikros haben kein Problem mit den scharfen Attacks von Percussion-Schlägen. Normalerweise verwendest du dafür ein dynamisches Mikro, aber ich wollte die volle Frequenzwiedergabe eines Kondensatormikros. Auch das 4011 kann bis zu 150 dB Pegel wegstecken. Für das Drumkit verwendete ich ein modifiziertes Standard-Setup, denn ich habe das Kit praktisch mono aufgenommen und dann die Monoaufnahmen quadrofonisch verteilt, d. h. links, rechts, Surround left und Surround right. Satnam hat den gleichen Part vier Mal eingespielt, und zwar exakt genug, dass das Gesamtbild stimmte, aber mit leichten Unterschieden, die dem Ganzen eine gewisse Breite gaben.
Im Stereo-Mix hörst du zwei Drumkits auf dem linken Kanal und zwei Drumkits auf dem rechten Kanal. Aber im Kino hörst du sie von allen vier Seiten. Weil ich in Mono aufnahm, habe ich nur ein Overhead-Miro verwendet, das Royer R-122V [Aktivbändchen mit Röhrenelektronik] mit ordentlich Kompression. Die Bassdrum habe ich mit einem Sub-Kick-Mikro abgenommen, das ich aus einem Yamaha NS10M-Speaker und ein paar weiteren Mikros selber gebastelt habe. Weil Junkie bereits einen Haufen Percussion programmiert hatte, ging es mir nicht um den Gesamtklang, sondern darum, so viel an Transienten wie möglich herauszuholen. Wir wollten den Klang körperhafter machen.
Daher habe ich meine Grace 801-Preamps verwendet, von denen ich 32 Kanäle besitze. Die haben eine unglaubliche Transientenwiedergabe. Ich habe den Pegel ein bisschen niedriger eingestellt als normal, sodass die Transienten nicht beschnitten wurden. Als ich die Transientenwiedergabe hatte, wie sie sein sollte, habe ich kräftig mit dem McDSP Multiband-Kompressor zugelangt. Dadurch konnte ich die verschiedenen Frequenzaspekte der Drums betonen. Danach hab ich alles durch die Waves SSL Compressor-Emulation gejagt, um den Sound noch ein bisschen fetter zu machen. Ich habe mir die Sounds nicht einzeln angehört, sondern zusammen mit Junkies Sachen.
Ich habe einfach den Threshold des Kompressors aufgedreht, um für verschiedene Farben zu sorgen und um die Lücken zu füllen, wo Transienten gefragt waren. Ich habe alles in Pro Tools mit 96 kHz aufgenommen und dann die Aufnahmen für Junkie auf 44,1 kHz zurückgewandelt, der sie dann in seinen Sessions weiterverarbeitet hat.“
Quadrophonie vs. 5.1 im Filmscore
Beim Begriff ›Quadrofonie‹ denkt man zunächst an ein gescheitertes Consumer-Format der 1970er, doch Meyerson und Holkenborg erklären, welch wichtige Rolle Quadrofonie fürs Film-Scoring spielt, trotz neuerer, immer komplexer werdender Surround-Formate wie 5.1, 7.1 oder gar 10.2 und 22.2 bis hin zum neusten Dolby Atmos-System mit 64 Lautsprecherkanälen. Meyerson: „Ein Grund dafür ist, dass man die leicht in zwei Stereo-Files aufteilen kann. Cubase kommt mit 5.1 nicht so gut zurecht; Quad ist leichter zu handhaben. Tatsächlich sind die meisten Score-Mixes, die ich mache, effektiv quadrofonisch, weil du den Center-Kanal nicht vollstopfen solltest, da der ja für die Dialoge verwendet wird. Außerdem produzieren nur sehr wenige Instrumente, die ich aufnehme, Subbass-Frequenzen. Wenn ich dem Re-Recording-Mixer 5.1-Stems abliefere [für die Endabmischung], dann beinhalten die oft nur Informationen in den Quad-Kanälen.“
Holkenborg: „Der Sub gibt Frequenzen unter 40 bis 45 Hz wieder, und im Gegensatz zur landläufigen Meinung reichen selbst Dance-Produktionen nicht so tief runter. Die mögen zwar basslastig sein, aber die Energie der Bassdrum liegt zwischen 60 und 90 Hz, und der Track als Ganzes geht vielleicht bis 50 Hz runter, aber nicht tiefer; insofern ist der Sub irrelevant. Für mich macht es keinen Sinn, in 5.1 zu arbeiten; es ist eher eine Last. Ich habe zwar einen Subwoofer im Studio, aber der hat keinen eigenen Kanal. Im Kino wird der Sub hauptsächlich für heftige Soundeffekte und subharmonische Drones verwendet, aber damit habe ich nichts zu tun. Den Center-Kanal versuchst du sowieso zu vermeiden, weil dort die Dialoge landen. Außerdem gibt es nur ganz wenige Plugins, die wirklich in 5.1 funktionieren; ich glaube Altiverb und ein paar Waves-Plugins, und das war’s auch schon. Als Komponist in 5.1 zu arbeiten ist also meist unnötig, während die Quad-Kanäle extrem wichtig sind. Wenn du einen volleren Sound haben willst, brauchst du eigenständige Information in den Surround-Speakern. Unter den Komponisten und Mixern vertreten einige die Philosophie, dass die Surround-Speaker nur für Reverb genutzt werden sollten, aber ich belege sie gerne mit Sounds, die in den Front-Speakern nicht vorkommen, um ein breiteres Klangspektrum zu erzeugen.“
Mixdown im Remote Control
Für die Endabmischung nutzte Meyerson das Remote Control Studio A mit einem Euphonics System 5, seinen bevorzugten ATC-Monitorlautsprechern und drei Pro-Tools-Rigs. „Auf einem war die Orchester-Session, die im Londoner Air Lyndhurst gemacht wurden, auf dem zweiten waren Junkies Synth-Masters, und das dritte diente zum Aufnehmen des Mixes. In dieser Phase habe ich schon einiges an Processing für das Orchester verwendet, weil es sich mit Junkies unglaublichen Sounds mischen sollte. Dafür habe ich mit Plugins harmonische Verzerrungen hinzugefügt, u. a. mit dem Nomad Factory Magnetic ›Reel-to-Reel Audio Tape Warmer‹ und dem Waves Kramer PIE Compressor, den ich sehr mag.
So habe ich etwas mehr harmonischen Content und eine analog-ähnliche Sensibilität erzeugt. Außerdem habe ich den Decapitator und den PSP Mix Saturator verwendet, um den Bläsern etwas mehr Kante zu geben. Einige der Cues waren hochenergetische Musik für schnelle Action-Szenen mit frenetischer Percussion, und speziell in diesen Fällen musste ich aufpassen, dass das Orchester immer noch durchdringt. Ein weiteres hilfreiches Tool für solche Sachen waren meine Manley Massive Passive Outboard-EQs, von denen ich sechs Kanäle habe. Damit habe ich die Höhen und Bässe angehoben und zusätzlich mit einem McDSP 4000-Multibandkompressor bestimmte Teile des Sounds nach Bedarf gepusht.
Bild: Archiv
Bild: Archiv
Ich habe eine Menge Zeit darauf verwendet, die Mittenfrequenzen des Kompressors zu justieren, bis ich eine Einstellung fand, die aggressiv genug klang, um es mit Junkies Sachen aufzunehmen. Für Hall-Effekte habe ich meine sechs Bricasti Hardware-Reverbs verwendet. Streicher und Bläser habe ich dem Re-Recording-Mixer der Soundstage in separaten Stems geliefert. Bricasti 1 ist für links, Mitte, rechts der Streicher, Bricasti 3 ist für Surround links und Surround rechts der Streicher, und genauso dann mit Bricasti 4, 5 und 6 für die Bläser. Aufgrund der Komplexität eines Films mit Sound-Effekten, Dialog, Musik und Sounddesign geben wir dem Re-Recording-Mixer von allen Komponenten Stems, damit er oder sie bei Bedarf Dinge separieren und editieren kann.
Wenn der Re-Recording-Mixer meine Mix-Session öffnet und alles bei Null belässt, hat er meinen Final-Mix. Üblicherweise ändern die Re-Recording-Mixer nicht viel am Scoring-Mix; meist benötigen sie die 5.1-Stems nur, um fürs Editing gerüstet zu sein. Auch in letzter Minute kann es noch Änderungen am Film geben, und möglicherweise möchte der Regisseur, die Streicher in der neuen Fassung etwas leiser haben. Mit separaten Stems kann der Re-Recording-Mixer die Musik editieren, wie es erforderlich ist. Für den Stereo-Mix des Soundtrack- Albums hat Junkie meine ursprünglichen Orchester Mixes verwendet und diese zu seinem Material hinzugemischt.
Es gab auch einen Atmos-Mix von Divergent, aber damit hatte ich nichts zu tun. Ich habe mich mit den Re- Recording-Engineers verständigt, was sie separiert haben möchten, und habe den einen oder anderen Stereo-Reverb-Track geliefert, aber, um ehrlich zu sein: Wenn du nicht gerade in einer Dubbing-Stage arbeitest, die all diese Formate hat sowie ein Atmos Playback-System für eine Million Dollar, kannst du gar nicht viel mehr machen. Deshalb liefere ich gewöhnlich meine Mixes nur in 5.1 mit 48 kHz.“
Lohnt der Aufwand?
Beim Heimkonsumenten kommt freilich meist nur Stereoton über kleine TV-Lautsprecher an. Lohnt sich da überhaupt der ganze Aufwand mit 2.800 Spuren, riesigen Sample-Libraries und komplexen Orchesteraufnahmen? „Diese Frage hat zwei Aspekte“, antwortet Holkenborg. „Zunächst einmal musst du diesen ganzen Aufwand betreiben, um im Filmmusikgeschäft zu bleiben.
Alle Leute, mit denen ich arbeite, die Filmproduzenten und Regisseure, kennen sich extrem gut aus und kümmern sich auch um die technischen Details. Ansonsten mache ich all das auch, um mein eigenes Streben zu befriedigen, mein Bestes zu geben, solange ich im Zenit meines Schaffens stehe. Das habe ich schon immer getan. Aber klar, in jeder Kunstform dauert es heute immer länger, etwas Einmaliges zu schaffen, und selbst davon kriegt die Öffentlichkeit nur die Highlights mit. Während die Arbeit des Komponisten immer komplexer wird, verlieren immer mehr Leute die Fähigkeit, in die Details der Filmmusik hineinzuhören.
Aber davon solltest du dich nicht abhalten lassen, dein Allerbestes zu geben, um deinem eigenen Anspruch gerecht zu werden. Aber auch, um überhaupt gehört zu werden. Du musst immer noch Herz und Seele in deine Musik stecken, damit die Konsumenten sie hören wollen, und sei es nur ein paar Mal. Wenn du das nicht tust, erreichst du überhaupt nichts. Und du solltest immer die Hoffnung haben, etwas Neues zu schaffen, dass deine Musik einmal zum Klassiker wird, dass dein Score einmal so zeitlos wird wie Yesterday von den Beatles. Das kannst du weder vorhersagen noch beeinflussen, aber solange du es nicht weißt, musst du dir so viel Mühe geben, wie du nur kannst.“
Kommentar zu diesem Artikel
Pingbacks