Das Mixen hat mehrere Revolutionen durchlaufen, seit Bob Clearmountain in den 80ern das Modell des Star-Mixers einführte. Die möglicherweise nachhaltigste Veränderung war die allgemeine Umstellung auf In-the-box-Mixing und mit ihr eine nennenswerte Vereinfachung und Beschleunigung des Mixing-Prozesses. Aber auch in-the-box gibt es noch Raum für weitere Entwicklungen. Ob in-the-box oder nicht, üblicherweise besteht das erste Stadium eines Mixes daraus, die Rough-Version durchzuhören, sich in der Session zu orientieren, sie den eigenen Gewohnheiten entsprechend zurechtzulegen, sie dem eigenen Template und Workflow anzupassen und dann mit dem Mix zu beginnen, wobei die meisten angelegten Plug-ins durch eigene ersetzt werden. Warum keiner dieser Schritte so unverzichtbar ist, wie er scheint, erklärt uns Leslie Brathwaite.
Brathwaite erläutert seinen Arbeitsablauf: »Bei jeder Session, die ich zum Mixen geschickt bekomme, will ich als Erstes wissen: Hat der Kunde den Rough-Mix intensiv gehört? Falls ja, nehme ich ihn besonders genau unter die Lupe, um zu verstehen, was er daran so liebt, und lege ihn auf eine eigene Spur in der Session, um das, was ich mache, jederzeit damit vergleichen zu können. Denn wer über einen längeren Zeitraum einen Rough-Mix hört, wird im Endergebnis nicht etwas radikal anderes wollen. Das ist besonders in meiner Welt − der Welt von Hip-Hop, R’n’B und Pop − ziemlich wichtig, wenn ich z. B. mit Künstlern wie Cardi B oder Beyoncé arbeite.
Wenn ich für eine dieser beiden oder auch für Ariana Grande arbeite, mache ich an dem Punkt weiter, wo sie aufgehört haben, denn sie mögen es nicht, wenn etwas deutlich anders klingt als vorher. Selbst wenn im Projekt schon Plug-ins sind, an deren Stelle ich normalerweise andere benutzen würde, behalte ich oft die bei, die schon angelegt sind. In diesem Genre geht es beim Mixen mehr darum, dass das Ganze funktioniert und der Vibe stimmt, weniger darum, alles perfekt klingen zu lassen. Ich verwende normalerweise auch nicht viel Zeit darauf, eine Session, die ich bekommen habe, meinen Bedürfnissen entsprechend umzubauen. Weder passe ich sie meinem Template an, noch ziehe ich den Mix von Null an neu auf. Ich arbeite eher im Rahmen dessen, was schon da ist, und verändere nur gelegentlich etwas ein bisschen, um es meinen Gewohnheiten anzupassen. So kann ich wesentlich schneller arbeiten.
Wenn ich zum Beispiel eine Session von Cardi B öffne, in der vier Leadvocal-Spuren per Bus auf eine Aux-Spur zusammengefasst worden sind, und diese Aux-Spur wiederum auf einen anderen Bus gelegt wurde, verfolge ich einfach den Ablauf dessen, was sie schon gebaut haben, und mache mich mit dessen Struktur vertraut. Falls ich entscheide, einen anderen De-Esser als den aus der Session zu verwenden, achte ich darauf, dass er ähnlich klingt. Wenn ein DVerb zugeschaltet ist, ersetze ich es unter Umständen mit meinem liebsten Vocal-Hall, dem Altiverb − das hat einen ähnlichen Sound, klingt aber für meine Ohren etwas reichhaltiger und voller. Natürlich hilft es mir bei der Übernahme einer schon angelegten Session-Struktur, dass ich schon vertraut bin mit der Art, wie bestimmte Engineers ihre Sessions organisieren, beispielsweise Evan LaRay für Cardi B oder Mike Larson für Pharrell Williams.
Bei der Arbeit mit Pharrell ist es allerdings anders, weil er selten Rough-Mixe erstellt und Stücke nach der Aufnahme meistens nicht mehr besonders ausgiebig durchhört. Wenn ich eine Session von ihm bekomme, hat er sie oft gerade in der vorigen Nacht fertiggestellt! Bei ihm kommt es kaum vor, dass er ein inniges Verhältnis zu einem RoughMix entwickelt, also muss ich mich dem auch nicht verpflichtet fühlen − auch wenn es mal einen Rough-Mix gibt − und habe also mehr Freiheit beim Mix. Pharrell und Mike schicken mir meistens auch Sessions mit nur wenigen Plugins, weil sie sie erst in der vorigen Nacht gebaut haben − umso mehr kreativer Raum für mich!
Die Plug-ins, die man momentan meistens in den Sessions vorfindet, sind von Waves, UAD, SoundToys, iZotope, Focusrite, SPL und so weiter. Alle haben sie. Wenn ich aber mal eine Session bekomme mit einem Plug-in, das ich noch nicht habe, kaufe ich mir das gern selbst mal eben, denn dadurch lerne ich immer wieder Neues. Auf die Art habe ich zum Beispiel das Tornado-Plug-in von Sugar Bytes entdeckt. Meine Arbeit ist ein gutes Trainingsprogramm, um immer auf dem Laufenden zu bleiben, indem ich mitbekomme, welche Plug-ins neuere, jüngere Engineers auswählen.«
Weniger Hardware
Die Idee des Minimalismus, wie Brathwaite sie hier dargelegt hat, zieht sich durch viele Bereiche seiner Arbeit. Das wird bei einem Blick in seinen Mix-Raum in Atlanta schnell deutlich, der sich in einem Gebäudekomplex von Akon befindet und an dessen Studio angrenzt. Da Akon jedoch viel Zeit auf humanitäre Arbeit aufwendet (z. B. im Rahmen einer Partnerschaft mit Shell, die das hohe Ziel verfolgt, 600 Millionen Afrikaner mit Strom und fließendem Wasser zu versorgen), findet Brathwaite sich oft allein in dem Studio mit seiner kleinen Recording-Kabine wieder. Sein Studio kommt so futuristisch daher, als wäre es in Hollywood von einer Special-Effects-Unit für einen SciFi-Film entwickelt worden, und an Geräten findet sich dort nicht mehr als ein Slate Raven Mti2 Touchscreen, ein Universal Audio Apollo 8 I/O, eine Antelope »Isochrone OCX«-Audio-Masterclock und Focal »Twin 6 Be«-Monitore mit einem KRK Subwoofer.
»Ich hatte früher Yamaha NS-10 Monitore«, erklärt Brathwaite, »benutze sie aber nicht mehr, und meine weißen KRK RoKits kommen auch nicht mehr so richtig zum Einsatz. Ich habe mich vor sechs Jahren in die Focals verliebt und seitdem nie zurückgeschaut. Früher hatte ich einen Mac-Tower, aber jetzt lasse ich alles vom iMac laufen. Da ich old school bin und viele Jahre lang an einem SSL [Mischpult] gearbeitet habe, habe ich gern etwas in der Hand, trotzdem benutzte ich die Touchscreen-Funktion nicht sehr oft − abgesehen von einigen Bequemlichkeits-Features wie Batch-Commands, mit denen man einer Taste viele Befehle zuweist. Ich bin vor etwa sechs oder sieben Jahren vollständig in-the-box gegangen, weil es nervtötend wurde, Recalls mit einem großen Hardware-Mischpult nachzukommen. In-the-box zu arbeiten geht schneller und ist auch besser für Projekte mit kleinerem Budget. Mein Workflow ist jetzt so einfach, dass ich keinen Assistenten mehr brauche. Und die akustische Wärme und Tiefe, die ich möchte, bekomme ich inzwischen von UAD Plug-ins. Schneller arbeiten und produktiver sein zu können, war der Hauptgrund, in-the-box zu gehen. Und wenn man mal wirklich nur das Kerngeschäft nimmt, ohne das Organisieren und Aufräumen und Mix-Printen, dauert das Mixen im engen Sinne echt nicht so lang − vielleicht eine Stunde. Wenn man mehr als ein paar konzentrierte Stunden an einem Song mixt, franst man ihn eher aus. Die Sounds hinzubekommen, die man wirklich braucht, dauert gar nicht so lang. Das Mixen in-the-box hat vieles beschleunigt, aber was immer noch viel Zeit braucht, sind die Rückmeldeschleifen mit Künstlern und Producern − insbesondere, wenn sie ihre Meinung ändern und neue Spuren hinzufügen oder irgendwas ersetzen wollen.«
Vocal First
Interessanter- und passenderweise findet der »Weniger ist mehr«-Ansatz auch in der Art von Musik Anwendung, an der Brathwaite arbeitet. Die Atlanta-typische Trap-Variante des Hip-Hop mit ihren dominanten 808-Sounds und HiHats, oft ohne eigentlichen Basslauf, mit sehr reduziertem Melodie- und Harmonie-Anteil und wenig mittleren Fre quenzen ist weiterhin der heiße Scheiß und hat auch auf den R’n’B- und Pop-Mainstream großen Einfluss. In Atlanta sitzt Brathwaite mitten im Zentrum dieser Entwicklung.
Er erklärt, dass die neue Tieffrequenz-Herausforderung dieses Genres darin besteht, die Kickdrum im Mix mit der [Roland TR-]808 auszubalancieren, während das weitgehende Fehlen von Instrumenten in den mittleren Frequenzen es erheblich erleichtert, die Vocals zu mischen. Obwohl es also deutlich einfacher geworden ist, Platz für die Vocals zu finden, hält Brathwaite an einer eigenen, für ihn bewährten Methode fest, die deutlich von der Norm abweicht − die nämlich besteht eigentlich darin, einen Mix mit der Kickdrum zu beginnen.
»Wenn ich mit der Arbeit an einer Session anfange, schalte ich zuerst alle Instrumente stumm und beginne mit dem Gesang. Während des gesamten Mix-Prozesses mische ich im Geist alles um die Vocals herum. Deshalb fange ich gern mit ihnen an, im Gegensatz zur Methode, erst einen guten Mix der Musik hinzubekommen und dann die Vocals anzupassen. Ich denke da genau in die umgekehrte Richtung. Alles, was ich tue, basiert darauf, dass die Vocals supergut klingen. Wenn ich ein Stück zum ersten Mal höre, weiß ich schon mit einer gewissen Sicherheit, wie alles im Arrangement sich auf alles Andere im Arrangement auswirken wird. Ich denke also immer schon an alle Aspekte der Session und daran, wo ich etwas kompensieren muss und wo nicht. In jeder Phase des Mixens denkt man sehr genau darüber nach, was genau man da tut, und man denkt auch schon an die Gedankenprozesse, die als nächste anstehen.
Wenn ich eine Session beginne und die Vocals solo stelle, räume ich sie zuerst auf und stelle dann sicher, dass sie nach Bedarf getuned sind. Was Ersteres betrifft: Ich arbeite oft mit sehr versierten Engineers, die wissen, was sie tun, aber sie haben nicht immer die Zeit, alles einzeln aufzuräumen. Beim Cardi-B-Album zum Beispiel nahm Evan genauso schnell auf wie ich mixte. Manchmal besteht das Aufräumen aber auch nur aus Tuning. Gestimmte Vocals sind heute Teil des Sounds. Künstler wie Migos wollen natürlich den »Antares AutoTune Robotic«-Sound, aber selbst eine großartige Sängerin wie Ariana wollte etwas Feintuning auf ihrer Stimme. Als wir Beyoncé mischten, wollte sie auch etwas Tuning − nicht um ihre Vocals zu korrigieren, sondern für den Sound und das Feeling von AutoTune. Oft sind die Vocal-Spuren, die ich bekomme, schon getuned. Aus meinem Verhältnis zum jeweiligen Kunden heraus weiß ich dann, ob ich sie noch weiter tunen und mit ihnen herumspielen kann oder sie lieber nicht mehr anrühre.
Wenn jemand diesen Roboter-Sound will, benutze ich AutoTune. Das ist gut für Leute wie zum Beispiel Migos. Wenn ich aber jemanden mische, der richtig gut singt, wo es aber auch mal eine misslungene Note gibt, greife ich zu Melodyne. Melodyne habe ich nicht als Plug-in eingebunden, sondern nutze es als Standalone-Version, und anschließend importiere ich die gestimmten Vocals wieder in die Session. Das Real-Time-Prozessing wäre sonst meiner Erfahrung nach ein wenig Glückssache. Bei einem Durchlauf versäumt es vielleicht mal ein Tuning-Problem, oder es stimmt eine Note nicht bei jedem Durchlauf gleich. Da können schonmal seltsame Glitches auftreten. Deshalb printe ich getunte Vocals immer in die Session. Das Gleiche tue ich mit Effekten, die teilweise zufällig sind, z. B. mit zufälligem Flanging aus dem MetaFlanger oder mit einem Autopan-Plug-in. Man will ja ein Wort nicht bei der einen Wiedergabe rechts und bei der nächsten links haben.«
Wenn die Vocals dann bereinigt und gestimmt sind, bearbeitet Brathwaite sie weiter, bevor er zu anderen Teilen des Mixes übergeht: »Meine Vocal-Chain beginnt mit einem De-Esser, normalerweise dem Waves Renaissance, bevor ich ein wenig Kompression dazugebe. Eigentlich behebe ich Level-Probleme gern mit Vocal-Fader-Fahrten, aber ich lege auch schonmal einen Waves Renaissance Kompressor mit einer Ratio von 3:1 darüber und nehme ihn etwas zurück. Als Nächstes greife ich zum Waves SSL EQ, manchmal auch zum UAD SSL. Die meisten Mikrofone bilden die tiefsten Frequenzen seltsam ab, deswegen schneide ich unten meistens etwas weg. Anschließend mache ich an den Hoch- und Mittelfrequenzen weiter, weil manche davon nerven können.
Was ich gerade beschrieben habe, ist die Kette, die auf den Inserts der einzelnen Vocal-Spuren liegt, bevor ich die Vocals dann zusammen per Bus auf eine Aux-Spur schicke. Auf dieser Aux-Spur liegt meistens ein zweiter De-Esser, nur ganz sanft, dann ein weiterer Kompressor, etwa ein UAD Fairchild 670 Legacy, einfach auf Standard eingestellt, um ein wenig Farbe und Präsenz dazuzugeben. Wenn ich dann nach dem De-Essing etwas mehr Glanz möchte, lege ich den Precision EQ drüber und booste bei 27 kHz, möglicherweise nur um 1 dB. Das reicht, um alles in den höheren Regionen hochzuziehen und ein schönes, rundes High-End zu bekommen.
Der Vocal-Hall meiner Wahl ist der Altiverb. Ich liebe seine Geschmeidigkeit, und er hat so viele verschiedene Impulsantworten, dass man haufenweise nette Sachen finden kann. Ich bin ein visuell orientierter Mensch, und der Altiverb hat eine coole Ästhetik. Mir gefällt es außerdem, sehen zu können, wie der Raum aussieht. Mein Delay für Vocals ist das Waves HDelay, wobei Ping-Pong-Delays nicht zu meinen Vorlieben gehören. Wenn einer in einer Session angelegt ist, ›bin ich gut zu ihm‹, aber ich würde keinen von mir aus hinzufügen.
Wenn ich die Vocals einmal so habe, wie ich sie haben will, bearbeite ich ein bisschen die allgemeinen Vocal-Levels, aber so lange nicht ein Wort wirklich überlaut hervorpoppt, mache ich noch keine konzentrierten Vocal-Fader-Fahrten, weil die ja davon abhängen, was noch um die Vocals herum passiert.
Next: Kick
Als nächsten Schritt bearbeite ich Kick und 808. In vielen aktuellen Hip-Hop- und Pop-Produktionen verhält sich die 808 wie der Bass, sodass der Kampf, den man früher zwischen Bass und Kickdrum hatte, nun der Kampf zwischen 808 und Kick ist. Aber meistens gehen die beiden doch ganz gut zusammen, weil sie unterschiedliche Eigenschaften haben und schwerpunktmäßig in unterschiedlichen Frequenzbereichen liegen. Bei Migos und in vielen Stücken von Cardi B ist es die 808, die den Song vorantreibt. Zusammen mit den Hi-Hats, die im Trap auch ziemlich laut sind.
Meine Plug-in-Selektion für die 808 beginnt normalerweise mit dem UAD Little Labs Voice Of God Bass-Resonanztool, wo ich nur die Amplitude abstimme. Die anderen Parameter verstelle ich dort meistens nicht. Was ich außerdem manchmal mache: die 808 durch einen UAD Pultec EQ oder den Waves PuigTec EQ laufen lassen, um − je nachdem, was von der 808 kommt − durch Anheben bei 30 oder 60 Hz etwas mehr Wärme dazuzugeben, aber nicht zu viel. Normalerweise booste ich die Kickdrum zwischen 60 und 100 Hz mit dem UAD Pultec EQP-1A. Das sind die Waffen meiner Wahl für 808 und Kick. Im Allgemeinen gebe ich keine Kick- oder Snare-Samples dazu, und viele Plug-ins auch nicht. Viele Künstler haben sich so an den Rough-Mix gewöhnt, dass sie keine dramatisch veränderten Sounds wollen. Daher kann es kontraproduktiv sein, eine Ladung Plug-ins und Samples draufzutun.
Nach der Kick und vielleicht der 808 gehe ich zum Bass über, sofern es einen gibt. Oft lasse ich auch ihn durch einen UAD Fairchild 670 Legacy [Kompressor/Limiter] laufen. Dessen Bass-Preset funktioniert sehr gut für ganz viele Bass-Sounds. Wenn der Tieffrequenz-Bereich aus Kickdrum, 808 und/oder Bass dann richtig sitzt, bringe ich Snare und HiHats ins Spiel. Im Trap-Genre ist die Hi-Hat sehr laut. Ich mache aber nicht viel mit Snare und Hi-Hat. Manchmal gebe ich etwas High-End dazu, damit es mehr zischt.
An diesem Punkt kommen dann die übrigen Instrumente rein. Bei Cardi B’s Money z. B. ist das tragende, charakteristische Instrument das Piano, also ist es meine Aufgabe sicherzustellen, dass es sich durchsetzt. Ich glaube, bei diesem Song habe ich dem Piano nur ein wenig High-End mitgegeben, damit es etwas präsenter im Mix ist. In vielen heutigen R’n’B-, Hip-Hop- und Pop-Stücken gibt es nur ein Hauptinstrument − oder sehr wenige davon − und somit viel Raum für die Stimme. Sobald die Drums und überhaupt die Musik so klingen, wie ich es haben möchte, schalte ich den Gesang wieder dazu und mache da die letzten Fader-Fahrten.«
Mix
Die letzte Mix-Phase läuft so ab, dass Brathwaite Rückmeldungen zu seinen Mixen einholt, sie dann printet und an den Mastering Engineer sendet. Auch hier hat er Ansätze weitab vom Mainstream, insbesondere legt er nichts auf den Master-Bus. »Eines der Dinge, die ich sehr früh im Mix- Prozess tue, ist, in Erfahrung zu bringen, wer zuständig ist, wem gegenüber ich verantwortlich bin, wer also die endgültige Genehmigung für einen Mix erteilen wird … was von Fall zu Fall unterschiedlich ist. Bei Pharrell ist er selbst es, aber wenn Pharrell and Beyoncé zusammenarbeiten, wie auf dem Album Everything Is Love, dann ist es Beyoncé. Im Fall von Cardi B ist es Craig Kallman, der Chef von Atlantic Records. Cardi gibt selbst auch Feedback und genehmigt Mixe, aber Craig hat das letzte Wort.
Wenn ich meine Mixe an die Auftraggeber schicke, lege ich vorher vielleicht den Slate FG-X Mastering-Processor auf den Master-Bus, um einfach die Lautstärke zu erhöhen. Wenn ich aber einen Mix für den Mastering-Engineer printe, lege ich nichts darauf. Ich will mich in diese ganze Loudness-Geschichte nicht einmischen und ziehe es vor, dem Mastering-Engineer den Raum zu lassen, sein Ding zu machen. Mir ist bewusst, dass viele Mixer sich einem Erwartungsdruck ausgesetzt fühlen, auf das Level des Rough-Mix oder darüber zu kommen. Aber wenn man Kontrolle über die technische Seite hat, muss man die Künstler auch gut beraten. Ich sage ihnen immer: ›Beurteile diesen Mix nicht, wie er jetzt ist, sondern warte, bis er gemastert ist, und urteile dann.‹ Ich finde, dass Mixen und Mastering zwei sehr unterschiedliche Disziplinen sind, und ich bleibe gern in der Rolle des Mixers!«
Extra-Mixe
Weiter oben bemerkte Brathwaite, dass es beim Mixen in seinem Genre darum gehe, »… dass das Ganze funktioniert und der Vibe stimmt, weniger darum, alles perfekt klingen zu lassen«. Seine Diagnose: »Vibe ist heute superwichtig. Wenn man daran denkt, was jemand wie Drake tut − da gibt es keine strukturelle Intensität etwa durch Dynamik oder Build-ups oder Breakdowns. Es funktioniert ganz anders. Es geht mehr um die Atmosphäre, den Vibe. Es ist vibey. Der Vibe steckt normalerweise schon in dem Material, das ich bekomme, also will ich euch ein kleines Geheimnis verraten: Ich mixe, was der Kunde hören möchte, aber um selbst mein Interesse und meine emotionale Bindung zu der jeweiligen Musik aufrecht zu erhalten, erstelle ich zusätzlich einen persönlichen Mix, sofern ich Zeit dazu habe. In diesem Mix kann ich nach Herzenslust mit ein paar Dingen herumspielen, denn ich behalte ihn für mich − der Rest der Welt wird ihn nie hören.
Aber diese alternativen Mixe helfen mir, emotional bei der Sache und zufrieden zu bleiben, das Gefühl zu behalten, mit neuem Spielzeug und Lernmaterial zu spielen. Es kann sich sonst schnell nach Alltag anfühlen, immer genau den Vibe zu erhalten, den der Kunde möchte, denn dazu braucht es oft nicht viel. Manchmal nehme ich bei einem persönlichen Mix drastische Änderungen vor, etwa allerlei Effekt-Zuckerguss, Zerschnibbeln und veränderte Breakdowns, um einfach herumzuspielen und Spaß zu haben. Ich spiele solche Mixe nur dann Kunden vor, wenn ich den Eindruck habe, dass sie dafür empfänglich sind. Oder wenn manchmal jemand sagt: ›Probier mal was aus und lass es mich hören.‹ Meistens mache ich diesen Mix aber nur zu meiner persönlichen Zufriedenheit.«
Kurzbiographie Leslie Brathwaite
Brathwaites aktueller minimalistischer Ansatz und der entsprechende Aufbau sind das Ergebnis von mehreren Jahrzehnten Adaption neuer Technologien und Reduktion auf das Wesentliche. Ursprünglich von den Virgin Islands stammend, nahm Brathwaite am Recording Arts Programm bei Full Sail in Florida teil, das er 1992 abschloss. Anschließend zog er nach Atlanta, wo er mit Künstlern wie Jermaine Dupri, Babyface, L.A. Reid und Dallas Austin in dessen DARP-Studio arbeitete, wo noch analoge Tonbänder und große Pulte regierten. 2001 zog Brathwaite in die Patchwork-Studios in Atlanta, 2012 in die Music Box des Kollegen Akon. Im Laufe der Jahre hat er für Aretha Franklin, Björk und Eminem gearbeitet; zu seinen jüngeren Credits gehören N.E.R.D.s No One Ever Really Dies, fast das gesamte Album Invasion of Privacy von Cardi B, mehrere Songs auf The Carters’ Everything Is Love und sieben Stücke auf Ariana Grandes ausstehendem Album, davon einige zusammen mit Phil Tan.
Danke. Nett da einen Einblick in seine Arbeitsweise zu erhaschen. Wo ich jedoch – Kopfkatz – ?? bekam war bei diesem Statement: “…lege ich den Precision EQ drüber und booste bei 27 kHz, möglicherweise nur um 1 dB…”
Hat der Gute Hundegehör? Welche Schallwandler können 27kHz wiedergeben? Welcher Mensch kann oberhalb 20 kHz was hören, wenn ich unterstelle, dass diejenigen Schallwandler haben, die das wiedergeben? Welches Endkunden Datenformat liefert eine solche Frequenzbandbreite?
Fragen über Fragen:-) Ich habe großen Respekt vor Toningenieure, die 1 dB Lautheitsunterschied wahrnehmen können, wenn die Brüllbox unterm Tisch gerade ein akustisches “Erdbeben” produziert…
Ähm Kinder, Kinder hören hochfrequente Töne.
Es handelt sich wahrscheinlich um einen sehr breitbandigen Boost, sodass davon im hörbaren Bereich schon etwas zu merken ist. 1db halte ich allerdings auch für wenig bis esotherisch. Schau dir allgemein aber mal das Air Band des Mäag EQs an. Da kann man sogar bei 40kHz anheben.