Spatial-Audio Sounddesign: Baroque Immersions in der Kölner Philharmonie
von Julian Ebert | Simon Heinze,
Anzeige
Nach langer, coronabedingter Schließung luden die Kölner Philharmonie und das Podium Festival Esslingen Ende August 2020 zu einem besonderen Konzert ein: Musik des 17. und 18. Jahrhunderts, unterbrochen und komplementiert von zeitgenössischen, teils elektronischen Werken u. a. von David Lang und Arash Safaian. Mit einem 360-Grad-Lautsprechersystem und einer objektbasierten Verstärkung der Solisten wurde der Ensembleklang sensibel und wirkungsvoll verräumlicht, verdichtet und verfremdet. Julian Ebert und Simon Heinze erarbeiteten das Klangdesign und konzipierten das touringfähige Beschallungssetup.
Wie lässt sich Intimität barocker Kammermusik für ein größeres Publikum erlebbar machen? Diese Frage stellte sich Steven Walter, künstlerischer Leiter des Podium Festival Esslingen, als er das Konzertformat Baroque Immersions entwickelte. Moderne Konzertarchitekturen sind Walter zufolge oftmals nicht oder nur eingeschränkt dazu geeignet, die filigrane Klanglichkeit und den dichten polyphonen Klang der Barockmusik abzubilden.
Anzeige
Um diese musikalische Immersion zu erreichen, sollte der Klangraum der Philharmonie unter Zuhilfenahme moderner Beschallungstechnik dramaturgisch an die Bedürfnisse der Musik angepasst werden. So entstand die Idee, das achtköpfige Ensemble mit einer objektbasierten Verstärkung und einer Modifikation des Nachhalls elektroakustisch ins 21. Jahrhundert zu befördern.
Als gestalterische Parameter dienen die Nachhallzeit, das Verhältnis von Direkt- und Diffusschall, die virtuelle Breite des Klangkörpers, die Balance der Instrumentalisten und die Art der Mikrofonierung. Die räumliche Disposition von Klängen war schon zur Zeit des Barock ein gern verwendetes musikalisches Gestaltungsmittel, die Aufweitung der räumlichen Dimension wurde beispielsweise mit getrennt voneinander aufgestellten Chören erkundet. Beim Konzert in der Kölner Philharmonie soll der Raum entlang der Partitur zum Mitspieler des Ensembles werden und den Zuhörer in den Mittelpunkt des Klangs stellen. Mit den eingefügten zeitgenössischen Kompositionen werden die klanglichen Möglichkeiten des Systems ausgeschöpft und Bezüge und Kontraste zur Barockmusik hergestellt.
Anforderungen an die Beschallung
Das Beschallungssystem sollte zwei Aufgaben erfüllen: einerseits eine möglichst natürlich klingende Intensivierung des filigranen Klangs der barocken Instrumente, andererseits aber auch kreative Räume schaffen, um individuelle Klangideen szenisch umsetzen zu können.
Die Mischung aus Alter und Zeitgenössischer Musik, elektronischer Musik und Sakralmusik machte es erforderlich, elektro- akustisch Einfluss auf die Raumakustik zu nehmen. Mit ihrer Ausrichtung auf symphonische Musik und einer mittleren Nachhallzeit von ca. 1,7 Sekunden bietet die Kölner Philharmonie bauseitig gute Voraussetzungen, eine elektroakustische Nachhallverlängerung vorzunehmen. Um die Raumakustik szenisch einzusetzen und auf die Bedürfnisse der einzelnen Stücke anzupassen, wurde ein System zur Raumemulation eingesetzt, das es ermöglicht, den Raumklang ausgewählter Konzerträume und Bauwerke auf die Philharmonie zu übertragen.
Da die Produktion aber nicht nur in der Kölner Philharmonie zur Aufführung kommen soll, galt es bei der Systemplanung, perspektivisch eine touringfähige Lösung zu konzipieren. Dabei geht es insbesondere um die europaweite Verfügbarkeit von Material, ein möglichst universell in vielen Konzerthäusern abbild- bares Setup und die Portierbarkeit und Reproduzierbarkeit der vorprogrammierten Szenen und Automationen.
Geplant wurde das Konzept von B. Eng. Simon Heinze (freiberuflicher Toningenieur und Technischer Leiter des Podium Festivals, Junior System Designer bei d&b audiotechnik) und M. Sc. Julian Ebert (freiberuflicher Toningenieur und Akustikentwickler). Als Technischer Dienstleister für das Material wurde Neumann & Müller Veranstaltungstechnik beauftragt.
Tour-fähig: Systemdesign
Für die Kölner Philharmonie wurde ein System geplant, das sich in kurzer Zeit in Betrieb nehmen lässt und Lautsprecher genutzt, die die großen Distanzen zwischen Bühne und hinteren Publikumsrängen überbrücken können. Um die kurzen Probenzeiten im Saal produktiv zu nutzen, wurde die Show vorprogrammiert.
Zur Umsetzung der Designvorgaben fiel die Wahl am FOH auf einen Verbund aus einem Mischpult Behringer Wing und dem Signalprozessor d&b audiotechnik DS100 Soundscape, die beide per OSC vernetzt waren. Im Wing liefen alle Audiosignale mittels verschiedener Digital-Standards zusammen: Mikrofonsignale von der Bühne per AES50, Funkmikrofone per Dante aus den Shure-Empfängern ULXD4D und ein Laptop mit der DAW-Software Reaper für Zuspieler, angebunden per USB. Die Audiospuren wurden nach der Klangbearbeitung im Mischpult mit OSC-Steuerinformationen versehen und zusammen per Post-Fader Direct-Out als Audio-Objekt an den Signalprozessor DS100 übergeben. Dieser übernimmt die Verteilung der Audiosignale an das Lautsprechersetup (Softwaremodul En-Scene) und berechnet die emulierte Raumakustik (Softwaremodul En-Space).
Um eine möglichst natürliche Überlagerung des Direktschalls der Instrumente und deren elektroakustischer Verstärkung zu erreichen, wurden Lautsprecherpositionen gewählt, mit denen die beteiligten akustischen Quellen möglichst nah beieinander liegen. Dies hat den Vorteil, dass die Instrumente von den Zuhörenden ortungsrichtig wahr- genommen werden, der optische und akustische Eindruck konvergieren und ein der gewohnten, unverstärkten Wahrnehmung entsprechender Höreindruck entsteht. Durch die Positionierung von Lautsprechern bei den Instrumenten bleibt einerseits der zeitliche Bezug auf das Instrument bestehen, andererseits entspricht die räumliche Pegelverteilung weitgehend der der natürlichen Schallabstrahlung.
Im Saal und auf der Bühne wurden insgesamt 26 d&b-Lautsprecher verteilt, angetrieben von D20-Verstärkern, die via Audio-Netzwerk-Bridges DS10 per Dante mit individuellen Signalen versorgt wurden.
Auf einem weiten Kreisbogensegment auf der Bühne wurden neun Punktquellenlautsprecher V10P positioniert, die hauptsächlich zur Positionierung der Direktsignale der vor den Lautsprechern sitzenden Musiker genutzt wurden. Die Wahl fiel hier auf die großen und leistungsstarken 3-Wege- Lautsprecher, da sie durch die recht große Ausdehnung der Dipol-Anordnung der beiden 10“-Tieftöner im Zusammen- spiel mit dem koaxial positionierten Mittelton-Horn (ausgerüstet mit einem 8″-Mitteltöner) eine ausgeprägte und überaus homogenen Richtcharakteristik im Tief-/Mitteltonbereich aufweisen. Dadurch lässt sich, trotz Aufstellung hinter den Musikern, die Schallbelastung auf der Bühne begrenzen und hinreichender Gain vor Feedback erzielen, während die Lautsprecher gleichzeitig genug Leistungsreserven zur Verfügung stellen, um auch die oberen Ränge der Philharmonie erreichen zu können. Die „10“ in der Lautsprecherbezeichnung verweist auf den nominellen, horizontalen Öffnungswinkel von 110°.
Design-Prinzipien für Spatial-Audio
Bei Spatial-Audio-Anwendungen ist ein grundsätzliches Designprinzip, Lautsprecher so zu wählen und aufzustellen, dass auf jedem Platz im Publikum alle Lautsprecher hörbar sind. Dies sorgt dafür, dass zum Beispiel eine Geige, die links auf der Bühne gespielt und von dort positionierten Lautsprechern wiedergegeben wird, auch auf einem Platz rechts noch hörbar ist. Die Geige wird weiterhin ortungs- richtig an ihrer realen Position im Ensemble wahrgenommen, inklusive des Pegelabfalls durch die Entfernung zum Hörer – Gehörtes und Gesehenes konvergieren. In praktischen Anwendungen ist dieses Designkriterium meist nur bedingt erreichbar, weil Balkone und sonstige Aufbauten Bereiche abschatten und Lautsprecher nicht beliebig positioniert werden können. Die breite horizontale Abstrahlung der V10P hilft hier aber, einen guten Kompromiss zu finden.
Ebenfalls hinter den Musikern positioniert wurde ein Bassarray aus fünf kardioiden 18″- plus 12″-Bässen V-Sub. Die Wahl fiel hier wegen der homogenen Pegelverteilung im Publikumsraum auf eine Array-Anordnung und wegen einer möglichst guten zeitlichen Überlagerung der Schallereignisse auf die Aufstellung auf der Bühne hinter den Musikern. Trotz der ungewöhnlichen Positionierung der Basslautsprecher hinter den Musikern war es problemlos möglich, auch eine mikrofonierte große Trommel deutlich fühlbar zu verstärken und auch bei elektronischen Kompositionen hinreichend Schockwellen durchs Parkett zu schicken, ohne die im Nahbereich des Arrays sitzenden Musiker zu sehr zu beschallen.
Weitere Lautsprecher waren um den Publikumsbereich herum positioniert, die genutzt wurden, um die Spielfläche in den Raum zu erweitern und Quellen auch abseits der Bühne zu positionieren. Außerdem nutzt die Raumemulation En-Space alle Lautsprecher eines Setups, wobei eine hohe Laut- sprecherdichte zu einem realistischen Höreindruck führt. Die einzelnen Lautsprecher erzeugen dann weniger Pegel und werden dadurch akustisch nicht mehr als konzentrierte Quelle wahrgenommen. Die Raumlautsprecher-Anordnung bestand aus zehn Punktquellenlautsprechern Y10P (2 × 8″, 1 × 1,4″), die dank der Dipol-Anordnung der Tiefmitteltöner über eine ausgeprägte vertikale Richtwirkung verfügen. Dies trägt dazu bei, wenig Schall ungewollt ins Dach zu emittieren und den Raum damit nicht unnötig anzuregen. Unterstützung im Tiefbass erhielten die Topteile von zwei kardioiden Subwoofern Y-Sub (18″, 12″).
Gesteuert wurde das Gesamtsystem mit der d&b-Fernsteuerungssoftware R1 per AES70/OCA-Protokoll (Open Control Architecture), das in einem eigenen Steuerungsnetzwerk, unabhängig vom Dante-Audionetzwerk, an die Verstärker verteilt wurde.
Positives Fazit von Kritik und Künstlern
Die teils subtile, teils deutlich wahrnehmbare – aber stets behutsam eingesetzte – Verstärkung und Verfremdung der Instrumente wurden auch in der Presse aufgegriffen: „Alle Instrumente waren über Lautsprecher über den Raum verteilbar“, interagierten mit ihm, traten in neue Räume ein und nahmen sie in Besitz. „Zwei im Raum verteilte Geiger musizierten im Wechsel eine Violin-Solo-Sonate. Der Klang erwanderte die Konzerthalle wie einst Stockhausens Jünglinge, sauste real durch den Raum.” (Kölnische Rundschau vom 31.8.2020) Die Erfahrung der Musiker, dass sie endlich den gesamten Raum als Podium nutzen konnten und, weil sie nicht mehr an die baulich vorgegebene Akustik gebunden sind, ihre Musik ganz neu entdecken können, rundete den Konzertabend ab.
Immersive Audio im Open-Air-Einsatz
Ein ähnliches Setup, wie es in der Philharmonie genutzt wurde, war eine Woche später für ein abendliches Open-Air Konzert im Merkelpark (Esslingen) aufgebaut. Per En-Space wurde um den Klang der Instrumente herum ein virtueller Raum erzeugt. Die Zuhörer saßen – zusammen mit den Künstlern auf der Bühne – in einem Lautsprecherkreis. Das nötige Low-End lieferte ein kleines Bass-Array, bestehend aus d&b-Subwoofern B8.
Anders als in der Philharmonie existiert Open-Air keine Akustik eines Raumes, der die klassischen Instrumente auf natürlichem Weg verstärkt und verdeutlicht. Die Lautsprecher wurden daher ein- gesetzt, um der Darbietung den nicht vorhandenen Raum zurückzugeben. Frontal, hinter den Musikern auf der Bühne, waren sechs Lautsprecher Y10p auf Stativen in 3 m Höhe positioniert, die den Direktschall der Instrumente verstärkten und als virtuelle Bühnenrückwand und Deckenreflektor dienten. Weitere 14 Exemplare Y10p waren in einem Oval mit 34 m Durchmesser um den Zuhörerbereich positioniert. Diese Lautsprecher gaben das Reflexionsmuster einer angenehm warm klingenden Konzerthalle mit einer mittleren Nachhallzeit von 2,2 s wieder und dienten als virtuelle Seiten- beziehungsweise Rückwand.
Gerade im Open-Air-Einsatz besteht – trotz elektroakustischer Verstärkung – die Herausforderung, das Zusammen- spiel der Instrumente nicht zu stören und eine Intimität zwischen Zuhörern und Künstlern zu ermöglichen, wie wir sie aus einem Konzertsaal gewöhnt sind. Dadurch, dass bei der objektbasierten Beschallung für alle Zuhörer die akustische Ortung bei den gerade gespielten Instrumenten erhalten bleibt, fällt – trotz massiver Verstärkung – auch dem geübten Ohr kaum auf, dass elektronisch in den Klang ein- gegriffen wird. Mit dem dichten Lautsprecherraster um die Zuhörer herum, kann der Raumklang derart subtil ausgesteuert werden, dass erst auffällt, dass etwas fehlt, wenn die Emulation versuchsweise abgeschaltet wird. Mit den Möglichkeiten, die Raumemulationen und objekt- basierte Beschallung bieten, kann eine Open-Air-Beschallung also so umgesetzt werden, dass sie unseren Hörgewohnheiten klassischer Musik entspricht.
Übersetzungshilfe: Showcontrol per OSC
Mit seiner Einführung in den frühen 1980er Jahren ist der von vielen Musikern und Tonmeistern genutzte Industriestandart MIDI zur Steuerung von Instrumenten usw. deutlich in die Jahre gekommen und wird zunehmend von modernen Netzwerkprotokollen abgelöst. Dazu gehören AES70/OCA und OSC, die beide bei Baroque Immersions zum Einsatz kommen. Insbesondere bei der objektbasierten Beschallung gewinnt OSC als Kommunikationsstandard zwischen Hardware unterschiedlicher Hersteller zunehmend an Bedeutung. Als „Audioobjekt“ wird dabei der Verbund aus einem Audiosignal mit seinen Steuerinformationen bezeichnet. In der Soundscape-Welt werden die objektweisen Parameter x-Position, y-Position und Send zur Raumemulation benötigt, um ein Objekt räumlich und akustisch zu positionieren.
Darüber hinaus lassen sich weitere Parameter, wie zum Beispiel die Master-Lautstärke der Raumemulation und der gewählte Raum, steuern. Da sowohl das Behringer-Wing-Mischpult als auch der Matrixprozessor d&b DS100 per OSC gesteuert werden, bietet sich die Kombination der beiden Geräte an und es muss lediglich zwischen den OSC-Dialekten übersetzt werden.
Anders als bei MIDI definiert OSC nur die äußere Form, die erfüllt sein muss, damit ein Kommando als gültiges OSC-Paket erkannt wird. Festgelegte Befehle, wie bei Midi bekannt, zum Beispiel „Main Volume“, „Balance“ oder „Panorama“, gibt es nicht. Die Befehle werden in herstellerspezifischen Strings verpackt. Geräte unterschiedlicher Hersteller lassen sich also nur mittels Übersetzungstabellen miteinander vernetzen.
Für die Steuerung der x-Position eines Audioobjektes im DS100 wurde im Wing beispielsweise der PAN Regler des Bus 1 verwendet. Dieser lässt sich über den Befehl
/ch/(i)/send/1/pan
abfragen, wobei (i)den abzufragenden Kanal definiert. Im DS100 ist der x-Wert abrufbar unter
Um eine bidirektionale Kommunikation zwischen Pult und Prozessor zu ermöglichen, müssen also in einer externen Software die Empfangsstrings zerlegt und zu neuen Sendestrings zusammengesetzt werden. Die bidirektionale Übertragung hat den Vorteil, dass Änderungen sowohl am Mischpult als auch am Prozessor vorgenommen werden können, zum Beispiel via d&b R1-Fernsteuersoftware oder dem Soundscape-Plugin. Beide Geräte sind stets über den aktuellen Stand informiert und so lassen sich Objekte zum Beispiel mit der Maus auf der grafischen Oberfläche in R1 positionieren und anschließend die Parameter auf dem Pult in eine Szene speichern.
Für die Automation von Zuspielspuren kam die DAW Reaper mit dem d&b-Soundscape-Plugin zum Einsatz. Hier wurden während der Vorprogrammierung Positionen vorbereitet, die vor Ort auf das reale Setup appliziert werden. Außerdem lassen sich in der DAW Automationsspuren anlegen, die zeitliche Verläufe der Plugin-Parameter abbilden. So wanderten durch Automation der x- und y-Position Solisten in einem weiten Halbkreis um das Publikum und eine Zuspielspur sprang mit exaktem Timing von einer vorderen Position auf den Rang.
Konzertdramaturgie und Sounddesign
Wie das Sounddesign auf den Charakter verschiedener Werke angepasst wurde, zeigen diese Beispiele:
David Bergmüllers Lauten-Improvisation bot Spielraum für experimentelles Sounddesign. Vorgetragen aus dem Zuschauerraum erklang das Stück gewissermaßen aus dem Off. Ein langer, synthetischer Hall ließ das Instrument nach und nach den ganzen Raum ergreifen, um schließlich als Klangsphäre im Zuschauerraum zu schweben. Abgenommen wurde das Instrument hierzu mit zwei Mikrofonen und in zwei getrennt steuerbare Objekte zerlegt.
Das Lamento „Ach dass ich Wassers gnug hätt“ von Johann Christoph Bach ist für die Aufführung in Kirchenakustik komponiert. In der Philharmonie wurde die Akustik der San Vitale Kirche Ravenna genutzt, um dem Stück den Klangraum zu geben, für den es konzipiert wurde. Die Stimme des Countertenors William Shelton wurde mit einem KM184 eingefangen und leicht verstärkt. Neben dem Countertenor spielten zwei Geigen, eine Viola, das Cembalo, die Laute und die Gambe mit, alle fernmikrofiert mit KM184. Die Möglichkeit von EnSpace, Quellen unterschiedliche Direkt-zu-Diffusschall-Anteile zu geben, wurde genutzt, um bei den Instrumentalisten die Transparenz zu erhalten und gleichzeitig beim Countertenor eine prägnante Raumantwort zu erzielen, während alle Musiker dennoch in den gleichen akustischen Raum musizieren. Auch eine starke Erhöhung der Nachhallzeit mittels emulierter Kirchenakustik wirkt in der Philharmonie nicht künstlich, weil der optische und akustische Eindruck durch die schieren Dimensionen des Saales noch hinreichend zueinander passen.
Der Gambist Liam Byrne verwendet für seine Interpretation von Picforth’s „InNomine“ Loopstations und Ableton live. Die fünf Wiederholungen des InNomine-Motivs werden nacheinander live aufgezeichnet und phasenweise überlagert. Das Soundscape-System wurde verwendet, um die quadrophonische Komposition auf das Beschallungssetup zu übersetzen. Die Einzelspuren umwanderten den Zuschauer und jagten einander mit zunehmender Dichte durch den Raum.
Bei Johann Sebastian Bachs Fantasia amoll sollte das Cembalo mit seinem hellen, obertonreichen Klang behutsam verstärkt werden, um den intimen Charakter des Instruments zu erhalten und gleichzeitig für alle Zuhörer erfahrbar zu machen. Das Instrument wurde hierzu mit zwei Neumann-Mikrofonen KM184 abgenommen. Die Position des daraus erzeugten Sound-Objekts wurde direkt dem Cembalo zugeordnet. Die virtuelle Breite des Instruments wurde erhalten, der Klang lediglich mit EnSpace in den Raum integriert.
Für die zeitgenössische Komposition „Just“ des US-amerikanischen Komponisten David Lang wurde ein timecodegesteuertes Sounddesign arrangiert. Zwei aufgezeichnete Sopranstimmen augmentieren den live singenden Countertenor William Shelton (mikrofoniert mit DPA d:fine omni 4066). Der anfangs zentral vorgetragene Gesang driftet im Verlauf des zwölfminütigen Stücks mehr und mehr auseinander, die Einzelstimmen fragmentieren. Eine große Bassdrum, gespielt vom Percussionist Philipp Lamprecht, trägt den Zuhörer beschwörend durch das Stück.
William Shelton (Countertenor), Joosten Elée (Violine), Yves Ytier (Violine), Ildiko Ludwig (Viola), Liam Byrne (Viola da Gamba), David Bergmüller (Laute), Philipp
Lamprecht (Schlagzeug), Elina Albach (Cembalo & Truhenorgel)
Steven Walter (künstlerische Leitung), Simon Heinze (Sounddesign), Julian Ebert (Sounddesign), Anselm Bieber (Projektleitung), Jonas Krumsiek (Technik, N&M), Tobias Wendeler (Technik, N&M)
Gefördert vom Kuratorium KölnMusik e.V. und im Fonds Doppelpass der Kulturstiftung des Bundes. Eine Produktion von Podium Esslingen. Gefördert von der Kunststiftung NRW.