Nachdem sich KI immer weiter im Bereich der Musikproduktion ausgebreitet hat, könnte man meinen, dass sich auch im Bereich des Sounddesigns schon so einiges getan hat. Erstaunlicherweise ist das bisher noch nicht so, aber das wird höchstwahrscheinlich nur eine Frage der Zeit sein.
Anzeige
In Sachen Sounddesign klammere ich an dieser Stelle ganz bewusst KI-Tools aus, mit denen sich beispielsweise eine Stimme durch eine komplett andere Stimme ersetzen lässt. Natürlich ist auch das auf eine gewisse Art und Weise Sounddesign, wenn der eigene Song von Freddie Mercury anstatt von Max Mustermann gesungen oder Lieschen Müller plötzlich wie Taylor Swift (Grüße an den Chefredakteur) klingt. Wir wollen aber ja in dieser Reihe ein wenig mehr in den eigentlichen Sound eingreifen, und daher schauen wir uns in dieser Ausgabe zwei Möglichkeiten an, um mit aktuellen KI-Tools interessante neue Sounds zu erstellen.
Der Synthesizer Synplant 2 von der Plug-in-Schmiede Sonic Charge ist vor einigen Monaten erschienen und hat eine neue, spannende Funktion mitgebracht: Genopatch. Mit diesem netten Begriff wird eine KI-unterstützte Resynthese-Funktion beschrieben, die praktischerweise sehr einfach funktioniert. Man zieht via Drag&Drop ein Sample auf die dafür vorbestimmte Fläche, klickt auf den Analyse-Button, und anschließend erstellt das Plug-in vier verschiedene »DNA-Stränge«, auf denen immer wieder Varianten des Sounds aufploppen. Diese sind gezielt anwählbar und damit spielbar. Die neuen Soundvarianten basieren dann nicht mehr auf dem Sample als tonerzeugendes Rohmaterial, sondern auf den Synthesizerkomponenten des Plug-ins, also Oszillatoren, Filter, Modulatoren etc.
Die erzielten Ergebnisse sind teilweise beeindruckend – vor allem bei kurzen und einfachen Sounds. Allerdings ist das Plug-in nicht in der Lage, längere und komplex modulierte Sounds zu imitieren. Kurze Bässe funktionieren aber beispielsweise sehr gut, und vor allem entstehen bei dem Prozess jede Menge weitere interessante Sounds, die sich dann auch im Plug-in editieren lassen. Die UI ist dabei etwas gewöhnungsbedürftig, denn das ganze »DNA-Strang/Genetik«-Thema wird konsequent durchgezogen. Als Ideenlieferant ist es also ein spannendes Tool – durch die komplexe UI ersetzt es jedoch keinen der Standardsynthesizer.
BesserE Samples dank Unmixing. Noch vor wenigen Jahren galt es als quasi-unmöglich, einzelne Instrumente innerhalb eines Stereomixes nachträglich zu bearbeiten. Man konnte auf bestimmte Frequenzbereiche einwirken, beispielsweise mit einem EQ, aber dadurch dann eben alles beeinflussen, was sich dort an Elementen tummelt.
Dank neuer Algorithmen und KI bzw. Machine Learning gilt diese Regel heute allerdings nicht mehr, denn inzwischen gibt es einige Tools, die das Auftrennen eines kompletten Mixes in verschiedene Instrumentengruppen erlauben. Genannt seien hier beispielsweise Izotope RX10, Remix von Acon Digital, Steinbergs SpectraLayers Pro 10 oder Image-Lines FL Studio 21. Und Logic Pro 11 hat mit dem neuesten Update ebenfalls solche Funktionen spendiert bekommen.
Für die Zukunft werden es nicht weniger werden, denn das ganze Thema Stem Seperation bzw. Unmixing ermöglicht ganz neue kreative Remix- und Eingriffsmöglichkeiten. Qualitativ ist das Ganze ebenfalls schon relativ gut und wird sich sicher in den nächsten Jahren noch deutlich verbessern.
Klassisches Sampling ist damit deutlich einfacher, denn vorbei sind die Zeiten, in denen man mühsam nach Stellen in einem Song suchen musste, an denen das gewünschte Instrument möglichst solo spielt oder zumindest wenige andere Sounds mitrappeln. Jetzt kann man den Song einfach in seine Elemente bzw. Stems zerlegen und das gewünschte Element herausschneiden. Mit einem Spektraleditor wie RX, SpectralLayers, WaveLab oder Audition geht das sogar frequenz- und nicht nur zeitselektiv. Wir können den Sound also noch mal genauer heraustrennen und somit sicherstellen, dass wirklich so wenige Nebengeräusche wie möglich vorhanden sind. Somit haben wir neues Futter für Sampler oder Granularsynthesizer.
Neue Noises.Wer für seine Produktion verrücktes Noise-Material benötigt, sollte sich die vielen neuen Voice-Denoising-Tools anschauen, die Sprache inzwischen sehr sauber von Noise, Reverb und sonstigen Geräuschen trennen. Die Ergebnisse sind dank Machine Learning teilweise erstaunlich. Viele dieser Tools bieten die Möglichkeit, sich die entfernten Signalanteile solo anzuhören. Wer diese wiederum dann bounced bzw. aufnimmt, erhält teilweise sehr interessantes Noise-Material, welches dann wiederum Teil von etwas Neuem werden kann.
Ausblick:Im Bereich des reinen Sounddesigns wird die große KI-Welle vermutlich noch kommen, und wir werden Tools sehen, die uns Standardaufgaben abnehmen, damit wir uns mehr auf die kreative Arbeit konzentrieren können. Es wird auf jeden Fall spannend, und uns werden sich ganz neue Möglichkeiten eröffnen. Viel Spaß beim Experimentieren!