Songwriting-Revolution? Komponieren mit künstlicher Intelligenz
von Nicolay Ketterer,
Anzeige
KI-Software verspricht, Musik im Stil legendärer Musiker zu komponieren — eine Forschungsgruppe hat kürzlich einen »künstlichen« Song im Stil der Beatles vorgelegt. Wo liegen die Grenzen künstlicher Komposition? Werden Komponisten durch Software ersetzt? Wir fragen dazu Prof. Dr. Francisco Tigre Moura, der an der Internationalen Hochschule in Bad Honnef (IUBH) lehrt und die sozialen Veränderungen durch »unmenschliche« Komposition untersucht.
Bislang, so mag man meinen, dient technischer Fortschritt dem Nutzer vor allem als Unterstützung: Drumcomputer, Plug-ins oder (Software-)Sequenzer und DAWs sind schlicht Werkzeuge, um die menschliche Kreativität effizienter zu nutzen. Prof. Dr. Francisco Tigre Moura, brasilianischer Forscher, kündigt indes ein neues Zeitalter an: »Bald«, so Tigre Moura, »werden sich Maschinen durch künstliche Intelligenz als Komponisten etablieren.«
Anzeige
Tigre Moura lehrt seit 2013 Marketing an der internationalen Hochschule in Bad Honnef (IUBH). Im Rahmen seines Forschungsprojekts »Musicstats.org« untersucht er mit einer Forschungsgruppe Zusammenhänge von Marketing und Musik. Tigre Moura ist in seiner Freizeit selbst Singer/Songwriter, prognostiziert »herkömmlichen« Komposition allerdings eine durchwachsene Zukunft − Zeit für ein Gespräch.
Wie darf ich mir Komposition mit künstlicher Intelligenz vorstellen? Wird ein Algorithmus mit jeder Menge Kompositionen der Menschheit gefüttert und leitet daraus Regeln ab, welche Kompositionen Sinn ergeben und welche nicht?
Zunächst muss man verstehen, dass Komposition nichts anderes ist als Mathematik. Alle Kompositionen können aus einer mathematischen Perspektive beschrieben werden. Einfach ausgedrückt: KI-Technologie kann Muster in der Struktur eines Stücks erkennen − zum Beispiel die verwendeten Akkorde, die Noten einer Melodie, Wiederholungen oder Abwandlungen. Basierend auf diesen Mustern kann KI die »Logik« eines musikalischen Genres nachvollziehen und schließlich einen unendlichen Fundus neuer Kompositionen erschaffen, die an Originale angelehnt sind oder sich bewusst davon unterscheiden.
Welche Art von Computern braucht der KI-Algorithmus zum Arbeiten? Reichen herkömmliche Windows-Desktop-Rechner, oder sind aufgrund der Datenmengen, die bei neuronalen Netzen entstehen, Großrechner notwendig?
Theoretisch reicht ein herkömmlicher Rechner, aber die Rechenoperationen, die von KI ausgeführt werden, sind zu ausufernd. Es braucht dazu weit entwickelte GPUs.
Auf der Website www.musicstats.org präsentierst du Thesen, wie Musik und Vermarktung zusammenhängen. Wie sieht die Forschung bezüglich »künstlicher« Kompositionen und ihrer Wahrnehmung bei den Hörern aus?
Auf musicstats.org führen wir Verhaltensstudien durch. Unter anderem sehen wir uns an, wie Menschen auf Musik reagieren, die von Software erschaffen wurde, und in welchen Kontexten KI-Musik angewendet werden kann. Als Forscher entwickle ich Verhaltensstudien im Bezug der Wirkung von KI auf die Entwicklung der Kunst und wie Hörer das wahrnehmen. Das ist eines unserer Forschungsgebiete bei musicstats.org. Es kann gut sein, dass wir bald eine Antwort darauf haben. In den Studien haben wir KI-Musikstücke von unterschiedlichen Forschungsgruppen verwendet − Melomics und Flow Machines [www.melomics.com, www.flowmachines.com].
Als Beispiel-Song zum Thema KI empfiehlst du die Komposition Daddy’s Car, die der erwähnten Forschungsgruppe Flow Machines von Sony Music in Paris entstammt. Wenn ich den Song anhöre, kann ich melodische, Beatles-typische Referenzen hören, gleichzeitig bleibt der Eindruck eines abstrakten psychedelischen Songs. In der Hörerinnerung bleiben weder Hookline noch Melodien bei mir hängen. Woran kann das liegen?
Eine KI-Software hat die Möglichkeit, Songs in jedem Genre oder Stil zu komponieren. Das Ergebnis hängt nur davon ab, welches Datenmaterial ihr zugeführt wurde. Auf die gleiche Art, wie Paul McCartney zum Beispiel experimentelle Songs wie Penny Lane für die Beatles komponierte, hat er auch Pop-Songs mit simpleren Strukturen geschrieben, wie Yesterday. KI kann genau das gleiche, nur viel mehr davon. Die Software oder ihr Potenzial lässt sich nicht nur an einem Song beurteilen, aber der Song − wenngleich er von Menschen eingespielt wurde − kann zeigen, wie weit die Technologie bereits ist. Behält man im Hinterkopf, dass Technologie exponentiell wächst, werden sich die Ergebnisse weiter verbessern. Tatsächlich wird Sony Music dieses Jahr das erste Album veröffentlichen, bei dem alle Songs von KI komponiert wurden. Es wird sehr interessant, die Reaktionen zu analysieren.
Der Text ist indes nicht »künstlich«, sondern stammt von dem französischen Komponisten Benoît Carré, der das Stück auch arrangiert und produziert hat. Da Software bereits in der Lage ist, Texte zu schreiben: Wird KI künftig auch sinnvolle Songtexte selbst erzeugen können?
Selbstverständlich! Grammatik und Sprache stellen lediglich eine weitere Variable dar, um Muster zu identifizieren, zu verstehen und zu kreieren. Es gibt bereits zahl – lose Beispiele von Software, die in der Lage ist, Artikel oder sogar Bücher zu schreiben. Im Bezug auf die Sinnfrage: Im Bereich Kunst ist die Interpretation gänzlich subjektiv. Die Sinnhaftigkeit liegt möglicherweise schlicht darin, wie man sie interpretiert anstatt am Wortsinn zu kleben. Insofern kann KI sehr gut »sinnvolle« Texte schreiben.
Mir scheint, eine der Stärken eines menschlichen Komponisten besteht im Filtern von Kombinationsmöglichkeiten durch Akkorde, Melodien und Rhythmik. Er entscheidet sich intuitiv für Kombinationen, die ihm gefallen, bedingt durch die musikbezogene Sozialisation. Wird künstliche Intelligenz jemals eine »Bewusstseinsstufe« erreichen können, um eine ähnliche kognitive Leistung zu erbringen?
Ich vermute, du meinst die Subjektivität von Menschen, die auf ihren vorherigen Erfahrungen beruht? Das hängt davon ab, wie man »Kreativität« definiert. KI erzeugt Kompositionen basierend auf vorhergehenden Musikmustern, die von Menschen erzeugt wurden. In dem Sinn ist das Ergebnis also mit Menschen »verwandt«. Aber durch »Versuch und Irrtum« identifiziert KI die Unterschiede seiner Erzeugnisse, was ansprechend wirkt und was nicht, und lernt durch den Prozess. Intuitiv zu sein ist ein sehr wichtiges Feature von KI! Es wird eine sehr hohe Erfolgsrate erzielen, mit der Möglichkeit, jegliches menschliche Gefühl auszulösen. Die Frage, die nur die Zeit beantworten kann: Wenn ein Song dich erreicht, ist es dann wichtig, ob er von künstlicher Intelligenz komponiert wurde? Das ist einer meiner wichtigsten Forschungsansätze.
Stichwort Intuition: Worin bestehen generell die Unterschiede zwischen trainierten KI-Algorithmen und der komplexen menschlichen Intuition eines − anspruchsvollen − Komponisten?
Man kann argumentieren, dass Menschen immer in der Lage sein werden, zu improvisieren oder einen »Human Touch« hinzufügen, den Maschinen nie leisten können. Ich persönlich möchte das gerne glauben! Auf der anderen Seite kann Improvisation schlicht eine weitere, komplexe Aufgabe sein, die »Deep Learning«-Maschinen über die Zeit erlernen können. Dem Musikmachen wird immer eine Skala zugrunde liegen, in der ein Musiker improvisieren kann. Das ist nichts anderes als ein Muster, das identifiziert und von Software gespielt werden kann.
Schachweltmeister und Autor Gerri Kasparow, der in den 1990er-Jahren die Schachpartien gegen den IBM-Computer Deep Blue bestritt, hat im Rahmen der diesjährigen Republica-Konferenz in einem von der FAZ veröffentlichten Gespräch erwähnt, dass Maschinen immer schon einzelne menschliche Funktionen übernommen hätten: Alles, von dem wir wüssten, wie es gemacht wird, könnten Maschinen irgendwann besser. Dadurch würden die Dinge wichtiger, von denen wir es nicht wissen, so Kasparow. Er erwähnt Kunst als ein Gebiet, auf dem uns künstliche Intelligenz die Vorherrschaft nicht streitig machen könne: »Man kann nicht begründen, warum Picasso wichtiger ist als Dalí. Das ist nicht quantifizierbar. In den Bereichen, die unser Wissen überschreiten, müssen auch Maschinen noch dazulernen.«
Dem stimme ich zu! Die Herausforderung liegt darin, dass der Wert eines Kunstwerks höchst subjektiv ist und viele »menschliche« Elemente beinhaltet, darunter den Ursprung des Künstlers oder den Kontext der Entstehung − zum Beispiel der historische Zeitpunkt sowie das politische und soziale Klima. All diese Faktoren beeinflussen die Beurteilung der Werke von Komponisten wie etwa Bob Dylan.
Was allerdings die Technik und den Akt des Erschaffens betrifft − sowohl einen Pinselstrich auf einer weißen Leinwand wie auch das Schreiben eines Musikstücks −, den können Maschinen bereits nachmachen und perfekt kreieren. Wenn wir die exponentiell wachsenden Möglichkeiten berücksichtigen, erscheint unvorstellbar, was künstliche Intelligenz im nächsten Jahrzehnt erreichen kann.
Die Entwicklung von Deep Blue mit schnell arbeitenden Parallelprozessoren, so Kasparow, sei eine Sackgasse gewesen. Das Watson-Projekt von IBM hingegen, das sich mit semantischen Zusammenhängen befasst, sei ein Schritt in die richtige Richtung …
In der Entwicklung ist viel passiert seit Deep Blue und den Möglichkeiten von KI − Watson ist beispielsweise unglaublich weiterentwickelt. Daher gehe ich davon aus, dass musikalische Kreativität bald vorhersehbar und identifizierbar sein wird.
Kasparow schränkt ein, der technische Fortschritt habe uns zwar oft eines Besseren belehrt, »… aber große Literatur, Kunst oder Musik kann nicht in Mikroelemente zerlegt werden. Maschinen haben Algorithmen.« Sie hätten weder Leidenschaft noch Gedanken. »Und sie werden sie nie haben. Maschinen träumen nicht. Dadurch erschaffen wir große Kunst. Es wird buchstäblich unmöglich für Maschinen sein, das nachzumachen.« Wie siehst du das?
Dem stimme ich einerseits zu, möchte aber gleichzeitig widersprechen: Maschinen können keine Gefühle haben und sich nicht selbst ausdrücken, basierend auf aufrichtigen Absichten.
Das gilt allerdings auch nicht für Kunst. Nicht jeder Musiker oder Maler arbeitet ausschließlich auf Träumen und Gefühlen basierend, sondern oft auch auf kommerziellen Druck oder Trends hin. Das gilt für Pop-Künstler im Bezug auf die Charts, für DJs in Nachtclubs bis hin zu Werbejingles und vielem mehr. In diesen Fällen wird es Maschinen möglich sein, sehr viel genauer, akkurater mit viel größerer Genauigkeit potenziell zu kreieren, weil sie schlicht ein größeres Datenvolumen zum Arbeiten haben, mit größerer Rechenleistung zur Bearbeitung.
Abseits der Reproduktion von Stilrichtungen verschiedener Künstler und bestimmter Genres: Hat KI das Potenzial, neue Genres oder Kunstformen zu schaffen, die von Hörern als solche wertgeschätzt werden?
Das glaube ich! Im Bereich Kunst tendiert eine neue Bewegung immer dazu, ein Gegensatz zum vorherigen zu sein. Es kann also gut sein, dass eine neue Generation von Hörern oder eine Subkultur entsteht, die sich selbst von Menschen distanzieren will − beispielsweise als Konsequenz von negativen globalen Problemen, die von Menschen geschaffen wurden. Die bevorzugen vielleicht die »Neutralität« oder »Unpersönlichkeit« von Software-Komposition.
Und was neue Stilrichtungen angeht: definitiv! So wie Noten und Akkordfolgen sind Musikinstrumente schlicht eine weitere Variable, die in die Komposition mit eingeht. Wenn eine Software eine Million unterschiedliche Kompositionen mit unterschiedlichen Kombinationen generiert, besteht statistisch eine große Chance, dass ein »neues« Genre dabei entsteht, das vielen Hörern gefällt.
Als eine von vielen möglichen Anwendungen erwähnt deine Forschung, dass KI-Komposition eingesetzt werden könnte, um Publikumsreaktionen in einem Club zu messen und die Komposition darauf in Echtzeit reagieren zu lassen. Wie wahrscheinlich ist das Szenario? Wie lange wird es dauern, bis so etwas praxistauglich wäre?
Einen Zeitrahmen zu definieren ist sehr schwierig, wenn es um Technologie geht, da sie exponentiell wächst. Zunächst aber bräuchte es eine breitere Entwicklung von tragbaren Geräten, die menschliche Emotionen − und andere Rückmeldungen − nachverfolgen und auswerten. Das müsste mit der Technik des DJs gekoppelt werden, sodass er oder sie Rückmeldungen in Echtzeit bekommt.
Generell gesprochen, wird KI den (Markt-)Wert menschlicher Komponisten mindern, um von Seiten der Industrie Tantiemen zu sparen? Oder wird es schlicht ein weiteres Werkzeug für bestimmte Anwendungen sein, so wie Ein-Mann-MIDI-Wiedergabe vorwiegend einen Alleinunterhaltermarkt bedient, aber keine klassischen Bands ersetzt? Im Falle von KI-Kompositionen vielleicht gezielte Stimmungsmusik auf Spotify? Nicht zu vergessen den lukrativen Markt der Beschallung von Kaufhäusern, Warteschleifen, Fahrstühlen, Arztpraxen oder Hotels …
Na ja, es tut mir sehr leid, das zu sagen, aber ich glaube, dass dadurch der Wert von Musikern und Komponisten in der Gesellschaft reduziert wird. Meine hauptsächliche These besagt, dass, wenn du bei einem Konzertbesuch nicht davon ausgehst, dass der Musiker den Song geschrieben hat, die Annahme bereits den Wert dieses Musikers reduziert.
Und das ist unglücklicherweise kein neues Phänomen. Nimm Fotografie als Beispiel: Vor Jahrzehnten waren Fotografen hoch angesehen, wegen der notwendigen Fähigkeiten für gute Fotos und dem Entwickeln der Bilder. Heutzutage kann jedes Smartphone erstaunliche Bilder liefern und Helligkeit, Fokus etc. einstellen. Es könnte also sein, dass Musiker schlicht mehr für ihre Fähigkeit als Performer geschätzt werden statt dafür, einen großartigen Song zu schreiben. Als Songwriter finde ich das persönlich ziemlich traurig. Aber wir dürfen nicht vergessen: Plattenfirmen haben jahrzehntelang Musiker angeheuert, um Songs zu schreiben, die von großartigen Sängern gesungen wurden. Auf die Art wurden Millionen von Platten verkauft. Würde das einen Unterschied machen, wenn KI die Songs geschrieben hätte?
Wäre ein möglicher Einsatz die Kombination aus beidem − sodass sich ein Komponist »assistieren« lässt, etwa beim Finden von Bridges oder Middle-8-Parts für die eigenen Kompositionen, in stilistisch passender Weise?
Absolut, Software kann sicher beim Entstehen eines Songs, der sozusagen »organisch« anfing, unterstützen. Das ist eine weitere Möglichkeit, die Technologie einzusetzen, Mensch und Maschine miteinander verschmelzen zu lassen.
Was deine eigene Platte angeht: warst du selbst versucht, KI-Kompositions-Möglichkeiten einzusetzen, wenn sich einzelne Songs in einer kompositorischen Sackgasse befanden?
Überhaupt nicht. Das entspricht meinem ursprünglichen Anliegen. Ich bin sehr leidenschaftlich bezüglich der organischen Art des Musikmachens.
Man könnte die Zukunft »menschlicher« Komponisten auch umgekehrt betrachten: Mit dem Aufkommen von digitaler Aufnahmetechnik und Software-Emulationen hat die gesamte Recording-Branche den Wandel vollzogen. Gleichzeitig entstand ein Retro-Trend und ein Bewusstsein für besonders gelungene Analogtechnik − Röhrenmikrofone, Vorverstärker etc. −, die heute höhere Preise denn je erzielt und auch neue Entwicklungen befördert hat. Der Vinyl-Hype entstand auch als Gegenbewegung zum Download. Während KI für bestimmte Marktsegmente funktionieren mag, könnte es umgekehrt sein, dass »menschliche Musik« in ihrem Bereich dadurch an Wertschätzung gewinnt?
Sicherlich entsteht zu jeder Bewegung eine Gegenbewegung. Die Frage wird allerdings sein, welcher Markt der stärkste wird. Der Hauptaspekt von Technologie besteht darin, dass sie Prozesse verbessert, und dadurch die tatsächlichen Kosten reduziert. Menschen sind allgemein sehr preisbewusst. Aber es wird immer eine Gruppe von Musikliebhabern geben, die − wie ich − den »menschlichen« Ansatz bevorzugen.
Die Frage wird allerdings sein: Wie können wir uns sicher sein, dass es menschliche Kompositionen sind? Der Menschheit wird es nicht möglich sein, den tatsächlichen Ursprung zu erkennen, und als Konsequenz könnte das schlicht den Wert von Kunst insgesamt schmälern. Dennoch hoffe ich wirklich zutiefst, dass das nicht passiert.
Der Menschheit wird es nicht möglich sein, den tatsächlichen Ursprung zu erkennen, “und als Konsequenz könnte das schlicht den Wert von Kunst insgesamt schmälern. Dennoch hoffe ich wirklich zutiefst, dass das nicht passiert.” wenn ich das schon leses …offen … zutiefst … das höre ich ständig und was passiert? … dieser schmierige Prof. macht mich schon aggro, für den ganzen Mist gibt es doch nur eine Antwort: lasst es sein, überlasst die kreative Schöpfung doch den Menschen, keine zwingt jemanden so eine besch. ….. Software auf den Markt zu bringen … der Anreiz wird sein das noch mehr Nulltalente probieren Geld zu machen, wie diese Wich …. mit dieser Software.
Es ist keineswegs zwangsläufig, immer mehr auf AI zu setzen. Die Menschheit kann auch anderswohin abbiegen. Der Wunsch, Schöpfergott zu sein, oder Gott zu übertreffen oder wenigstens einzuholen, wird täglich durch unseren exorbitanten Ressourcenverbrauch und die damit einhergehende Zerstörung unseres Planeten konterkariert. Francisco Tigre Moura beeindruckt mich wenig, Paul McCartney umso mehr.
Der Menschheit wird es nicht möglich sein, den tatsächlichen Ursprung zu erkennen, “und als Konsequenz könnte das schlicht den Wert von Kunst insgesamt schmälern. Dennoch hoffe ich wirklich zutiefst, dass das nicht passiert.” wenn ich das schon leses …offen … zutiefst … das höre ich ständig und was passiert? … dieser schmierige Prof. macht mich schon aggro, für den ganzen Mist gibt es doch nur eine Antwort: lasst es sein, überlasst die kreative Schöpfung doch den Menschen, keine zwingt jemanden so eine besch. ….. Software auf den Markt zu bringen … der Anreiz wird sein das noch mehr Nulltalente probieren Geld zu machen, wie diese Wich …. mit dieser Software.
Es ist keineswegs zwangsläufig, immer mehr auf AI zu setzen. Die Menschheit kann auch anderswohin abbiegen. Der Wunsch, Schöpfergott zu sein, oder Gott zu übertreffen oder wenigstens einzuholen, wird täglich durch unseren exorbitanten Ressourcenverbrauch und die damit einhergehende Zerstörung unseres Planeten konterkariert. Francisco Tigre Moura beeindruckt mich wenig, Paul McCartney umso mehr.