Entdeckt
AIfixed
Freitag, 26. Mai 2017, 00:00 Uhr

Künstliche Intelligenz Komponiert

Robots Don't Sleep

Dass Computersysteme selbstständig lernen, komplexe Sachverhalte verstehen und lösen können, das gilt schon lange nicht mehr als Zukunftsvision. Aber so eine Maschine wird doch nie in der Lage sein, Choräle der Wiener Klassik so nach zu komponieren, dass selbst Fachleute nicht den Unterschied merken. Oder etwa doch?

Ob wir auf dem Smartphone Sprachassistenzsysteme wie Siri oder Cortana nutzen, um ein Restaurant in der Nähe zu finden, mit Google Translate eine koreanische Webseite auf Deutsch übersetzen lassen, in unserem Fahrzeug Autopilotfunktionen aktivieren oder ob der Versuch einer betrügerischen Nutzung unserer Kreditkartendaten vereitelt wird, immer steckt KI dahinter.
so Professor Wolfgang Wahlster,  der Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI).
Soweit so gut. Künstliche Intelligenz ist also in Bezug auf Dienstleistungen in unser aller Alltag mehr als genug vorhanden. Für den Laien stellt sich trotzdem die Grundsatzfrage: Was ist künstliche Intelligenz? Und warum wird von Intelligenz gesprochen?
Artificial Intelligence, so der englische Name, umfasst zuerst ein Teilgebiet der Informatik, in dem es darum geht, Computer so zu bauen und zu programmieren, dass sie in der Lage sind, eigenständig Probleme zu bearbeiten - handele es sich um die genannte koreanische Website oder komplizierte mathematische Gleichungen.
Also egos fragt ihr euch aber nun sicher auch:

Was hat K.I. mit Musik zu tun?
Gar nichts - so zumindest jahrelang die vorherrschende Meinung. Und nicht wenige Musikliebhaber werden zustimmen. Ein Computerprogramm, das in der Lage ist Musik zu komponieren, die Stimmung und Gefühle transportieren soll? Zukunftsmusik!
Das Projekt Flow Machines aus Frankreich hat es sich aber zur Aufgabe gemacht diesen Schritt zu meistern. Das Team um François Pachet arbeitet immer mit der gleichen Herangehensweise daran, Lieder aus unterschiedlichen Genres, zu kreieren.
Am Anfang des Schaffensprozess werden der K.I. eine Vielzahl von Songs gegeben. Dieser Input bestimmt dann im Prinzip durch den vorgegebenen Stil auch den späteren Output. Für den Song „Mister Shadow“ haben die Forscher im Sony CSL Research Labratory der Künstlichen Intelligenz Musik von amerikanischen Songwritern eingespeist - unter anderem von Irving Berlin, Duke Ellington, George Gershwin und Cole Porter. Produziert und arrangiert wurde das Ergebnis dann von Benoît Carré, einem französischem Komponisten, der außerdem auch die Lyrics geschrieben hat.



Verwendet wird übrigens unter anderem ein Programm, das in der Lage ist, die Stimme so zu manipulieren, dass sie nach einem bestimmten Vokalisten klingt. Wenn man das also mal weiterspinnt, würde das bedeuten: Biggie und Tupac könnten sich schon bald wieder beefen!

Ein anderes Werk aus demselben Kollektiv, das übrigens an der Universität Pierre und Marie Curie forscht, klingt ebenfalls sehr vielversprechend. Für den Song „Daddy´s Car“ galten die Beatles als Vorlage, auch hier war im Endeffekt Benoît Carré federführend. Wie das Ganze dann letztendlich klingt, hört ihr hier.



Das Programm „Flow Machines" ist also weit genug ausgereift, um anhand von bereits bestehender Musik zu komponieren. Trotzallem können MusikerInnen erstmal noch aufatmen: die letzten Handgriffe muss immer noch ein Mensch ansetzen. Und überhaupt, wie soll auf einem Konzert, bei dem auf der Bühne nur ein Computer steht, Stimmung aufkommen?

Kanye West aus der BlechdoseRobbie Barrat, ein 17-Jähriger aus West Virginia, Gründer und Vorsitzender des Programmierklubs an seiner Highschool, hat eine Künstliche Intelligenz so programmiert, dass sie Rap-Songs schreiben kann - und zwar nicht nur bestehende Zeilen zusammensetzen, sondern sogar Wort für Wort neue Lines dichten. Tatsächlich passiert das Ganze dann im Versmaß, alles reimt sich:


My mama used to stay recession free
All my friends says implants is a beat from Ye
I want is what I do, act more stupidly
With no response make you wait longer than A.C.
Loud as a shorty I looked up to this degree
Young Walt Disney, I'ma tell you once ting
Straight to jail, yo, in a Bentley shining
Why you trying to make it just ring and ring
Now why would I listen to T-Pain and sing


Dazu hat er, ähnlich wie das Forschungsprojekt in Paris, ungefähr 6000 Zeilen von Kanye West eingegeben. Dem trainierten Yeezus-Jünger wird natürlich auffallen aus welchem Song die jeweiligen Schnipsel stammen.
Das Ergebnis ist inhaltlich sehr interessant, klingt im Video allerdings so als wären Alvin und die Chipmunks in einer Blechdose eingesperrt.



Gleichzeitig war der gute Herr so freundlich, uns allen die Möglichkeit zu eröffnen die K.I. auch zu nutzen. Wer also aus anderen amerikanischen Songtexten neue Verse kreieren will, der muss nur hier klicken. Und wer ein bisschen technisches Know-How mitbringt, der darf uns von der egoRedaktion gerne Bescheid geben - wir wünschen uns Bob Dylan versus Tyler, the Creator sowie Thom Yorke versus Major Lazer.

Der Marktführer spielt mitGoogle hat in den letzten paar Jahren den eigenen Einflussbereich in so ziemlich jeden Aspekt des Alltags erweitert. Mit dem Programm NSynth (Neural Audio Synthesis) wurde ein Weg geschaffen neue Töne zu erzeugen. Im Stil eines Synthesizers, nur anders.
NSynth lernt direkt von der eingespeisten Datenmenge, kreiert aus den eingespeisten Tönen dann neue Töne. Dabei wurden Flöten-, Orgel-, Bass- oder auch ein Glockenspiel durch die künstliche Intelligenz verändert und die Frequenzen in mehrere Lagen gefächert, woraufhin einzelne Lagen verändert und wieder zusammengefügt wurden. Hörbeispiele aus dem Prozess findet ihr hier.
Letztendlich klingt der kreative Output der Maschine erstmal nicht groß anders als das eingespeiste Instrument. Die Qualität des Outputs hängt natürlich von der Qualität des Inputs, sprich des Instruments ab, und der vorhandenen Lerndatenmenge.
Auch hier ist, ähnlich wie beim französischen Sony CSL Research Labratory, der Ansatz, den Künstler unterstützend im kreativen Prozess zu begleiten. Sprich die künstliche Intelligenz verändert entweder Töne, um eine neue Individualität zu schaffen oder eben, wie bei Flow Machines, wird basierend auf bestehenden Werken neu komponiert.

Und was heißt das für uns Hörer?Nun ja, erstmal gar nichts. Bis diese Projekte soweit fortgeschritten sind, dass sie aus keiner Produktion mehr wegzudenken sind, werden wohl noch einige Jahre vergehen. Oder es passiert nie. Und die Art wie wir musizieren oder wie Musik für uns Hörer klingt, wird sich dadurch auch nicht groß verändern, schließlich wird ja nur auf Bestehendem gebaut. Klar, auf neue Töne und Klänge können wir gespannt sein, auch auf neue Lieder von toten Menschen können wir warten. Aber die Revolution bleibt erstmal aus.

Was allerdings eine bedeutende Änderung sein könnte: Eine K.I., die intelligent genug ist, Musik außerhalb des gängigen Notensystems, der geltenden Rhythmusregeln und mit Texten außerhalb des gängigen Versmaßes zu kreieren. Das wäre eine Revolution, sowohl technisch, als auch musikalisch.
Nur: Atonale Musik haben einige Menschen schon viel früher gemacht.


Bildquelle: flickr | "Philosoputer" von Post-Software | CC BY-SA 2.0