7 Min
Zweifellos kann KI unglaublich viele Prozesse optimieren und unsere täglichen Routinetätigkeiten schneller und effizienter machen. KI ist eng in unser Leben integriert und bleibt gleichzeitig im Verborgenen. Oft bemerken die Nutzerinnen und Nutzer die Präsenz von KI in ihrem Leben gar nicht.
Als Zivilisation bewegen wir uns jedoch unweigerlich auf eine Grenze zu, an der die KI ihre Grenzen erweitern und einige menschliche Tätigkeiten verdrängen und ersetzen wird. Das geschieht bereits heute, wenn wir über KI-generierte Kunst, Texte, Musik und sogar Modetrends sprechen.
Die amerikanische Sängerin und elektronische Musikkünstlerin Grimes, die erst kürzlich ihren Namen in c geändert hat, erklärte, dass wir anscheinend im Zeitalter des Untergangs der Kunst leben - zumindest der menschlichen Kunst.
Wenn es erst einmal AGI (Artificial General Intelligence) gibt, werden sie so viel besser darin sein, Kunst zu machen als wir.
-Grimes
Ein Jahr später hat c (Grimes) ein personalisiertes, endloses digitales Wiegenlied für die Endel-App geschrieben. Sie lieferte die Musikgrundlage, und die künstliche Intelligenz der App ändert sie nun ständig und passt sie an die Tageszeit, das Wetter, die Vorlieben, die Bewegung und die Herzfrequenz des jeweiligen Nutzers an.
Wenn wir früher über das Komponieren von Musik sprachen, war der Prozess selbst immer "heilig". Wird die KI-Musikgeneration das Mysterium oder das Sakrale in der Musik auslöschen oder sie anderweitig bereichern und der Kunst mehr Raum über dem Kommerz geben, und kann ein Roboter eine Symphonie schreiben? Um diese Frage zu beantworten, müssen wir einen genaueren Blick darauf werfen.
Das erste Musikstück, das mit künstlicher Intelligenz komponiert wurde, erschien 1956. Zwei Professoren an der Universität von Illinois, Lejaren Hiller und Leonard Isaacson, benutzten den Illiac-Computer der Universität. Hiller und Isaacson gaben die Regeln vor, aus denen die Maschine einen Code generierte, der dann in Noten umgesetzt wurde. Das Ergebnis des Experiments war ein vierteiliges Werk für Streicher, das Hiller und Isaacson die Illiak Suite nannten.
Später im Jahr 1960 veröffentlichte der russische Forscher Rudolf Zaripov die erste Arbeit über algorithmische Musikkomposition mit dem Computer "Ural-1".
1965 stellte Ray Kurzweil ein von einem Computer erstelltes Klavierstück vor. Das Programm war in der Lage, die verschiedenen Kompositionsmuster zu erkennen, sie zu analysieren und daraus neue Melodien zu schaffen. Kurzweil trat in der amerikanischen Sendung I've Got a Secret auf, wo er das Musikstück auf dem Klavier spielte.
nd in den frühen 1980er Jahren begann der begeisterte Komponist David Cope mit der Arbeit an Experiments in Musical Intelligence (EMI), um bestehende Musik zu analysieren und darauf basierend neue Werke zu schaffen. EMI hat an einem einzigen Tag fünftausend Choräle im Stil von Bach komponiert. 1997 präsentierte Cope einem Publikum drei Kompositionen. Eine stammte von Bach, eine von EMI und die dritte von Musiktheorie-Lehrer Steve Larson. Das Publikum musste erraten, zu wem jedes dieser Stücke gehörte. Die von Larson komponierte Komposition wurde von den Zuhörern für die Musik einer künstlichen Intelligenz gehalten. Die Musik von EMP wurde fälschlicherweise für Bach gehalten.
Heutzutage wird KI in grossem Umfang zur Schaffung moderner Musikstücke eingesetzt. Brian Eno, ein englischer Musiker, Plattenproduzent und Pionier der Ambient-Musik, veröffentlichte kürzlich das Album Reflection. Das Album enthält ein einziges, 54 Minuten langes Ambient-Stück, das mit Hilfe von KI entstanden ist.
Ausserdem veröffentlichte die virtuelle Figur und das digitale Kunstprojekt Miquela ihre erste Single Not Mine, die ebenfalls mit KI erstellt wurde.
Die automatische Generierung von Musik ist aus vielen Gründen eine Herausforderung. Das grösste Hindernis ist, dass ein einfacher dreiminütiger Song, den eine Gruppe von Menschen leicht auswendig lernen kann, zu viele Variablen für einen Computer enthält. Ausserdem gibt es noch keine perfekte Methode, um künstliche Intelligenz zu einem Musiker zu machen.
Wenn man Musik komponiert, schafft man selten ein neues Stück von Grund auf. Sie verwenden oder adaptieren (bewusst oder unbewusst) musikalische Elemente, die sie bereits gehört haben, und lassen sich dabei von Prinzipien und Empfehlungen aus der Musiktheorie leiten. Genauso kann ein Computerassistent in verschiedenen Phasen der Komposition eines Stücks eingesetzt werden, um den menschlichen Komponisten zu inspirieren, ihm Vorschläge zu machen oder ihn zu ergänzen.
Dies sind die verschiedenen Technologien und Innovationen, die heute mit Hilfe von KI Musik erzeugen oder dabei helfen, Musik zu erstellen.
Das Computer Music Project an der CMU (Carnegie Mellon University) wurde entwickelt, um Computermusik zu komponieren, um die menschliche musikalische Erfahrung und Kreativität zu verbessern. Dieser Computerprozess basiert auf vielen Aspekten wie Musiktheorie, Kognitionswissenschaft, Mensch-Computer-Interaktion, Computergrafik und Animation, Programmiersprachen und Signalverarbeitung, künstlicher Intelligenz und maschinellem Lernen und anderen.
ChucK ist eine neue klangorientierte Programmiersprache zur Erzeugung, Aufnahme und Synthese von Klängen in Echtzeit. Zu ihren wichtigsten Merkmalen gehört eine besondere Syntax. Da die Hauptfunktion von ChucK die Echtzeit ist, werden die Synchronisation und die Steuerung von digitalen Klängen auf Sample-Ebene explizit in der Sprache beschrieben.
Die beliebte Bildbearbeitungs-App PicsArt bietet einen endlosen KI-Musikgenerator. Um den Erstellern von Social Media-Inhalten zu helfen, urheberrechtsfreie Musik für ihre Videos zu verwenden, hat die App einen künstlich intelligenten Musiker geschaffen, der endlose Musik komponiert.
Modern, cineastisch, elektronisch, Pop, Jazz, Tango und viele andere sind die Musikgenres, die mit AIVA, der Kompositionssoftware mit künstlicher Intelligenz, erstellt werden können. Für nur 33$ im Monat können Nutzende jedes beliebige Musikstück für jeden Zweck erstellen. Hör dir diesen Track an, er ist ziemlich beeindruckend.
Eine andere Software, Jukebox, generiert Musik von Grund auf anhand des gewählten Genres, Interpreten und Textes als Eingabe. Das Autoencoder-Modell von Jukebox komprimiert Audiodaten auf einen diskreten Raum, indem es einen quantisierungsbasierten Ansatz (VQ-VAE.25) verwendet, der kurze Instrumentalstücke aus einigen wenigen Instrumentensätzen erzeugen kann.
Die KI-Musikerzeugung vereinfacht das Konzept der Musik selbst und macht es zu einem Konsumgut.
Der Musikwirtschaftsberater Mark Mulligan sagt:
KI wird vielleicht nie in der Lage sein, Musik zu machen, die gut genug ist, um uns so zu bewegen, wie es die menschliche Musik tut. Und warum nicht? Weil Musik zu machen, die Menschen bewegt - aufzuspringen und zu tanzen, zu weinen, zu lächeln - Emotionen auslöst, und um Emotionen auszulösen, muss man sie verstehen. Wenn die KI lernen kann, menschliche Emotionen zumindest nachzuahmen, dann könnte diese letzte Grenze überschritten werden. Aber das ist noch ein langer, langer Weg.
Valerio Velardo, KI-Musikexperte und ehemaliger Leiter von Melodrive, einem Unternehmen, das bis vor kurzem KI zur Erstellung von Videospiel-Soundtracks eingesetzt hat, sagt, dass die Menschen selbst dann, wenn KI-Kreativität und von Menschen geschaffene Musik nicht mehr voneinander zu unterscheiden sind, es immer zu schätzen wissen werden, wenn sie mit einem anderen Menschen in einem Raum sitzen und Kunst schaffen können. Das ist Teil unserer Natur.
Aber selbst eine solche Nachahmung macht die KI nicht zu einem wahren Künstler. Deep-Learning-Algorithmen, die auf Bachs Choräle trainiert wurden, können vielleicht Musik machen, die selbst Experten manchmal für echten Bach halten, aber das ist nur eine Nachahmung. Den Stil der Meister zu imitieren und weiterzuentwickeln ist das, was Künstlerinnen und Künstler in der Lehrlingszeit ihrer Karriere tun. Aber das ist überhaupt nicht der Grund, warum wir Komponisten schätzen.
Der positive Aspekt der KI-generierten Musik ist, dass sie Hoffnung macht, dass die Künstler, die Musik für ausschliesslich künstlerische Zwecke komponieren, befreit werden. Wir werden die Musik für kommerzielle Zwecke der KI überlassen und haben mehr Zeit, authentische Musik zu schaffen, die unsere Gefühle und Emotionen anspricht.