Welche neuronalen Netze können „singen“ und Death Metal spielen?

Lassen Sie uns über intelligente Tools sprechen, mit denen Tracks und sogar Texte generiert werden können. Es geht um die Entscheidungen von Unternehmen und Labors sowie um die Entwicklung von Enthusiasten.


Foto Joe Green / Unsplash

Neuronale Netze schreiben Musik ...


Es macht den NSynth Super Synthesizer . Es basiert auf dem KI-System, das aus aufgezeichneten Samples neue Klänge bildet, die in der Natur nicht existieren. Der Algorithmus kann den Klang einer Flöte und einer Trommel kombinieren . NSynth kann mit 16 Musikinstrumenten arbeiten - auf ihrer Basis erzeugt es mehr als 100.000 Klänge. Er analysiert ihre Eingabeeigenschaften und interpoliert dann linear, um eine mathematische Darstellung zu bilden.

NSynth Super ist ein Open Source Projekt. Quellen und Schemata für die Zusammenstellung stehen allen im Repository auf GitHub zur Verfügung .

Ein weiteres Beispiel ist das künstliche Intelligenzsystem Dadabots , das von den Musikern CJ Carr und Zack Zukowski entwickelt wurde. Das neuronale Netzwerk komponiert Death Metal-Songs - es wurde in der Arbeit des kanadischen Teams Archspire trainiert . Die AI-basierte Lösung erzeugt ziemlich harmonische, wenn auch nicht immer angenehme Kompositionen - ihnen werden regelmäßig scharfe akustische Effekte überlagert. Obwohl es für den gewählten Stil organisch wie eine Welle aussieht. Sie können die Arbeit von Dadabots auf YouTube hören, es gibt eine Live-Übertragung rund um die Uhr .

Bei Jukedeck werden auch KI-Musiksysteme entwickelt . Dieses Startup entwickelt ein Tool zum Generieren von Tracksmit einer bestimmten Stimmung und Tempo. Vor einem Jahr wurde es von einem Unternehmen übernommen, dem TikTok gehört. Jukedeck-Technologien helfen sozialen Netzwerken, Lizenzgebühren zu sparen.

... und singen können


Ende April wurde ein solches Tool in OpenAI eingeführt, es hieß Jukebox . Es erzeugt Kompositionen mit aussagekräftigen Texten und Gesang. Hier ist ein Beispiel:


Ingenieure trainierten ein neuronales Netzwerk mit einem Datensatz von 1,2 Millionen Songs (600.000 waren in englischer Sprache). Der Text und die Metadaten für sie stammen aus der LyricWiki-Bibliothek. Um neue Spuren zu erzeugen, verwendet das AI-System die VQ-VAE-Methode (Vector Quantized Variational AutoEncoder) - es komprimiert die Spuren und extrahiert die erforderlichen akustischen Informationen aus ihnen. Dann bildet sich auf seiner Basis eine neue Komposition. Jukebox verbringt ungefähr neun Stunden damit, eine Minute eines Songs zu schreiben, weiß aber bisher nicht, wie man vertraute Songs mit sich wiederholendem Refrain erzeugt. Das System benötigt auch große Rechenressourcen - es ist noch nicht möglich, es zu Hause auf einem Computer oder in einem Studio zu testen. In Zukunft planen Entwickler, diese Mängel zu beheben.

Aber werden Musiker ersetzt


Die Autoren intelligenter Instrumente zur Musikgenerierung sagen, dass Maschinenalgorithmen nicht dazu gedacht sind, Komponisten zu ersetzen, sondern ihre künstlerischen Fähigkeiten zu erweitern.

Die amerikanische Sängerin Taryn Southern hat ein Album mit einer AI-basierten Lösung aufgenommen. Das neuronale Netzwerk schrieb die Musik für den Break Free- Track und erzeugte einen Videoclip. Die YACHT-Sängerin Claire Evans verwendete auch Maschinenalgorithmen, um Chain Tripping zu schreiben . Der Computer erzeugte neue Melodien basierend auf Claires früheren Werken, und der Darsteller verband die interessantesten Samples miteinander.

Algorithmen für maschinelles Lernen helfen Musikern auch bei der Lösung technischer Probleme. Zum Beispiel bieten Entwickler von LANDR ein künstliches Intelligenzsystem an, das Tracks automatisch verfolgt. Mehr als 2 Millionen Künstler nutzen es bereits .



Zusätzliche Lektüre:

„Maschinensound“: Synthesizer basierend auf neuronalen Netzen.
Geschichte der Sprachsynthesizer: Erste mechanische Installationen.
Geschichte der Sprachsynthesizer: Computerzeitalter.



Was Sie bei uns auf Habré lesen sollten:




All Articles