Muzyka i sztuczna inteligencja
Sztuczna inteligencja i muzyka (AIM) to wspólny temat na Międzynarodowej Konferencji Muzyki Komputerowej , Konferencji Towarzystwa Informatycznego oraz Międzynarodowej Wspólnej Konferencji na temat Sztucznej Inteligencji . Pierwsza Międzynarodowa Konferencja Muzyki Komputerowej (ICMC) odbyła się w 1974 roku na Michigan State University . Bieżące badania obejmują zastosowanie sztucznej inteligencji w komponowaniu muzyki , występach , teorii i cyfrowym przetwarzaniu dźwięku .
Kluczową częścią tej dziedziny jest rozwój programów muzycznych , które wykorzystują sztuczną inteligencję do produkcji muzyki. Podobnie jak w przypadku zastosowań w innych dziedzinach, sztuczna inteligencja w muzyce również symuluje zadania umysłowe. Wyróżniającą się cechą jest zdolność algorytmu sztucznej inteligencji do uczenia się na podstawie danych z przeszłości, na przykład w technologii akompaniamentu komputerowego, w której sztuczna inteligencja jest w stanie słuchać ludzkiego wykonawcy i wykonywać akompaniament. Sztuczna inteligencja napędza również interaktywną technologię komponowania, w której komputer komponuje muzykę w odpowiedzi na występ na żywo. Istnieją inne aplikacje AI w muzyce, które obejmują nie tylko komponowanie muzyki, produkcję i występy, ale także sposób, w jaki muzyka jest sprzedawana i konsumowana. Opracowano również kilka programów do odtwarzania muzyki, które wykorzystują technologię rozpoznawania głosu i przetwarzania języka naturalnego do sterowania głosem muzyką.
Historia
W 1960 roku rosyjski naukowiec Rudolf Zaripow opublikował pierwszy na świecie artykuł na temat algorytmicznego komponowania muzyki przy użyciu komputera „ Ural-1 ”.
W 1965 roku wynalazca Ray Kurzweil wykonał premierę utworu fortepianowego stworzonego przez komputer, który był w stanie rozpoznawać wzory w różnych kompozycjach. Komputer był wtedy w stanie analizować i wykorzystywać te wzorce do tworzenia nowych melodii. Komputer zadebiutował w teleturnieju Mam sekret i wprawił gospodarzy w zakłopotanie, dopóki gwiazda filmowa Henry Morgan nie odgadł tajemnicy Raya.
W 1997 roku program sztucznej inteligencji o nazwie Experiments in Musical Intelligence (EMI) wydawał się przewyższać ludzkiego kompozytora w zadaniu skomponowania utworu muzycznego imitującego styl Bacha .
Aplikacje
Wyniki interaktywne
Scenariusze multimedialne w partyturach interaktywnych są reprezentowane przez obiekty czasowe, relacje czasowe i obiekty interaktywne. Przykładami obiektów tymczasowych są dźwięki, wideo i kontrolki światła. Obiekty tymczasowe mogą być wyzwalane przez obiekty interaktywne (zwykle uruchamiane przez użytkownika), a kilka obiektów tymczasowych może być uruchamianych jednocześnie. Obiekt tymczasowy może zawierać inne obiekty tymczasowe: ta hierarchia pozwala nam kontrolować początek lub koniec obiektu tymczasowego poprzez kontrolowanie początku lub końca jego obiektu nadrzędnego. Hierarchia jest wszechobecna we wszystkich rodzajach muzyki: utwory muzyczne są często hierarchizowane według ruchów, części, motywów, taktów i innych segmentacji.
Akompaniament komputerowy (Uniwersytet Carnegie Mellon)
Computer Music Project w CMU rozwija muzykę komputerową i technologię interaktywnych występów w celu zwiększenia ludzkich doświadczeń muzycznych i kreatywności. Ten interdyscyplinarny wysiłek opiera się na teorii muzyki , kognitywistyce , sztucznej inteligencji i uczeniu maszynowym , interakcji człowiek-komputer , systemach czasu rzeczywistego, grafice komputerowej i animacji, multimediach , językach programowania i przetwarzaniu sygnałów .
Cmokanie
Opracowany na Uniwersytecie Princeton przez Ge Wanga i Perry'ego Cooka, ChucK to tekstowy, wieloplatformowy język, który umożliwia syntezę, komponowanie, wykonywanie i analizę muzyki w czasie rzeczywistym. Jest używany przez SLOrk (Stanford Laptop Orchestra) i PLOrk (Princeton Laptop Orchestra).
Jukedeck
Jukedeck to strona internetowa, która pozwala ludziom wykorzystywać sztuczną inteligencję do generowania oryginalnej, bezpłatnej muzyki do wykorzystania w filmach. Zespół zaczął budować technologię generowania muzyki w 2010 r., w 2012 r. utworzył wokół niej firmę, aw 2015 r. uruchomił publicznie stronę internetową. Zastosowana technologia była pierwotnie opartym na regułach algorytmicznym systemem kompozycji, który później został zastąpiony sztucznymi sieciami neuronowymi . Witryna została wykorzystana do stworzenia ponad 1 miliona utworów muzycznych, a marki, które z niej korzystały, to między innymi Coca-Cola , Google , UKTV i Muzeum Historii Naturalnej w Londynie . W 2019 roku firma została przejęta przez ByteDance .
Morfeusz S
MorpheuS to projekt badawczy Doriena Herremansa i Elaine Chew z Queen Mary University of London , finansowany z unijnego projektu Marie Skłodowska-Curie. System wykorzystuje podejście optymalizacyjne oparte na zmiennym algorytmie wyszukiwania sąsiedztwa w celu przekształcania istniejących szablonów w nowe elementy z ustalonym poziomem napięcia tonalnego, który zmienia się dynamicznie w całym utworze. To podejście optymalizacyjne pozwala na integrację techniki wykrywania wzorców w celu wymuszenia długoterminowej struktury i powtarzających się motywów w generowanej muzyce. Utwory skomponowane przez MorpheuSa były wykonywane na koncertach zarówno w Stanford, jak iw Londynie.
AIVA
Utworzony w lutym 2016 roku w Luksemburgu AIVA to program produkujący ścieżki dźwiękowe dla każdego rodzaju mediów . Algorytmy stojące za AIVA są oparte na architekturze głębokiego uczenia AIVA została również wykorzystana do skomponowania rockowego utworu On the Edge , a także popowego utworu Love Sick we współpracy z piosenkarką Taryn Southern , do stworzenia jej albumu z 2018 roku „I am sztuczna inteligencja”.
Magenta Google
Zespół Google Magenta opublikował kilka aplikacji muzycznych AI i artykułów technicznych od czasu ich uruchomienia w 2016 r. W 2017 r. wydali algorytm i zestaw danych NSynth oraz sprzętowy instrument muzyczny typu open source , zaprojektowany w celu ułatwienia muzykom korzystania z algorytmu. Instrument był używany przez wybitnych artystów, takich jak Grimes i YACHT w swoich albumach. W 2018 roku wydali aplikację do improwizacji fortepianowej o nazwie Piano Genie. Później pojawiło się Magenta Studio, zestaw 5 wtyczek MIDI, które pozwalają producentom muzycznym rozwijać istniejącą muzykę w ich DAW. W 2023 roku ich zespół zajmujący się uczeniem maszynowym opublikował artykuł techniczny na temat Github, w którym opisano MusicLM, opracowany prywatny generator tekstu na muzykę.
Upowszechnianie
Riffusion to sieć neuronowa zaprojektowana przez Setha Forsgrena i Hayka Martirosa, która generuje muzykę przy użyciu obrazów dźwięku, a nie dźwięku. Został stworzony jako dopracowanie Stable Diffusion , istniejącego modelu open source do generowania obrazów z monitów tekstowych na spektrogramach . W rezultacie powstaje model, który wykorzystuje podpowiedzi tekstowe do generowania plików graficznych, które można poddać odwrotnej transformacji Fouriera i przekonwertować na pliki audio. Chociaż te pliki mają tylko kilka sekund długości, model może również wykorzystywać ukrytą przestrzeń między danymi wyjściowymi interpolować różne pliki razem. Osiąga się to za pomocą funkcjonalności modelu stabilnej dyfuzji znanej jako img2img .
Powstała muzyka została opisana jako „de otro mundo”, chociaż jest mało prawdopodobne, aby zastąpiła muzykę stworzoną przez człowieka. Model został udostępniony 15 grudnia 2022 r., a kod jest również dostępny bezpłatnie na GitHub . Jest to jeden z wielu modeli wywodzących się ze Stable Diffusion.
Riffusion zalicza się do podzbioru generatorów tekstu do muzyki AI. W grudniu 2022 roku Mubert podobnie użył Stable Diffusion, aby zamienić tekst opisowy w pętle muzyczne. W styczniu 2023 r. firma Google opublikowała artykuł na temat własnego generatora tekstu na muzykę o nazwie MusicLM.Prawo autorskie
Kwestia, kto jest właścicielem praw autorskich do utworów muzycznych AI, pozostaje niepewna. Kiedy sztuczna inteligencja jest wykorzystywana jako narzędzie do współpracy jako funkcja ludzkiego procesu twórczego, prawdopodobnie będą obowiązywać obecne amerykańskie przepisy dotyczące praw autorskich. Jednak utwory muzyczne generowane wyłącznie przez sztuczną inteligencję nie są objęte ochroną praw autorskich. W Compendium of US Copyright Office Practices Urząd ds. Praw Autorskich stwierdził, że nie przyzna praw autorskich do „prac, które nie są autorstwa człowieka”, a „Urząd nie będzie rejestrował dzieł wyprodukowanych przez maszynę lub zwykły proces mechaniczny, który działa losowo lub automatycznie bez jakikolwiek twórczy wkład lub interwencja autora-człowieka”. W lutym 2022 r. Rada ds. Przeglądu Praw Autorskich odrzuciła wniosek o objęcie prawami autorskimi dzieła sztuki wygenerowanego przez sztuczną inteligencję na tej podstawie, że „brakowało mu wymaganego autorstwa człowieka niezbędnego do podtrzymania roszczenia dotyczącego praw autorskich”.
Zobacz też
- Skład algorytmiczny
- Automatyczne rozpoznawanie treści
- Modele obliczeniowe twórczości muzycznej
- Lista oprogramowania muzycznego
- Wyszukiwanie informacji o muzyce
Dalsza lektura
- Zrozumienie muzyki za pomocą sztucznej inteligencji: perspektywy poznania muzyki . Pod redakcją Mira Balaban, Kemala Ebcioglu i Otto Laske. AAAI Press.
- Materiały z warsztatów, które odbyły się w ramach AI-ED 93 , Światowej Konferencji na temat Sztucznej Inteligencji w Edukacji na temat Edukacji Muzycznej: Podejście Sztucznej Inteligencji
- Tanguiane (Tangian), Andranick (1993). Sztuczna percepcja i rozpoznawanie muzyki . Notatki z wykładów w sztucznej inteligencji. Tom. 746. Berlin-Heidelberg: Springer. ISBN 978-3-540-57394-4 .