Technologia muzyczna (elektroniczna i cyfrowa)

Produkcja muzyczna przy użyciu cyfrowej stacji roboczej audio (DAW) z konfiguracją z wieloma monitorami

Cyfrowa technologia muzyczna obejmuje instrumenty cyfrowe, komputery , elektroniczne jednostki efektów , oprogramowanie lub cyfrowy sprzęt audio stworzony przez wykonawcę , kompozytora , inżyniera dźwięku , DJ -a lub producenta nagrań w celu produkcji, wykonywania lub nagrywania muzyki . Termin ten odnosi się do urządzeń elektronicznych, instrumentów, sprzętu komputerowego i oprogramowania używanego podczas występów , odtwarzania, nagrywanie , komponowanie , miksowanie , analiza i edycja muzyki.

Edukacja

Profesjonalny trening

Kursy z technologii muzycznej są oferowane na wielu różnych uniwersytetach w ramach programów studiów koncentrujących się na wykonawstwie, kompozycji, badaniach muzycznych na poziomie licencjackim i magisterskim. Nauka o technologii muzycznej zwykle dotyczy kreatywnego wykorzystania technologii do tworzenia nowych dźwięków, wykonywania, nagrywania , programowania sekwencerów lub innych urządzeń elektronicznych związanych z muzyką oraz manipulowanie, miksowanie i odtwarzanie muzyki. Programy technologii muzycznej szkolą studentów do kariery w „... inżynierii dźwięku, muzyce komputerowej, produkcji i postprodukcji audiowizualnej, masteringu, punktacji do filmu i multimediów, dźwięku do gier, tworzenia oprogramowania i produkcji multimediów . Ci, którzy chcą rozwijać nowe technologie muzyczne, często szkolą się, aby zostać inżynierem dźwięku pracującym w dziale badawczo-rozwojowym . Ze względu na rosnącą rolę pracy interdyscyplinarnej w technologii muzycznej, osoby opracowujące nowe technologie muzyczne mogą również mieć doświadczenie lub szkolenie programowanie komputerowe , projektowanie sprzętu komputerowego , akustyka , produkcja nagrań lub inne dziedziny.

Wykorzystanie technologii muzycznych w edukacji

Cyfrowe technologie muzyczne są szeroko stosowane jako pomoc w edukacji muzycznej w ramach programów muzycznych w domu, szkole podstawowej, gimnazjum, szkole średniej, na studiach i na uniwersytecie. Laboratoria z klawiaturą elektroniczną są wykorzystywane do opłacalnego nauczania gry na fortepianie dla początkujących grup w szkołach średnich, na uczelniach wyższych i na uniwersytetach. Kursy dotyczące oprogramowania do notacji muzycznej i podstawowej manipulacji dźwiękiem i MIDI mogą być częścią podstawowych wymagań studenta dotyczących stopnia muzycznego. Dostępne są aplikacje mobilne i stacjonarne, które ułatwiają naukę teorii muzyki i kształcenie słuchu. Cyfrowe pianina, takie jak oferowane przez firmę Roland , udostępniaj interaktywne lekcje i gry, korzystając z wbudowanych funkcji instrumentu, aby uczyć podstaw muzyki.

Historia

Rozwój cyfrowych technologii muzycznych można prześledzić wstecz do analogowych technologii muzycznych z początku XX wieku [ potrzebne źródło ] , takich jak elektromechaniczne organy Hammonda , które zostały wynalezione w 1929 r. [ potrzebne źródło ] W 2010 roku ontologiczny zakres muzyki technologia znacznie się rozwinęła i może być teraz elektroniczna, cyfrowa, oparta na oprogramowaniu lub nawet czysto koncepcyjna. [ potrzebne źródło ]

Do pierwszych pionierów należeli Luigi Russolo , Halim El-Dabh , Pierre Schaeffer , Pierre Henry , Edgard Varèse , Karlheinz Stockhausen , Ikutaro Kakehashi , King Tubby i inni, którzy manipulowali dźwiękami za pomocą magnetofonów — składali taśmę i zmieniali jej prędkość odtwarzania w celu zmiany zarejestrowane próbki. Pierre Schaefer był uznawany za wynalazcę tej metody komponowania, znanej jako musique concrète , w 1948 roku w Paryżu we Francji. W tym stylu kompozycji manipuluje się istniejącym materiałem w celu stworzenia nowych barw. Musique concrète kontrastuje z późniejszym stylem, który pojawił się w połowie lat pięćdziesiątych w Kolonii w Niemczech, znanym jako elektronische Musik . Ten styl, wymyślony przez Karlheinza Stockhausena, polega na tworzeniu nowych dźwięków bez użycia wcześniej istniejącego materiału. W przeciwieństwie do musique concrète , która koncentruje się przede wszystkim na barwie, elektronische Musik koncentruje się na strukturze. Wpływy tych dwóch stylów nadal dominują dzisiaj we współczesnej muzyce i technologii muzycznej. Koncepcja oprogramowania cyfrowej stacji roboczej audio jest emulacją tradycyjnego studia nagraniowego. Kolorowe paski, zwane regionami, można łączyć, rozciągać i zmieniać kolejność, analogicznie do taśmy. Podobnie, reprezentacje programowe klasycznych syntezatorów emulują ich analogowe odpowiedniki.

Historia syntezatorów analogowych

Do klasycznych syntezatorów analogowych należą Moog Minimoog , ARP Odyssey , Yamaha CS-80 , Korg MS-20 , Sequential Circuits Prophet-5 , Roland TB-303 , Roland Alpha Juno . Najbardziej kultowym syntezatorem basowym jest Roland TB-303 , szeroko stosowany w muzyce acid house .

Historia syntezatorów cyfrowych

Do klasycznych syntezatorów cyfrowych należą Fairlight CMI , PPG Wave , Nord Modular i Korg M1 .

Cyfrowy syntezator w Japonii

W latach 70. i 80. japońscy producenci syntezatorów produkowali tańsze syntezatory niż te produkowane w Ameryce, z syntezatorami wyprodukowanymi przez Yamaha Corporation , Roland Corporation , Korg , Kawai i inne firmy. Yamaha DX7 była jedną z pierwszych stosunkowo niedrogich klawiatur syntezatorowych na rynku masowym. DX7 to cyfrowy syntezator oparty na syntezie FM , produkowany w latach 1983-1989. Był to pierwszy syntezator cyfrowy, który odniósł sukces komercyjny . Jego charakterystyczne brzmienie można usłyszeć na wielu nagraniach, zwłaszcza w muzyce pop z lat 80. Monotimbral , 16-dźwiękowy polifoniczny DX7 był niedrogim modelem syntezatorów klawiszowych z serii DX . Powstało ponad 200 000 oryginalnych DX7 i pozostaje on jednym z najlepiej sprzedających się syntezatorów wszechczasów.

Historia muzyki komputerowej

Maksa Mateusza

Połączenie technologii komputerowej i syntezatorowej zmieniło sposób tworzenia muzyki i jest obecnie jednym z najszybciej zmieniających się aspektów technologii muzycznej. Max Mathews , inżynier telekomunikacji [ potrzebne źródło ] w Departamencie Badań Akustycznych i Behawioralnych Bell Telephone Laboratories , jest odpowiedzialny za niektóre z pierwszych cyfrowych technologii muzycznych w latach 50-tych. Max Mathews był także pionierem technologii muzycznej; konwersja analogowo-cyfrowa . [ potrzebne źródło ]

W Bell Laboratories Matthews prowadził badania mające na celu poprawę jakości połączeń telefonicznych międzymiastowych. Ze względu na duże odległości i niską przepustowość jakość dźwięku podczas rozmów telefonicznych w Stanach Zjednoczonych była niska. W ten sposób Matthews opracował metodę, w której dźwięk był syntetyzowany przez komputer na odległym końcu, a nie przesyłany. Matthews był skrzypkiem-amatorem i podczas rozmowy ze swoim przełożonym, Johnem Pierce'em w Bell Labs, Pierce podsunął pomysł syntezy muzyki za pomocą komputera, ponieważ Matthews już zsyntetyzował mowę. Matthews zgodził się i na początku lat pięćdziesiątych napisał serię programów znanych jako MUSIC. MUSIC składał się z dwóch plików - i pliku orkiestry zawierającego dane informujące komputer, jak syntezować dźwięk - oraz pliku partytury instruującego program, jakie nuty grać przy użyciu instrumentów zdefiniowanych w pliku orkiestry. Matthews napisał pięć iteracji MUSIC, nazywając je odpowiednio MUSIC IV. Następnie, gdy program został dostosowany i rozszerzony tak, jak został napisany do działania na różnych platformach, jego nazwa została zmieniona, aby odzwierciedlić nowe zmiany. Ta seria programów stała się znana jako MUZYKA n paradygmat. Koncepcja MUZYKI istnieje teraz w formie Csound.

Później Max Matthews pracował jako doradca IRCAM (Institut de recherche et koordynacji acoustique/musique; angielski: Institute for Research and Coordination in Acoustics/Music) pod koniec lat 80. Tam uczył Millera Puckette'a, naukowca. Puckette opracował program, w którym muzykę można było zaprogramować graficznie. Program mógł przesyłać i odbierać komunikaty MIDI w celu generowania interaktywnej muzyki w czasie rzeczywistym. Zainspirowany Matthewsem, Puckette nazwał program Max. Później badacz o nazwisku David Zicarelli odwiedził IRCAM, zobaczył możliwości Maxa i uznał, że można go dalej rozwijać. Wychodząc, zabrał ze sobą kopię Maxa i ostatecznie dodał możliwości przetwarzania sygnałów audio. Zicarelli nazwał tę nową część programu MSP imieniem Millera Puckette. Zicarelli opracował komercyjną wersję MaxMSP i sprzedawał ją w swojej firmie Cycling '74, począwszy od 1997 roku. Od tego czasu firma została przejęta przez Ableton.

Późniejsza historia

Pierwsza generacja profesjonalnych, dostępnych na rynku komputerowych instrumentów muzycznych lub stacji roboczych , jak nazwały je później niektóre firmy, była bardzo wyrafinowanymi, rozbudowanymi systemami, które kosztowały ogromne pieniądze, gdy pojawiły się po raz pierwszy. Wahały się od 25 000 do 200 000 USD. Dwa najpopularniejsze to Fairlight i Synclavier .

Dopiero wraz z nadejściem MIDI komputery ogólnego przeznaczenia zaczęły odgrywać rolę w produkcji muzycznej. Po powszechnym przyjęciu MIDI opracowano komputerowe edytory i sekwencery MIDI . Następnie użyto konwerterów MIDI-to- CV/Gate, aby umożliwić sterowanie syntezatorami analogowymi przez sekwencer MIDI.

Obniżone ceny komputerów osobistych spowodowały, że masy odwróciły się od droższych stacji roboczych . Postęp technologiczny zwiększył szybkość przetwarzania sprzętowego i pojemność jednostek pamięci. Potężne programy do sekwencjonowania, nagrywania, notowania i masteringu muzyki.

Historia MIDI

Na wystawie NAMM w 1983 roku w Los Angeles wydano MIDI . Demonstracja na konwencji pokazała, że ​​dwa wcześniej niekompatybilne syntezatory analogowe , Prophet 600 i Roland Jupiter-6 , komunikują się ze sobą, umożliwiając graczowi grę na jednej klawiaturze, jednocześnie uzyskując wyjście z obu. Był to ogromny przełom w latach 80., ponieważ umożliwił dokładne nakładanie syntezatorów podczas występów na żywo i nagrań studyjnych. MIDI umożliwia różne instrumenty elektroniczne i muzykę elektroniczną urządzeń do komunikowania się między sobą oraz z komputerami. Pojawienie się MIDI pobudziło szybki rozwój sprzedaży i produkcji instrumentów elektronicznych i oprogramowania muzycznego.

W 1985 roku kilku czołowych producentów klawiatur utworzyło Stowarzyszenie Producentów MIDI (MMA) . To nowo założone stowarzyszenie ustandaryzowało protokół MIDI, generując i rozpowszechniając wszystkie dokumenty na jego temat. Wraz z opracowaniem przez Opcode specyfikacji formatu plików MIDI firmy Opcode oprogramowanie sekwencera MIDI każdego producenta oprogramowania muzycznego mogło odczytywać i zapisywać pliki innych producentów.

Od lat 80. XX wieku komputery osobiste rozwijały się i stały się idealnym systemem do wykorzystania ogromnego potencjału MIDI . Stworzyło to duży rynek konsumencki dla oprogramowania, takiego jak klawiatury elektroniczne wyposażone w MIDI , sekwencery MIDI i cyfrowe stacje robocze audio . Dzięki uniwersalnym protokołom MIDI, elektroniczne klawiatury, sekwencery i automaty perkusyjne mogą być ze sobą połączone.

Historia syntezy wokalnej do lat 80

VODER w Bell Lab.

Z historią muzyki komputerowej zbiega się historia syntezy wokalnej. Zanim Max Matthews zsyntetyzował mowę za pomocą komputera, do odtwarzania mowy używano urządzeń analogowych. W latach trzydziestych XX wieku inżynier Holmer Dudley wynalazł VODER (Voice Operated Demonstrator), urządzenie elektromechaniczne, które generowało falę piłokształtną i biały szum. Różne części widma częstotliwości przebiegów można filtrować, aby wygenerować dźwięki mowy. Skok był modulowany za pomocą paska na pasku na nadgarstek noszonym przez operatora. W latach czterdziestych XX wieku Dudley wynalazł VOCODER (Voice Operated Coder). Zamiast syntetyzować mowę od podstaw, ta maszyna działała na zasadzie przyjmowania przychodzącej mowy i dzielenia jej na składowe widmowe. Pod koniec lat 60. i na początku 70. zespoły i artyści solowi zaczęli używać VOCODER do łączenia mowy z nutami granymi na syntezatorze.

Śpiewanie ścieżki wokalnej Kelly-Lochbauma w Bell Lab.

W międzyczasie w Bell Laboratories Max Matthews współpracował z badaczami Kelly i Lachbaumem nad opracowaniem modelu układu głosowego, aby zbadać, w jaki sposób jego pomyślność przyczyniła się do generowania mowy. Korzystając z modelu traktu głosowego, Matthews zastosował liniowe kodowanie predykcyjne (LPC) [ potrzebne źródło ] — metoda, w której komputer szacuje formanty i zawartość widmową każdego słowa na podstawie informacji o modelu wokalnym, w tym różnych zastosowanych filtrach reprezentujących układ głosowy — aby komputer (IBM 704) zaśpiewał po raz pierwszy w 1962 roku. Komputer wykonał wersję utworu „Rower zbudowany dla dwojga”.

CHANT na IRCAMie

W latach siedemdziesiątych [ potrzebne źródło ] w IRCAM we Francji badacze opracowali oprogramowanie o nazwie CHANT (po francusku „śpiewać”). CHANT opierał się na syntezie FOF ( Fomant ond Formatique [ potrzebne źródło ] ), w której szczytowe częstotliwości dźwięku są tworzone i kształtowane przy użyciu syntezy granularnej — w przeciwieństwie do filtrowania częstotliwości w celu tworzenia mowy.

Synteza konkatenacji za pomocą MIDI

W latach 80. i 90. XX wieku, gdy urządzenia MIDI stały się dostępne na rynku, mowę generowano poprzez mapowanie danych MIDI na próbki składników mowy przechowywane w bibliotekach próbek.

Syntezatory i automaty perkusyjne

Syntezatory

Wczesny syntezator Minimoog firmy RA Moog Inc. z 1970 roku

Syntezator to elektroniczny instrument muzyczny , który generuje sygnały elektryczne, które są konwertowane na dźwięk przez wzmacniacze instrumentów i głośniki lub słuchawki . Syntezatory mogą albo naśladować istniejące dźwięki (instrumenty, wokal, dźwięki naturalne itp.), albo generować nowe brzmienia elektroniczne lub dźwięki, które wcześniej nie istniały. Często gra się na nich za pomocą elektronicznej klawiatury muzycznej , ale można nimi sterować za pomocą wielu innych urządzeń wejściowych, w tym sekwensery muzyczne , kontrolery instrumentów , podstrunnice , syntezatory gitarowe , kontrolery instrumentów dętych i perkusja elektroniczna . Syntezatory bez wbudowanych kontrolerów są często nazywane modułami dźwiękowymi i są sterowane za pomocą urządzenia sterującego.

Syntezatory wykorzystują różne metody generowania sygnału. Do najpopularniejszych technik syntezy przebiegów należą synteza subtraktywna , synteza addytywna , synteza tablicowa , synteza modulacji częstotliwości , synteza zniekształceń fazowych , synteza modelowania fizycznego i synteza oparta na próbkach . Inne mniej powszechne typy syntez obejmują syntezę subharmoniczną , formę syntezy addytywnej poprzez subharmoniczne (używane przez mieszaninę trautonium ) i syntezę granularną , oparta na próbkach synteza oparta na ziarnach dźwięku, generalnie skutkująca pejzażami dźwiękowymi lub chmurami . W 2010 roku syntezatory są używane w wielu gatunkach pop , rock i dance . Współcześni kompozytorzy muzyki klasycznej XX i XXI wieku piszą kompozycje na syntezator.

Automaty perkusyjne

Automat perkusyjny Yamaha RY30

Automat perkusyjny jest elektronicznym instrumentem muzycznym przeznaczonym do imitowania dźwięku bębnów , talerzy , innych instrumentów perkusyjnych i często linii basowych . Automaty perkusyjne odtwarzają nagrane wcześniej próbki bębnów i talerzy lub zsyntetyzowane odtworzenia dźwięków bębnów / talerzy w rytmie i tempie zaprogramowanym przez muzyka. Automaty perkusyjne są najczęściej kojarzone z elektronicznej muzyki tanecznej, takimi jak muzyka house , ale są również używane w wielu innych gatunkach. Są również używane, gdy perkusiści sesyjni nie są dostępni lub jeśli produkcja nie może sobie pozwolić na koszt profesjonalnego perkusisty. W 2010 roku większość nowoczesnych automatów perkusyjnych to sekwencery z odtwarzaniem sampli ( rompler ) lub komponent syntezatora , który specjalizuje się w odtwarzaniu barw perkusji . Chociaż funkcje różnią się w zależności od modelu, wiele nowoczesnych automatów perkusyjnych może również generować unikalne dźwięki i umożliwiać użytkownikowi komponowanie unikalnych i schematów perkusyjnych .

Elektromechaniczne automaty perkusyjne zostały po raz pierwszy opracowane w 1949 roku wraz z wynalezieniem Chamberlin Rhythmate . Tranzystorowe elektroniczne automaty perkusyjne Seeburg Select-A-Rhythm pojawiły się w 1964 roku.

Do klasycznych automatów perkusyjnych należą Korg Mini Pops 120 , PAiA Programmable Drum Set, Roland CR-78 , LinnDrum , Roland TR-909 , Oberheim DMX , E-MU SP-12 , Alesis HR-16 i Elektron SPS1 Machinedrum (w porządku chronologicznym ).

Automaty perkusyjne w Japonii

Ace Tone , stworzony przez Ikutaro Kakehashi zaczął pojawiać się w muzyce od Rhythm Ace lat , popularnej późnych 60 . Album Sly and the Family Stone z 1971 roku There's a Riot Goin' On pomógł spopularyzować brzmienie wczesnych automatów perkusyjnych, wraz z R&B Timmy'ego Thomasa z 1972 roku przebój „ Why Can't We Live Together ” i dyskotekowy przebój George'a McCrae'a z 1974 roku „ Rock Your Baby ”, który wykorzystywał wczesne maszyny rytmiczne Rolanda.

Wczesne automaty perkusyjne brzmiały drastycznie inaczej niż automaty perkusyjne, które osiągnęły szczyt popularności w latach 80. i zdefiniowały całą dekadę muzyki pop. Najbardziej charakterystycznym automatem perkusyjnym był Roland TR-808 , szeroko stosowany w muzyce hip-hopowej i tanecznej .

Technologia samplowania po latach 80

Technologia cyfrowego samplowania, wprowadzona w latach 70. XX wieku, stała się podstawą produkcji muzycznej w 2000 roku. [ potrzebne źródło ] Urządzenia korzystające z samplowania , rejestrujące cyfrowo dźwięk (często instrument muzyczny, taki jak fortepian lub flet ) i odtwarzające go, gdy klawisz lub pad na urządzeniu sterującym (np. klawiatura elektroniczna , perkusja elektroniczna) pad itp.) zostanie naciśnięty lub wyzwolony. Samplery mogą zmieniać dźwięk za pomocą różnych efektów dźwiękowych i przetwarzanie dźwięku. Sampling ma swoje korzenie we Francji z dźwiękowymi eksperymentami przeprowadzanymi przez musique concrète .

W latach 80., kiedy technologia była jeszcze w powijakach, cyfrowe samplery kosztowały dziesiątki tysięcy dolarów i były używane tylko przez topowe studia nagraniowe i muzyków. Były poza zasięgiem cenowym większości muzyków. Wczesne samplery obejmują 8-bitowe Electronic Music Studios MUSYS-3 około 1970 r., Computer Music Melodian w 1976 r., Fairlight CMI w 1979 r., Emulator I w 1981 r., Opcja Synclavia II Sample-to-Memory (STM) około 1980 r., Ensoniq Mirage w 1984 r. i Akai S612 w 1985 r. Następca tego ostatniego, Emulator II (wydany w 1984 r.), wystawiony na sprzedaż za 8 000 USD. W tym okresie wypuszczono samplery z wysokimi cenami, takie jak K2000 i K2500 .

Niektóre ważne samplery sprzętowe to Kurzweil K250 , Akai MPC60 , Ensoniq Mirage , Ensoniq ASR-10 , Akai S1000 , E-mu Emulator i Fairlight CMI .

Jednym z największych zastosowań technologii samplowania byli DJ-e i wykonawcy muzyki hip-hopowej w latach 80. Zanim przystępna cenowo technologia samplowania stała się łatwo dostępna, DJ-e używali techniki zapoczątkowanej przez Grandmaster Flash, aby ręcznie powtarzać niektóre części utworu, żonglując między dwoma oddzielnymi gramofonami. Można to uznać za wczesny prekursor pobierania próbek. Z kolei ta turntablizmu wywodzi się z jamajskiej muzyki dub w latach 60., a do amerykańskiego hip hopu została wprowadzona w latach 70.

W 2000 roku większość profesjonalnych studiów nagraniowych korzysta z technologii cyfrowych. W ostatnich latach wiele samplerów zawierało tylko technologię cyfrową. Ta nowa generacja cyfrowych samplerów jest w stanie odtwarzać i manipulować dźwiękami. Samplowanie cyfrowe odgrywa integralną rolę w niektórych gatunkach muzycznych, takich jak hip-hop i trap. Zaawansowane biblioteki sampli umożliwiły wykonanie kompletnych orkiestrowych , które brzmią podobnie do występów na żywo. Nowoczesne biblioteki dźwięków pozwalają muzykom na wykorzystanie w swoich produkcjach brzmień niemal każdego instrumentu.

Technologia pobierania próbek w Japonii

Wczesne samplery to 12-bitowy Toshiba LMD-649 [ ja ] z 1981 roku.

Pierwszym niedrogim samplerem w Japonii był Ensoniq Mirage w 1984 roku. Również AKAI S612 stał się dostępny w 1985 roku w cenie 895 USD. Inne firmy wkrótce wypuściły przystępne cenowo samplery, w tym Oberheim DPX-1 w 1987 roku i inne firmy Korg , Casio , Yamaha i Roland . Niektóre ważne samplery sprzętowe w Japonii to Akai Z4/Z8 , Roland V-Synth, Casio FZ-1 .

MIDI

Several rack-mounted synthesizers that share a single controller
MIDI umożliwia grę na wielu instrumentach za pomocą jednego kontrolera (często klawiatury, jak pokazano tutaj), co sprawia, że ​​konfiguracje sceniczne są znacznie bardziej przenośne. Ten system mieści się w jednej obudowie rack, ale przed nadejściem MIDI. wymagałoby to czterech oddzielnych, ciężkich, pełnowymiarowych instrumentów klawiszowych oraz zewnętrznych jednostek miksujących i efektów .

MIDI jest standardowym interfejsem branży instrumentów muzycznych od lat 80. XX wieku do dnia dzisiejszego. Jej początki sięgają czerwca 1981 r., kiedy założyciel firmy Roland Corporation , Ikutaro Kakehashi , zaproponował koncepcję standaryzacji między instrumentami różnych producentów, a także komputerami, założycielowi firmy Oberheim Electronics , Tomowi Oberheimowi , i prezesowi firmy Sequential Circuits , Dave'owi Smithowi . W październiku 1981 roku Kakehashi, Oberheim i Smith omówili koncepcję z przedstawicielami firmy Yamaha , Korg i Kawai . W 1983 roku Kakehashi i Smith zaprezentowali standard MIDI.

Niektóre powszechnie akceptowane odmiany aplikacji oprogramowania MIDI obejmują oprogramowanie do instrukcji muzycznych, oprogramowanie do sekwencjonowania MIDI, oprogramowanie do notacji muzycznej, oprogramowanie do nagrywania/edycji dysku twardego , oprogramowanie do edytowania poprawek/biblioteki dźwięków, oprogramowanie do komponowania wspomaganego komputerowo i instrumenty wirtualne . Obecny rozwój sprzętu komputerowego i specjalistycznego oprogramowania nadal rozszerza aplikacje MIDI.

Komputery w technice muzycznej po latach 80

opracowano komputerowe edytory i sekwencery MIDI . Następnie użyto konwerterów MIDI-to- CV/Gate, aby umożliwić sterowanie syntezatorami analogowymi przez sekwencer MIDI.

Obniżone ceny komputerów osobistych spowodowały, że masy odwróciły się od droższych stacji roboczych . Postęp technologiczny zwiększył szybkość przetwarzania sprzętowego i pojemność jednostek pamięci. Twórcy oprogramowania piszą nowe, potężniejsze programy do sekwencjonowania, nagrywania, notowania i masteringu muzyki.

Oprogramowanie cyfrowej stacji roboczej audio, takie jak Pro Tools , Logic i wiele innych, zyskało w ostatnich latach popularność wśród szerokiego wachlarza technologii współczesnej muzyki. Takie programy umożliwiają użytkownikowi nagrywanie dźwięków akustycznych za pomocą mikrofonu lub instrumentu programowego, które następnie można układać warstwami i organizować na osi czasu oraz edytować na płaskim wyświetlaczu komputera . Nagrane segmenty można kopiować i powielać w nieskończoność, bez utraty wierności lub dodawania szumów (główny kontrast z nagrywaniem analogowym , w którym każda kopia prowadzi do utraty wierności i dodatkowego szumu). Muzykę cyfrową można edytować i przetwarzać za pomocą wielu efektów dźwiękowych. Współczesna muzyka klasyczna czasami wykorzystuje dźwięki generowane komputerowo - nagrane wcześniej lub wygenerowane i zmanipulowane na żywo - w połączeniu lub zestawione z klasycznymi instrumentami akustycznymi, takimi jak wiolonczela czy skrzypce. Muzyka jest oceniana za pomocą dostępnego na rynku do notacji .

Oprócz cyfrowych stacji roboczych audio i oprogramowania do notacji muzycznej, które umożliwiają tworzenie stałych nośników (materiału, który nie zmienia się za każdym razem, gdy jest wykonywany), wciąż pojawia się oprogramowanie ułatwiające interaktywną lub generatywną muzykę. Kompozycja oparta na warunkach lub regułach (kompozycja algorytmiczna) dała początek oprogramowaniu, które może automatycznie generować muzykę na podstawie warunków wejściowych lub reguł. W ten sposób powstała muzyka ewoluuje za każdym razem, gdy zmieniają się warunki. Przykłady tej technologii obejmują oprogramowanie przeznaczone do tworzenia muzyki do gier wideo — w których muzyka ewoluuje wraz z postępami gracza na poziomie lub pojawianiem się określonych postaci — lub muzykę generowaną przez sztuczną inteligencję przeszkoloną do przekształcania danych biometrycznych, takich jak odczyty EEG lub EKG, w muzykę. Ponieważ ta muzyka opiera się na interakcji użytkownika, za każdym razem będzie inna. Inne przykłady generatywnej technologii muzycznej obejmują wykorzystanie czujników podłączonych do komputera i sztucznej inteligencji do generowania muzyki na podstawie przechwyconych danych, takich jak czynniki środowiskowe, ruchy tancerzy lub fizyczne dane wejściowe z urządzenia cyfrowego, takiego jak mysz lub kontroler do gier. Aplikacje oferujące możliwości generatywnej i interaktywnej muzyki obejmują SuperCollider, MaxMSP/Jitter i Processing. Muzyka interaktywna jest możliwa dzięki fizycznym obliczeniom, w których dane ze świata fizycznego wpływają na wydajność komputera i odwrotnie.

Synteza śpiewu po 2010 roku

W 2010 roku technologia syntezy Singing wykorzystała najnowsze postępy w sztucznej inteligencji — głębokie słuchanie i uczenie maszynowe, aby lepiej odzwierciedlać niuanse ludzkiego głosu. Nowe biblioteki sampli o wysokiej wierności w połączeniu z cyfrowymi stacjami roboczymi audio ułatwiają edycję w najdrobniejszych szczegółach, takich jak przesuwanie formatów, dostosowywanie vibrato oraz dostosowywanie samogłosek i spółgłosek. Dostępne są przykładowe biblioteki dla różnych języków i różnych akcentów. Dzięki dzisiejszym postępom w syntezie śpiewu artyści czasami używają bibliotek sampli zamiast chórków.

Oś czasu

Oś czasu w Japonii

Zobacz też

Dalsza lektura

Linki zewnętrzne