Sonifikacja
Sonifikacja to wykorzystanie dźwięku innego niż mowa do przekazywania informacji lub percepcji danych. Percepcja słuchowa ma zalety w rozdzielczości czasowej, przestrzennej, amplitudowej i częstotliwościowej, co otwiera możliwości jako alternatywa lub uzupełnienie technik wizualizacji .
Na przykład szybkość klikania licznika Geigera przekazuje poziom promieniowania w bezpośrednim sąsiedztwie urządzenia.
Chociaż wiele eksperymentów z sonifikacją danych zostało zbadanych na forach, takich jak International Community for Auditory Display (ICAD), sonifikacja napotyka wiele wyzwań związanych z powszechnym stosowaniem do prezentacji i analizy danych. Na przykład badania pokazują, że zapewnienie odpowiedniego kontekstu do interpretacji sonifikacji danych jest trudne, ale niezbędne. Wiele prób sonifikacji jest kodowanych od podstaw ze względu na brak elastycznych narzędzi do badań nad sonifikacją i eksploracji danych.
Historia
Licznik Geigera , wynaleziony w 1908 roku, jest jednym z najwcześniejszych i odnoszących największe sukcesy zastosowań sonifikacji. Licznik Geigera ma rurkę z gazem o niskim ciśnieniu; każda wykryta cząstka wytwarza impuls prądu, gdy jonizuje gaz, wytwarzając kliknięcie dźwiękowe. Oryginalna wersja była w stanie wykryć tylko cząstki alfa. W 1928 roku Geiger i Walther Müller (doktorant Geigera) ulepszyli licznik tak, aby mógł wykrywać więcej rodzajów promieniowania jonizującego.
W 1913 roku dr Edmund Fournier d'Albe z University of Birmingham wynalazł optofon , który wykorzystywał fotoczujniki selenowe do wykrywania czarnego druku i przekształcania go w sygnał dźwiękowy. Niewidomy czytelnik mógł przyłożyć książkę do urządzenia i przyłożyć urządzenie do obszaru, który chciał przeczytać. Optofon zagrał ustaloną grupę dźwięków: g c' d' e' g' b' c e . Każda nuta odpowiadała pozycji w obszarze czytania optofonu, a nuta ta była wyciszona, jeśli wykryto czarny atrament. Tak więc brakujące notatki wskazywały miejsca, w których czarny atrament znajdował się na stronie i mógł być używany do czytania.
Pollack i Ficks opublikowali pierwsze eksperymenty percepcyjne dotyczące transmisji informacji za pomocą wyświetlacza słuchowego w 1954 r. Eksperymentowali z łączeniem wymiarów dźwięku, takich jak czas, częstotliwość, głośność, czas trwania i przestrzenność, i odkryli, że mogą skłonić badanych do zarejestrowania zmian w wielu wymiarach natychmiast. Eksperymenty te nie były bardziej szczegółowe, ponieważ każdy wymiar miał tylko dwie możliwe wartości.
John M. Chambers , Max Mathews i FR Moore z Bell Laboratories przeprowadzili najwcześniejszą pracę nad wykresami słuchowymi w swoim memorandum technicznym „Auditory Data Inspection” w 1974 r. Rozszerzyli wykres rozrzutu za pomocą dźwięków, które zmieniały się w zależności od częstotliwości, zawartości widmowej i modulacji amplitudy wymiary do wykorzystania w klasyfikacji. Nie dokonali żadnej formalnej oceny skuteczności tych eksperymentów.
W 1976 roku filozof technologii, Don Ihde, napisał: „Tak jak wydaje się, że nauka tworzy nieskończony zestaw wizualnych obrazów dla praktycznie wszystkich swoich zjawisk – atomy po galaktyki są nam znane od stolików do kawy po czasopisma naukowe; tak też” muzyka też mogłaby powstać z tych samych danych, które służą do tworzenia wizualizacji”. Wydaje się, że jest to jedno z najwcześniejszych odniesień do sonifikacji jako praktyki twórczej.
Pulsoksymetry weszły do powszechnego użytku w latach 80 . Pulsoksymetry mogą sonifikować stężenie tlenu we krwi, emitując wyższe tony dla wyższych stężeń. Jednak w praktyce ta szczególna cecha pulsoksymetrów może nie być szeroko wykorzystywana przez personel medyczny ze względu na ryzyko zbyt wielu bodźców dźwiękowych w środowisku medycznym.
W 1992 roku Gregory Kramer założył International Community for Auditory Display (ICAD) jako forum badań nad wyświetlaniem słuchowym , które obejmuje sonifikację danych. Od tego czasu ICAD stał się domem dla badaczy z wielu różnych dyscyplin zainteresowanych wykorzystaniem dźwięku do przekazywania informacji na konferencjach i recenzowanych materiałach.
W maju 2022 roku NASA poinformowała o sonifikacji (przekształceniu danych astronomicznych związanych z falami ciśnienia w dźwięk ) czarnej dziury w centrum gromady galaktyk Perseusza .
Niektóre istniejące aplikacje i projekty
- Wysokościomierz słuchowy , używany również w skokach spadochronowych [ nieudana weryfikacja ]
- Termometr słuchowy
- Zegary np. ze słyszalnym tykaniem co sekundę i ze specjalnymi dzwonkami co 15 minut
- Wyświetlacze dźwiękowe w kokpicie
- licznik Geigera
- Fale grawitacyjne w LIGO
- Interaktywna sonifikacja
- Medyczne i chirurgiczne wyświetlacze słuchowe
- Multimodalne (połączone zmysły) wyświetlacze w celu zminimalizowania wizualnego przeciążenia i zmęczenia
- Nawigacja
- DNA
- Fizyka kosmosu
- Pulsoksymetria na salach operacyjnych i intensywnej terapii
- Alarm prędkości w pojazdach mechanicznych
- Sonar
- Sonifikacja burzy i pogody
- Wykrywanie aktywności wulkanicznej
- Analiza skupień danych wielowymiarowych przy użyciu sonifikacji trajektorii cząstek
- Wolumen i wartość Dow Jones Industrial Average
- Sonifikacja obrazu dla osób niedowidzących
- CURAT Sonifikacja Gra oparta na sonifikacji psychoakustycznej
- Tiltyfikacja oparta na sonifikacji psychoakustycznej
Techniki sonifikacji
Można zmienić wiele różnych komponentów, aby zmienić postrzeganie dźwięku przez użytkownika, a co za tym idzie, jego postrzeganie przedstawianych podstawowych informacji. Często wzrost lub spadek poziomu tych informacji jest wskazywany przez wzrost lub spadek wysokości tonu , amplitudy lub tempa , ale można to również wskazać zmieniając inne, rzadziej używane komponenty. Na przykład cenę giełdową można przedstawić jako rosnącą w miarę wzrostu ceny akcji i obniżającą w miarę jej spadku. Aby umożliwić użytkownikowi ustalenie, że przedstawiany był więcej niż jeden materiał, różne barwy lub jasności mogą być używane dla różnych materiałów lub mogą być odtwarzane użytkownikowi z różnych punktów w przestrzeni, na przykład przez różne strony słuchawek .
Podjęto wiele badań w celu znalezienia najlepszych technik prezentacji różnych rodzajów informacji, ale jak dotąd nie sformułowano rozstrzygającego zestawu technik, które należy zastosować. Ponieważ uważa się, że obszar sonifikacji wciąż jest w powijakach, obecne badania mają na celu określenie najlepszego zestawu komponentów dźwiękowych, które będą się zmieniać w różnych sytuacjach.
Można podzielić na kategorie kilka różnych technik słuchowego renderowania danych:
- Sonifikacja akustyczna
- Audycja
- Sonifikacja oparta na modelu
- Mapowanie parametrów
- Sonifikacja oparta na strumieniu
Alternatywnym podejściem do tradycyjnej sonifikacji jest „sonifikacja przez zastąpienie”, na przykład Pulsed Melodic Affective Processing (PMAP). W PMAP zamiast sondyfikować strumień danych, protokołem obliczeniowym są same dane muzyczne, na przykład MIDI. Strumień danych reprezentuje stan niemuzyczny: w PMAP stan afektywny. Obliczenia można następnie wykonać bezpośrednio na danych muzycznych, a wyników można słuchać przy minimalnym tłumaczeniu.
Zobacz też
- Wyświetlacz dźwiękowy - Wykorzystanie dźwięku do przekazywania informacji z komputera do użytkownika
- Muzyka komputerowa - Zastosowanie technologii komputerowej w muzyce
- Muzyka i sztuczna inteligencja – Temat wspólny na Międzynarodowej Konferencji Muzyki Komputerowej
Linki zewnętrzne
- Międzynarodowa społeczność wyświetlaczy słuchowych
- Raport Sonification (1997) stanowi wprowadzenie do stanu dziedziny i aktualnych programów badawczych.
- The Sonification Handbook , książka o otwartym dostępie, która zawiera obszerną wstępną prezentację kluczowych obszarów badawczych w zakresie sonifikacji i wyświetlania dźwiękowego.
- Projektowanie informacji dźwiękowych , praca doktorska Stephena Barrassa 1998, Podejście zorientowane na użytkownika do projektowania udźwiękowień.
- Mozzi: interaktywna sonifikacja czujnika na mikroprocesorze Arduino.
- Wstępny raport na temat uzasadnienia projektu, składni i semantyki LSL: język specyfikacji dla auralizacji programów, D. Boardman i AP Mathur, 1993.
- Język specyfikacji dla auralizacji programów, D. Boardman, V. Khandelwal i AP Mathur, 1994.
- Samouczek sonifikacji
- Ogólne środowisko sonifikacyjne SonEnvir
- Sonification.de zawiera informacje o Sonification i Auditory Display, linki do interesujących wydarzeń i powiązanych projektów
- Sonifikacja do eksploracyjnej analizy danych , rozprawa doktorska Thomasa Hermanna 2002, opracowanie modelu opartego na sonizacji.
- Sonifikacja komunikacji mobilnej i bezprzewodowej
- Interaktywna sonizacja centrum wiadomości i nadchodzących wydarzeń w dziedzinie interaktywnej sonifikacji
- zerowa asocjacja czasoprzestrzenna
- CodeSounding — platforma dźwiękowa typu open source, która umożliwia usłyszenie, jak „brzmi” dowolny istniejący program Java , poprzez przypisanie instrumentów i tonacji do instrukcji kodu (if, for itp.) i odtwarzanie ich podczas wykonywania w czasie wykonywania. W ten sposób przepływ wykonania jest odtwarzany jako przepływ muzyki, a jej rytm zmienia się w zależności od interakcji użytkownika.
- LYCAY , biblioteka Java do sonifikacji kodu źródłowego Java
- WebMelody , system do sonifikacji aktywności serwerów WWW.
- Sonifikacja zestawu Cantora [1]
- Sonification Sandbox v.3.0 , program Java do konwersji zestawów danych na dźwięki, GT Sonification Lab, School of Psychology, Georgia Institute of Technology .
- Program Sonification using Java , rozdział online (z kodem) wyjaśniający, jak zaimplementować sonikację za pomocą syntezy mowy, generowania nut MIDI i klipów audio.
- [2] Sonifikacja na żywo Ocean Swell