Przejdź do zawartości

Wikipedysta:Tomasz alias/brudnopis

Z Wikipedii, wolnej encyklopedii
Sonifikacje pisma odręcznego
Przykład 1
Dziecko wprawione w pisaniu
Przykład 3
Dorosły wprawiony w pisaniu
Linie wibracyjne - dźwiękowo-wizualno-wibracyjne oznakowanie krawędzi jezdni - wypukłe pasy powodujące przy najechaniu na nie wibracje pojazdu i hałas
Optofon - urządzenie do sonifikacji tekstu

Sonifikacja (z łac. sonus – „dźwięk”) – zastosowanie dźwięków niebędących mową do przedstawienia informacji.

Ukucie się terminu „sonifikacja” jako określenia techniki wyrazu i obszaru badań sięga począków lat 90. XX wieku. Możliwości techniczne związane z powstaniem nowoczesnych technologii komputerowych, m.in. syntezą dźwięku, utworzyły oś dla wspólnej działalności intelektualnej specjalistów z wielu dziedzin zainteresowanych dźwiękową prezentacją danych.[1]

Zmysłem postrzegającym dźwięki u człowieka i wielu innych zwierząt jest słuch.[a] Percepcję słuchową charakteryzuje zdolność orientacji przestrzennej i czasowej, oraz w akustycznych wymiarach: amplitudalnym i częstotliwościowym. Umożliwia ona stosowanie sonifikacji jako alternatywę lub uzupełnienie komunikacji wizualnej oraz innych rodzajów komunikacji związanych z pozostałymi zmysłami. Obszerność dźwiękowego kanału komunikacyjnego umożliwia jednoczesne współwystępowanie sonifikacji i komunikacji werbalnej.

Mimo wielu eksperymentów przeprowadzonych przez grupy takie jak International Community for Auditory Display (ICAD), sonifikacja spotyka się z wieloma wyzwaniami na drodze ku rozpowrzechnionemu zastosowaniu do nietrywialnej eksploracji danych. Badania pokazują na przykład, że rzeczą trudną a niezbędną jest dostarczenie adekwatnego kontekstu interpretacyjnego.[3][4] Liczne próby sonifikacji kodowane są od zera z powodu braku elastycznych narzędzi.[5]

Technologie pokrewne sonifikacji: rozpoznawanie dźwięku i audio mining.

Dźwięki i sonifikacja w naturze

[edytuj | edytuj kod]
Dźwięki w naturze
Sonar delfina
Sonar delfina pod wodą, delfinarium na Krecie
Delfiny, wieloryby, ptaki, morze
Delfiny, wieloryby, ptaki i morze; Nueva Esparta w Wenezueli

Natura obfituje w zjawiska akustyczne, które często towarzyszą innym zjawiskom, np. grzmot jest efektem wyładowania elektrostatycznego w atmosferze (piorun).

Świat organizmów żywych przejawia olbrzymie zróżnicowanie pod względem zasobów własnych źródeł artykulacji dźwięków u poszczególnych gatunków, a nawet u poszczególnych osobników.[b] Wśród pewnych gatunków zaobserwowano skłonność do wytwarzania dźwięków z wykorzystaniem elementów środowiska, np. u makaków okazujących przez bębnienie w przedmioty społeczną dominację, czy u szczuroskoczka drapiącego ziemię.[6][7][8] Obdarzony przez naturę głosem i zdolny jak inne ssaki naczelne uderzać się po ciele w celach dźwiękotwórczych[c], Homo sapiens nie tylko wzbogaca swoje przyrodzone instrumentarium unarzędziowiając swój ekosystem w stanie surowym, lecz także przetwarza go w instrumenty muzyczne oraz inne narzędzia akustyczne o przeznaczeniu nieartystycznym.

U niektórych zwierząt np. u delfinów i nietoperzy spotykamy naturalną sonifikację występującą w funkcji echolokacyjnej. Choć echolokacja u ludzi nie należy do typowych zdolności, ani nie stwierdzono dotychczas jej obecności na wczesnych etapach rozwoju człowieka, znane są przypadki nabycia takich umiejętności przez ludzi niewidomych.[9]

Sonifikacja w technice

[edytuj | edytuj kod]
Odłosy człowieka idącego po słowiczej podłodze na zamku Daikaku-ji w Kioto

Jednym z najprostszych przykładów sonifikacji w technice jest gwizdek na czajniku. W miarę wzrastania temperatury wody w trakcie podgrzewania czajnika i gotowania wody, woda paruje coraz intensywniej, a przy maksymalnej temperaturze wrze. Przepływ pary przez gwizdek powoduje powstawanie dźwięków, a cały proces gotowania w uproszczeniu charakteryzuje crescendo. Dźwięki gwizdka można więc rozpatrywać jako przedstawienie informacji o temperaturze wody i przebiegu zmian jej stanu skupienia, a także informacji o czajniku - np. że zawiera on intensywnie parującą wodę, albo że już wyparowała i jest pusty.

Przykładem sonifikacji bardziej zaawansowanej technicznie jest licznik Geigera, który przedstawia dźwiękowo poziom promieniowania jonizującego w otoczeniu, np. poprzez wydawanie trzasków.

Historia sonifikacji w technice

[edytuj | edytuj kod]

Dźwięki towarzyszyły ludzkości od zarania dziejów. Choć ukształtowanie się wyższych zdolności wokalnych u praprzodków człowieka datuje się na ponad 4 miliony lat p.n.e.[10], najwcześniejszy znaleziony przez archeologów instrument muzyczny jest o wiele młodszy. Jest to Flet z Divje Babe, a jego wiek ocenia się na ok. 45,000 lat. Instrumenty muzyczne mogą być używane do komunikacji niewerbalnej pomiędzy ludźmi, w której określonym dźwiękom odpowiadają ustalone komunikaty i zarówno bezpośredni fizyczny nadawca jak i odbiorca komunikatu są ludźmi, tzn. nie ma między nimi żadnego mechanizmu wyzwalającego wygenerowanie komunikat. Przykładem takiej komunikacji jest użycie bębnów do sygnalizacji na duże odległości stosowane w Afryce.[11]

Wśród pierwszych zastosowań sonifikacji z wykorzystaniem automatycznych mechanizmów wskazać można proste systemy alarmowe składające się z potykaczy połączonych z elementami dźwiękotwórczymi używane np. do zapezpieczenia obozowisk.

<<<water clock platona https://en.wikipedia.org/wiki/Alarm_clock#History>>>

Nowoczesność

[edytuj | edytuj kod]
Przykład 1
Znikome promieniowanie
Przykład 2
Wysokie promieniowanie

Elektroftalm około 1897–1899 roku (zależnie od źródła)

Licznik Geigera wynaleziony w 1908 r. jest jednym z najpomyślniejszych zastosowań sonifikacji. Znajduje się w nim rurka wypełniona gazem pod niskim ciśnieniem, w której każda wykryta cząsteczka jonizując gaz wywołuje krótki przepływ prądu, który z kolei wytwarza dźwięk. Pierwotna wersja licznika mogła wykrywać jedynie cząsteczki alfa. W 1928 Geiger wraz ze swoim doktorantem Waltherem Müllerem udoskonalili licznik i mógł on już wykrywać więcej rodzajów promieniowania jonizującego.

Kolejnym istotnym wynalazkiem był optofon, skonstruowany przez Edmunda Fourniera d'Albe z Uniwersytetu w Birmingham w 1913. Ortofon wykorzystywał selenowe fotosensory do wykrywania czarnego druku i emitował słyszalny sygnał.[12] Osoba niewidoma zbliżała aparat do miejsca w książce, które chciała odczytać. Optofon wygrywał grupę nut: g c' d' e' g' b' c'' e''. Każda nuta odpowiadała obszarowi w czytniku optofonu, a jeśli w danym obszarze znajdował się tusz, odpowiednia nuta nie wybrzmiewała.

W 1954 Pollack i Ficks opublikowali pierwsze percepcyjne eksperymenty dotyczące transmisji informacji przez kanał dźwiękowy.[13] Eksperymentowali oni z kombinacjami wymiarów akustycznych takimi jak częstotliwość, głośność, czy czas trwania i stwierdzili, że osoby badane były w stanie spostrzegać zmiany w kilku wymiarach jednocześnie. Te eksperymenty nie były bardziej szczegółowe, bo każdy wymiar miał tylko dwie możliwe wartości.

John M. Chambers, Max Mathews, i F.R. Moore w Bell Labs dokonali pierwszych kroków w zakresie wykresowania dźwiękowego w 1974, co opisali w memorandum "Dźwiękowe badanie danych".[14] Wzbogacili oni wykres punktowy wykorzystując dźwięki o różnej częstotliwości, zwartości spektralnej i amplitudzie. Nie dokonali jednak żadnych formalnych ocen efektywności tych eksperymentów.[15]

W latach 1980-tych powszechna stała się pulsoksymetria. Pulsoksymetry sonifikują zawartość tlenu we krwi emitując dźwięki wyższej częstotliwości dla wyższych stężeń. Jednakże w praktyce ta konkretna może nie być szeroko używana przez medyków, z powodu ryzyka zbyt wielu bodźców słuchowych w środowisku medycznym.[16]

W 1992, Międzynarodowa Społeczność Komunikacji Dźwiękowej (International Community for Auditory Display - ICAD) została utworzona przez Gregorego Kramera jako forum dla badań komunikacji dźwiękowej, której część stanowi sonifikacja. Od tamtego czasu poprzez konferencje i recenzje ICAD stała się domem dla badaczy z różnych dyscyplin zainteresowanych stosowaniem dźwięku do przekazywania informacji..[17]

Metody sonifikacji

[edytuj | edytuj kod]
Tekst „Welcome to Wikipedia, the free encyclopedia that anyone can edit.” nadawany alfabetem Morse'a z prędkością 13 słów na minutę.

Podjęto wiele badań celem znalezienia najlepszych sposobów prezentacji różnych typów informacji. Jak dotąd nie sformułowano żadnego ostatecznego wyniku. Jako że obszar sonifikacji wciąż pozostaje w okresie niemowlęctwa, bieżące studia skierowane są na ustalenie optymalnego zestawu składowych dźwiękowych dla różnych sytuacji.

Odbiór informacji dźwiękowej polega na rozpoznaniu właściwych komponentów dźwięku, szeregu dźwięków, albo ciągłego strumienia dźwięków. Przy komunikatach prostych składających się z jednego znaku znany dźwięk o określonych właściwościach, np. wybrzmienie trąbki sygnałowej, syreny, czy klaksonu kojarzony jest z określonym znaczeniem. Komunikaty złożone powstają poprzez kombinację znaków według określonych reguł, np. w kodzie Morse'a używanym w telegrafii czy w optofonie, gdzie strukturę znaku złożonego określa obecność określonych nut.[d]

Kluczem do odczytania komunikatu może być powiązanie jego wartości z wielkością którejś ze składowych jego reprezentacji zmysłowej, albo z kilkoma składowymi, np. z tempem, amplitudą czy wysokością dźwięku. Na przykład zmiany ceny na giełdzie można przedstawić za pomocą wysokości dźwięku. Kiedy cena rośnie, rośnie wysokość dźwięku, a maleje, kiedy spada cena. Aby opisać kilka cen jednocześnie, można użyć kilku różnych barw dźwięku, albo porozmieszczać reprezentujące je głosy w różnych kierunkach przestrzeni psychoakustycznej.

Alarmy
Kolizja/zalewanie
Alarm kolizji albo zalewania na łodzi podwodnej
Alarm ataku
Alarm zbliżającego się pocisku na łodzi podwodnej
Uszkodzenie napędu
Alarm uszkodzenia układu napędowego na łodzi podwodnej
Zanurzanie
Mechaniczny alarm zanurzania na łodzi podwodnej
Pożar
Alarm pożarowy

Można wyróżnić kilka różnych technik dźwiękowej reprezentacji danych:

  • ikony dźwiękowe: earcon, dżingiel
  • audyfikacja
  • sonifikacja oparta na modelach
  • mapowanie parametrów
  • sonifikacja strumieniowa[18][19]
  • sonifikacja akustyczna - mapowanie danych poprzez strukturę rzeczywistych przedmiotów o właściwościach akustycznych, np. dzwonków z różnych materiałów[20]

Metody alternatywne

[edytuj | edytuj kod]

Podejściem alternatywnym do tradycyjnej sonifikacji jest „sonifikacja przez wymianę” (sonification by replacement), na przykład Pulsowe Melodyczne Afektywne Przetwarzanie (Pulsed Melodic Affective Processing, PMAP).[21][22][23] W PMAP strumień danych nie jest sonifikowany, a protokół obliczeniowy stanowi informację w formacie muzycznym, np. MIDI. Strumień danych preprezentuje stan niemuzyczny: w PMAP stan afektywny. Obliczenia mogą być więc przeprowadzane bezpośrednio na danych muzycznych, a wyniku można słuchać przy minimum konwersji.

Oprogramowanie

[edytuj | edytuj kod]

Obecna oferta oprogramowania do sonifikacji jest raczej skromna. Wiele pozycji ma formę wyspecjalizowanych programów do sonifikacji danych albo funkcji wbudowanych w istniejące frameworki.

Wśród innych narzędzi często używanych do konstruowania sonifikacji znajdują się:

Oprogramowanie wyspecjalizowane

[edytuj | edytuj kod]
  • LYCAY - biblioteka Java do sonifikacji kodu Java
  • WebMelody, system sonifikacji aktywności serwerów
  • CodeSounding Opensource'owy framework sonifikujący wykonanie kodu Java zależnie od interakcji użytkownika z programem

Przykłady zastosowań

[edytuj | edytuj kod]
Dwa pingi bez wyraźnego echa

Inne techniki komunikacji dźwiękowej

[edytuj | edytuj kod]

Przestrzeń znanych metod automatycznej komunikacji dźwiękowej dopełniają poczta głosowa i synteza mowy.

Technologie związane i odwrotne: kodowanie mowy, rozpoznawanie mowy, rozpoznawanie mówcy.

Przyjętym terminem obejmującym wszystkie techniki automatycznej komunikacji dźwiękowej jest auditory display - „prezentacja dźwiękowa”.

Sonifikacja jako osobna dyscyplina

[edytuj | edytuj kod]
Cykanie i sygnał budzika

Powiązane dziedziny

[edytuj | edytuj kod]

Sonifikacja jako obszar interdyscyplinarny łączy się z następującymi dziedzinami:

Nauki ścisłe i techniczne

[edytuj | edytuj kod]

Pozostałe dziedziny

[edytuj | edytuj kod]

Zobacz też

[edytuj | edytuj kod]
  1. Znane jest zjawisko odbioru muzyki przez osoby głuche.[2]
  2. Zob.: Strydulacja, Aparat strydulacyjny, Narząd tympanalny, Bioakustyka, Zoosemiotyka, Język delfinów.
  3. Zob.: A także drapać się, gryźć, itp.
  4. Zob.: język naturalny, język formalny.

Przypisy

[edytuj | edytuj kod]
  1. Gregory Kramer, Foreword, Thomas Hermann, Andy Hunt, John G. Neuhoff (red.), [w:] The Sonification Handbook, Berlin, Niemcy: Logos Verlag, 2011, iii (ang.).
  2. Poczuć niesłyszalną muzykę. Głusi i pozasłuchowa percepcja muzyki [online].
  3. Auditory Display: Sonification, Audification, and Auditory Interfaces. ISBN 0-201-62603-9.
  4. Smith i inni, Effects of Auditory Context Cues and Training on Performance of a Point Estimation Sonification Task., „Journal of Applied Cognitive Psychology, 19, 1065-1087”, 2005.
  5. J.H. Flowers, Thirteen years of reflection on auditory graphing: Promises, pitfalls, and potential new directions, „Proceedings of the 11th International Conference on Auditory Display (ICAD2005)”, Brazil, Eoin, 2005, s. 406–409.
  6. Animal drumming.
  7. R. Remedios, N.K. Logothetis, C. Kayser, Monkey drumming reveals common networks for perceiving vocal and nonvocal communication sounds, „Proceedings of the National Academy of Sciences of the United States of America”, 42, 106, 2009, s. 18010-5, DOI10.1073/pnas.0909756106, PMID19805199, PMCIDPMC2755465 (ang.).
  8. J.A. Randall, Evolution and Function of Drumming as Communication in Mammals, „American Zoologist”, 5, 41, 2001, s. 1143–1156, DOI10.1668/0003-1569(2001)041[1143:EAFODA]2.0.CO;2 (ang.).
  9. Thaler, Lore, Arnott, Stephen R., Goodale, Melvyn A.. Human Echolocation I. „Journal of Vision”. 10 (7), s. 1050 -1050, 2010. 
  10. Chris Knight, Ritual/speech coevolution: a solution to the problem of deception, James R Hurford, Michael Studdert-Kennedy, Chris Knight (red.), [w:] Approaches to the evolution of language : social and cognitive base, Cambridge, UK, New York: Cambridge University Press, 1998, s. 68–91, ISBN 978-0-521-63964-4, OCLC 37742390.
  11. Talking drums.
  12. E.E. Fournier d'Albe, On a Type-Reading Optophone, „Proceedings of the Royal Society of London”, 1914.
  13. L. Ficks, I. Pollack, Information of elementary multidimensional auditory displays, „Journal of the Acoustical Society of America”, 1954, DOI10.1121/1.1917759.
  14. Chambers i inni, Auditory Data Inspection, „Technical Memorandum 74-1214-20”, AT&T Bell Laboratories, 1974.
  15. S.P. Frysinger, A brief history of auditory data representation to the 1980s, „Proceedings of the 11th International Conference on Auditory Display (ICAD2005)”, Department of Computer Science and Information Systems, University of Limerick; Brazil, Eoin, 2005, s. 410–413.
  16. A K McIndoe, R M Craven, Continuous auditory monitoring--how much information do we register?, „British Journal of Anaesthesia”, 5, 83, 1999, s. 747–749, DOI10.1093/bja/83.5.747.
  17. B.N. Walker, G. Kramer, Sound science: Marking ten international conferences on auditory display, „ACM Transactions on Applied Perception”, 4, 2, 2005, s. 383–388, DOI10.1145/1101530.1101531.
  18. Barrass, S. and Best, G. (2008). Stream-based Sonification Diagrams. Proceedings of the 14th International Conference on Auditory Display, IRCAM Paris, 24–27 June 2008. online
  19. Barrass S. (2009) Developing the Practice and Theory of Stream-based Sonification. Scan Journal of Media Arts Culture, Macquarie University online
  20. Barrass S. (2012) Digital Fabrication of Acoustic Sonifications, Journal of the Audio Engineering Society, September 2012. online
  21. Pulsed Melodic Affective Processing: Musical structures for increasing transparency in emotional computation [online], 6 maja 2014 [dostęp 2017-06-05] (ang.).
  22. Towards Harmonic Extensions of Pulsed Melodic Affective Processing – Further Musical Structures for Increasing Transparency in Emotional Computation [online], 11 listopada 2014 [dostęp 2017-06-05] (ang.).
  23. A Hybrid Computer Case Study for Unconventional Virtual Computing [online], 1 czerwca 2015 [dostęp 2017-06-05] (ang.).
  24. Takahiko Tsuchiya, Data-to-music API: Real-time data-agnostic sonification with musical structure models, Georgia Tech Library, 2015 [dostęp 2017-06-21].
  25. E.T. Montgomery, R.W. Schmitt, Acoustic altimeter control of a free vehicle for near-bottom turbulence measurements, „Deep Sea Research Part I: Oceanographic Research Papers”, 44, 1997, s. 1077, DOI10.1016/S0967-0637(97)87243-3..
  26. G. Quincke, Ein akustisches Thermometer für hohe und niedrige Temperaturen, „Annalen der Physik und Chemie”, 299, 1897, s. 66-71, DOI10.1002/andp.18972991311.
  27. Optofono.
  28. Thomas Hermann, Andy Hunt, and Sandra Pauletto. Interacting with Sonification Systems: Closing the Loop. Eighth International Conference on Information Visualisation (IV'04) : 879-884. Available: online. DOI= http://doi.ieeecomputersociety.org/10.1109/IV.2004.1320244.
  29. Thomas Hermann, and Andy Hunt. The Importance of Interaction in Sonification. Proceedings of ICAD Tenth Meeting of the International Conference on Auditory Display, Sydney, Australia, July 6–9, 2004. Available: online
  30. Sandra Pauletto and Andy Hunt. A Toolkit for Interactive Sonification. Proceedings of ICAD Tenth Meeting of the International Conference on Auditory Display, Sydney, Australia, July 6–9, 2004. Available: online.
  31. IQ – Wissenschaft und Forschung, mp3 online: [1], Bayern 2, 24 stycznia 2014.
  32. LIGO Gravitational Wave Chirp [online].
  33. Sonification, Space Data Physics Facility, Goddard Space Flight Center, NASA.
  34. Jonathan H. Schuett i inni, Auditory Weather Reports: Demonstrating Listener Comprehension of Five Concurrent Variables, „Proceedings of the 9th Audio Mostly: A Conference on Interaction With Sound”, New York, NY, USA: ACM, 2014 (AM '14), 17:1-17:7, DOI10.1145/2636879.2636898, ISBN 978-1-4503-3032-9.
  35. PARALLEL COMPUTING OF PARTICLE TRAJECTORY SONIFICATION TO ENABLE REAL-TIME INTERACTIVITY, Goddard Space Flight Center, NASA.
  36. Kurt Kleiner, Volcanoes may reveal secrets through ‘song’, New Scientist, 2006 (ang.).
  37. sonification of a cantor set [online] [dostęp 2018-03-06].

Linki zewnętrzne

[edytuj | edytuj kod]

Instytucje

[edytuj | edytuj kod]

Projekty badawcze

[edytuj | edytuj kod]

Strony tematyczne

[edytuj | edytuj kod]

Artykuły

[edytuj | edytuj kod]

Kategoria:Komunikcja Kategoria:Informacja Kategoria:Psychoakustyka Kategoria:Cyfrowe przetwarzanie sygnałów