Zobaczyć dźwięk. Notacja i zapis muzyki elektronicznej
Ważne daty
1857 r. – Édouard‑Léon Scott de Martinville konstruuje fonoautograf
1878 r. – powstaje fonograf Thomasa Edisona
1927 r. – René Bertrand i Edgard Varèse prezentują dynaphone
1948 r. – premiera Concert de bruits Pierre’a Schaeffera w paryskim radio w ramach Club d’Essai
1951 r. – powstaje w Paryżu Groupe de Recherche de Musique Concrete
1951 r. – powstaje Studio Muzyki Elektronicznej w Kolonii (RFN, obecne Niemcy)
1932 r. – Yevgeny Sholpo prezentuje variophone
1952 r. – pierwszy koncert muzyki na taśmę w Museum of Modern Art w Nowym Jorku
1954 r. – wydanie partytury Studie II Karlheinza Stockhausena
1955–1956 r. – pierwsza kompozycja, której materiał muzyczny w całości pochodzi z algorytmu zrealizowanego komputerowo – Illiac Suite Lejaren Hiller’a i Leonarda Isaacsona
1957 r. – powstaje Studio Eksperymentalne Polskiego Radia w Warszawie
1957 r. – w Bell Labs powstaje pierwszy komputerowy program muzyczny MUSIC autorstwa Maxa Mathewsa
1958 r. – powstaje Syntezator ANS Evgena Murzina
1961 r. – Max Mathews zrealizował pierwszy syntetyczny „śpiew” komputerowy w Bell Labs
1977 r. – Patrick Saint‑Jean we współpracy z Iannisem Xenakisem konstruuje pierwszą wersję systemu UPIC
Scenariusz dla nauczyciela
II. Analiza i interpretacja dzieł muzycznych. Uczeń:
1. zna podstawowe terminy i pojęcia właściwe dla opisu i zrozumienia wybranych dzieł muzycznych;
2. nazywa i porządkuje główne nurty, gatunki i style muzyczne, wskazuje formy wypowiedzi artystycznej spoza tradycyjnej klasyfikacji, uzasadniając swoją wypowiedź;
3. zna konteksty kulturowe i naukowe powstawania muzyki;
4. dokonuje analizy percepcyjnej, uwzględniając:
a) elementy muzyki,
b) podstawowe techniki kompozytorskie,
c) cechy stylów muzycznych,
d) strukturę gatunków i form muzycznych, ich zmiany i rozwój,
e) funkcje: np. religijna, społeczna, użytkowa, artystyczna i in.;
5. rozpoznaje cechy stylistyczne utworu reprezentującego określoną epokę muzyczną.
III. Tworzenie wypowiedzi związanych z historią i kulturą muzyczną. Uczeń:
4. formułuje logiczną wypowiedź na temat dzieł, form, gatunków, stylów, technik i twórców muzycznych, uwzględniając zależności między nimi w kontekście: genezy, przeobrażeń, porównań.
przedstawiać rozwój muzyki elektronicznej;
charakteryzować metody jej zapisu oraz notacji w kontekście postępu technologicznego w XX wieku.
Edgar Varèse i koncepcja notacji „sejsmograficznej”

Jednym z pierwszych kompozytorów, który dostrzegł potencjał elektroniki w kompozycji muzycznej był Edgar Varèse. Czynnie angażował się w prace nad skonstruowaniem elektronicznego urządzenia do dowolnego kształtowania dźwięku oraz zachęcał innych kompozytorów do współpracy z inżynierami i wynalazcami. Jego myśli w tym kierunku sięgają roku 1913, kiedy to poznał i zaprzyjaźnił się z projektantem elektroniki René Bertrandem. Bertrand i Varèse pracowali razem nad urządzeniem o nazwie dynaphone zaprezentowanym w 1927 r.

Podczas wykładu na Uniwersytecie Kalifornii Południowej w 1939 r., Edgar Varèse powiedział:
potrzebuję całkowicie nowego medium ekspresji: maszynę produkującą dźwięk (nie reprodukującą)… Cokolwiek napiszę, dotrze do słuchacza wolne od interpretacji wykonawczej. Będzie to polegało mniej więcej na tym: gdy kompozytor ukończy swoją pracę na papierze z pomocą nowej grafiki, podobnej w założeniach do notacji sejsmograficznej, oscyloskopowej, we współpracy z inżynierem dźwięku przetransferuje on ją bezpośrednio do tej elektrycznej maszyny. Po tym procesie każdy będzie mógł nacisnąć przycisk, aby uwolnić muzykę dokładnie taką, jaką napisał kompozytor.
Pomysł notacji podobnej do „sejsmograficznej” nie wziął się znikąd. Pierwszy zapis fali dźwiękowej powstał za pomocą fonoautografu, który skonstruował Édouard‑Léon Scott de Martinville w 1857 r., a zapis, który dało się ponownie zamienić na dźwięk, stał się możliwy wraz z powstaniem fonografu Thomasa Edisona w 1878 r.
Struktura dźwięku – fala wynikowa, spektrum
Za czasów Varèse’a była już znana teoria Josepha Fouriera z 1822 r., iż każdy sygnał okresowy można przedstawić w postaci sumy sygnałów sinusoidalnych o odpowiednich amplitudach, częstotliwościach i przesunięciach. Znane nam „alikwotyalikwoty” to nic innego, jak kolejne fale składowe dźwięku.

Wiedza ta, poparta obserwacjami i badaniami, pozwoliła spojrzeć na dźwięk ze świadomością jego złożonej struktury, analizować różne źródła dźwięku pod kątem zawartości składowych, a następnie podejmować próby stworzenia całkowicie nowych dźwięków albo tzw. resyntezę – sztuczne odtworzenie dźwięków zarejestrowanych wcześniej. Odbywało się to np. poprzez dodawanie kolejnych fal składowych wytwarzanych przy pomocy generatorów przebiegów sinusoidalnych, co nazywamy syntezą addytywną. Przeciwieństwem jest synteza subtraktywna polegająca na odejmowaniu od widma szumu pewnych zakresów częstotliwości (poprzez filtrowaniefiltrowanie). Stało się to przedmiotem badań kompozytorów i inżynierów, m. in. Karlheinza Stockhausena, Herberta Eimerta działających w Studio Muzyki Elektronicznej w Kolonii, powstałym w roku 1951 z inicjatywy Wernera Meyera‑Epplera. Możliwość tworzenia nowych dźwięków wg ustalonych ścisłych porządków i zasad, np. serialnych, bardzo odpowiadało zwolennikom myśli tzw. szkoły darmstadzkiej.
Przykłady dźwiękowe dźwięków syntetycznych realizowanych za pomocą syntezy addytywnej i subtraktywnej.
Przykład.
Usłyszycie dźwięk naturalnego szumu morza, a następnie próbę zrealizowania podobnego efektu za pomocą syntezy subtraktywnej – filtrowania dźwięku generatora szumu białego. Czy dźwięk syntetyczny jest podobny do oryginału?
Nagranie dostępne pod adresem https://zpe.gov.pl/a/DOTdciKd8
Utwór muzyczny: Przykład muzyczny nr 2, odgłos morza. Kompozycja posiada umiarkowane tempo. Cechuje się spokojnym charakterem.
Rysowanie dźwięku – muzyka ornamentalna
Termin ten pojawił się w historii muzyki jako określenie dla muzyki powstałej poprzez rysowanie ornamentów, powtarzalnych wzorów, naświetlanych na filmowej taśmie światłoczułej. Zaciemnienia i jaśniejsze obszary taśmy miały wpływ na przebieg amplitudy dźwięku. W ten sposób prowadzone były pierwsze eksperymenty nad stworzeniem nowych syntetycznych dźwięków – badano jak brzmią rozmaite kształty fali, a także tworzono specjalne urządzenia pozwalające na realizację całych kompozycji.
Prekursorem wykorzystania zapisu fotooptycznego do syntezy dźwięku był Arseny Mikhailovich Avraamov – rosyjski kompozytor awangardowy i teoretyk, który tworzył pierwsze ręcznie malowane taśmy ze ścieżką dźwiękową na początku lat 30. XX w.

Pomysł syntezy dźwięku za pomocą aparatury światłoczułej wykorzystał do stworzenia urządzenia o nazwie variophone Yevgeny Sholpo (1932 r.) w Centralnym Laboratorium Komunikacji Przewodowej w Leningradzie. Zastąpił on malowane ręcznie i fotografowane kształty naświetlaniem taśmy z wykorzystaniem obracających się ze zmienną prędkością kartonowych dysków – szablonów przepuszczających światło przez odpowiednie otwory. Im większa prędkość obracającego się dysku, tym wyższy był wynikowy dźwięk. Jego barwa zależała od wyciętego w szablonie kształtu – ornamentu. Dzięki tej metodzie możliwe było także tworzenie kilku warstw, a więc polifonii (ścieżki były wtedy naświetlane jedna obok drugiej). Brzmienia uzyskiwane w ten sposób zaskakująco przypominają dźwięki pierwszych komputerów PC.
Warto zaznaczyć, że w innych krajach, np. w Niemczech (Rudolph Pfenninger, Oskar Fischinger), USA, Kanadzie (Norman McLaren) czy Anglii, równie chętnie sięgano do pomysłu „rysowania dźwięku”. Jednak to w ówczesnym ZSRR synteza dźwięku metodą fotooptyczną była najbardziej rozwinięta.

Zapis dźwięku stosowany na taśmach światłoczułych odegrał sporą rolę w postrzeganiu graficznym dźwięku i wyobrażeniach o notacji muzyki elektronicznej. Wielkim plusem tej technologii było bezpośrednio graficzne postrzeganie dźwięku. Rodziła ona nowe więzi i inspiracje między sferą plastyczną a muzyczną. Wciąż jednak brakowało kompozytorom narzędzia pozwalającego na pracę bezpośrednio na widmie – spektrum dźwięku.
Takim urządzeniem miał się stać syntezator ANS (nazwany tak na cześć Alexandra Nikolayevicha Scriabina) konstrukcji Evgena Murzina z 1958 r. Taśma filmowa została zastąpiona ruchomą czarną tablicą, na której rysowane były wzory stanowiące widmo dźwięku (a nie reprezentujące jak dotychczas jedynie amplitudę wynikową wszystkich fal składowych). W sumie możliwe było uzyskanie 720 tonów pokrywających cały zakres słyszalnych częstotliwości. Z syntezatora ANS korzystali najwybitniejsi przedstawiciele rosyjskiej muzyki awangardowej, m. in. Stanisław Kreichi, Alfred Schnittke, Edison Denisow, Sofia Gubajdulina, Eduard Artemyev.
Posłuchajcie jak brzmiał syntezator ANS.
Nagranie dostępne pod adresem https://zpe.gov.pl/a/DOTdciKd8
Utwór muzyczny: Brzmienie syntezatora ANS. Kompozycja posiada umiarkowane tempo. Cechuje się spokojnym charakterem.
Zapis na taśmie magnetycznej i nowe notacje
Przykłady notacji
Włodzimierz Kotoński, polski kompozytor muzyki elektronicznej, autor książki Muzyka elektroniczna, wyróżnił na drodze własnych doświadczeń pięć rodzajów notacji muzyki na taśmę:
1. zapis szkiców;
2. zapis precyzyjny;
3. partytura do zgrywania;
4. partytury wykonawcze;
5. partytury do słuchania.
1. Zapis szkicowy jest całkowicie dowolny – to rysunki, które kojarzą się kompozytorowi z danym dźwiękiem, obrazują np. kierunki (wznoszący, opadający), fakturę i strukturę (drobinki, płaszczyzny), rejestry (niski, średni, wysoki), barwę (dźwięk chropowaty, ostry, łagodny). Wyznacza formę utworu, np. poprzez użycie powtarzalnych symboli.
1. Przykładem zapisu precyzyjnego może być utwór Karlheinza Stockhausena Studie II, który zapisał się w historii muzyki jako pierwszy utwór muzyki elektronicznej wydany w postaci papierowej partytury. Odbił się on szerokim echem znajdując naśladowców, m.in. w warszawskim Studio Eksperymentalnym Polskiego Radia (np. wydane przez PWM Etiuda na jedno uderzenie w talerz Włodzimierza Kotońskiego czy Muzyka na taśmę Andrzeja Dobrowolskiego). Na podstawie zapisu precyzyjnego da się zrealizować dany utwór ponownie.
W Studie II siatka górnego wykresu wyznacza użyte przez kompozytora 81 częstotliwości tonów prostych wygenerowanych do zrealizowania poszczególnych zacienionych bloków. Dolny wykres oznacza ich głośność – obwiednię. Czas trwania bloków wyznacza oś środkowa. Co ciekawe, w oryginalnej partyturze czas podawany jest w… centymetrach. Chodzi tu o długość taśmy magnetofonowej.
1. Wspomniana przez W. Kotońskiego partytura do zgrywania to schemat niezbędny do montażu taśmy magnetofonowej. Zawiera opisane literami bądź cyframi fragmenty taśmy, długość odcinków, sposób nakładania się i relacje dynamiczne. Obecnie, gdy pracujemy na komputerach, za partyturę do zgrywania służy nam okno montażu w programie DAW (Digital Audio Workstation). Dawniej, aby się w tym wszystkim nie poplątać, trzeba było dużej dyscypliny w segregowaniu i oznaczaniu poszczególnych odcinków taśmy.
1. Partytury wykonawcze niezbędne są w przypadku wykonywania muzyki elektronicznej przez żywych wykonawców (live electronics) lub gdy np. grze na instrumencie akustycznym towarzyszy podkład dźwiękowy, zwyczajowo zwany taśmą. Umożliwia zorientowanie się wykonawcy w czasie, np. poprzez prowizoryczne zobrazowanie zawartości, podanie czasu, wyznaczenie punktów węzłowych, startu/zatrzymania taśmy. Partytura wykonawcza nie musi zawierać wszystkich szczegółów utworu. Ma jedynie umożliwić jego wykonanie podczas koncertu.
1. Kompozytorzy chcąc ułatwić słuchaczom odbiór muzyki elektronicznej wielokrotnie decydowali się na opracowanie (nie zawsze samodzielne) tzw. partytury do słuchania. Jej zadaniem jest graficzne zobrazowanie zawartości muzycznej w przystępnej, abstrakcyjnej formie. Jednym z najlepszych przykładów jest Artikulation Gyorgya Ligetiego, którego partyturę graficzną opracował R. Wehinger.
W Internecie dostępnych jest wiele animacji obrazujących muzykę (nie tylko elektroniczną). Można je porównać właśnie do tego rodzaju partytur, ale w ruchomej, zaanimowanej formie. Wysłuchaj teraz fragmentu utworu Artikulation
{audio} Gyorg Ligeti, Arikulation (fragment), wyk. Ligeti Project, online-skills, CC BY 3.0
1. Ciekawym przypadkiem jest Symfonia na taśmę Bogusława Schaeffera z 1964 r. Zapis szkicowy został opracowany graficznie i wydany przez Polskie Wydawnictwo Muzyczne. Stał się więc partyturą do słuchania. Bogusław Schaeffer nie tworzył dźwięków w studio samodzielnie, lecz pozwolił zinterpretować reżyserowi dźwięku swoje dość precyzyjne opisy tekstowe zawarte w legendzie oraz graficzne symbole. Pierwszym realizatorem taśmy – interpretatorem (w 1966 r.) był Bohdan Mazurek – inżynier Studia Eksperymentalnego Polskiego Radia w Warszawie. Kompozytor dał możliwość tworzenia nowych wersji – interpretacji utworu.
Wysłuchaj teraz fragmentu utworu Symfonia na taśmę. {audio} Bogusław Schaeffer, Symfonia na taśmę (fragment), online-skills, CC BY 3.0
Wynalezienie w latach 30. XX w. zapisu na taśmie magnetycznej i upowszechnienie się go w latach 50. było jednym z ważniejszych wydarzeń w historii muzyki elektronicznej, mających ogromny wpływ na rozwój muzyki elektronicznej oraz proces komponowania i notacji.
Praca na taśmie znacznie przyspieszyła i ułatwiła, a niekiedy wręcz umożliwiła cały proces komponowania muzyki elektronicznej. Szczególnie istotna była możliwość wielowarstwowej pracy z taśmą, dzięki wykorzystaniu więcej niż jednego magnetofonu i taśm wielościeżkowych. Możliwe stało się tworzenie dużo bogatszych struktur dźwiękowych. Muzyka na taśmę szybko zyskała rozgłos w Stanach Zjednoczonych za sprawą Johna Cage’a, który w 1951 r. założył nieformalną grupę kompozytorską Project of Music for Magnetic Tape. Natomiast w 1952 r. w Museum of Modern Art w Nowym Jorku odbył się pierwszy koncert muzyki na taśmę, na którym swoje prace prezentowali Vladimir Ussachevsky i Otto Luening.
Taśma magnetyczna nie miała, niestety, żadnej reprezentacji wizualnej dźwięku, tak jak to miało miejsce w przypadku chociażby taśmy fotooptycznej. Koniecznością stało się tworzenie szkiców na papierze, co dało początek rozmaitym koncepcjom notacji muzyki elektronicznej.
Rysowanie dźwięku – system UPIC Iannisa Xenakisa. Muzyka spektralna

Kontynuatorem myśli Edgara Varèse’a odnośne notacji „sejsmograficznej” oraz projektowania widma dźwięku, podobnie jak w syntezatorze ANS, był Iannis Xenakis, który we współpracy z inżynierem Patrickiem Saint‑Jeanem stworzyli w 1977 r. w Paryżu system UPIC (Unité Polyagogique Informatique du CEMAMu). Widmo dźwięku projektowane było przez kompozytora za pomocą tabletu graficznego. Rysunek wykonywany na tablecie pojawiał się na ekranie komputera, w którym był zapamiętywany, a następnie mógł być wydrukowany lub poddawany konwersji do modułu odpowiedzialnego za syntezę dźwięku i nagrywany za pomocą magnetofonu. System UPIC był stale modernizowany. Ostatnia wersja, której powstawanie koordynował Xenakis, powstała w 1992 r. Ważnym krokiem naprzód była możliwość wprowadzenia do komputera nagranego dźwięku i przekonwertowanie go do postaci graficznej, którą można było modyfikować.

W latach 70. XX w., gdy możliwa stała się precyzyjna analiza dźwięku pod kątem zawartości fal składowych, powstała technika kompozytorska zwana „spektralizmem”. Terminu muzyka spektralna użył po raz pierwszy Hugues Dufourt w 1979 r. Polegała ona na wykorzystaniu wiedzy pochodzącej z analizy spektralnej dźwięku do stworzenia nowych jakości brzmieniowych za pomocą instrumentów akustycznych lub elektroniki. Kompozytorzy stosujący tą technikę to m. in. Gérard Grisey, Tristan Murail, Michael Levinas.
Początki muzyki komputerowej

Pojawienie się komputerów i programów umożliwiających komponowanie muzyki i syntezę dźwięku było kolejnym po taśmie magnetycznej krokiem milowym w historii muzyki elektronicznej. Warta zaznaczenia jest w pierwszej kolejności rodzina programów MUSIC‑N, tworzona od 1957 r. w laboratoriach firmy Bell Labs m. in. przez Maxa Mathewsa – uważanego za ojca muzyki komputerowej (od jego imienia wziął nazwę jeden z popularniejszych wśród współczesnych kompozytorów muzyki elektronicznej programów – Max MSP).
W 1961 r. Max Mathews zaprezentował stworzony na komputerze akompaniament do piosenki Daisy Bell, w której melodię i słowa „zaśpiewał” po raz pierwszy w historii syntetyczny głos komputera. Choć początkowo muzyka komputerowa pod względem brzmieniowym nie zachwycała, ostatecznie, dzięki nieustannemu rozwojowi technologii informatycznej, dźwięk wytwarzany przy pomocy komputerów całkowicie zdominował obszar muzyki elektronicznej.
Komputer w muzyce elektronicznej poza spełnianiem funkcji stołu montażowego czy generatora dowolnie kształtowanego dźwięku (o którym marzył Varèse), daje również możliwość tworzenia środowiska interaktywnego, w którym funkcjonują wykonawcy używający instrumentów/kontrolerów – jest zatem wykorzystywany w muzyce live electronicslive electronics. Może też wspomagać pracę kompozytora np. w zakresie doboru materiału muzycznego – wg zadanego algorytmu. Ten ostatni typ kompozycji nazywany jest „computer‑aided composition” (CAAC). Niekiedy muzyka tworzona dzięki algorytmom komputerowym nie jest wcale wykonywana przez żadne urządzenie elektroniczne, lecz przez żywych wykonawców. Tak było w przypadku kompozycji Illiac Suite na kwartet smyczkowy z 1955–1956 r. Lejarena Hillera i Leonarda Isaacsona, która powstała dzięki wygenerowaniu danych – tablicy numerycznej do regulacji wysokości, długości trwania dźwięku oraz instrumentacji. Nazwa utworu pochodzi od komputera Illiac, na którym uruchomiony został algorytm.
Zadania
Podaj nazwisko kompozytora, który czynnie zaangażował się w konstruowanie urządzenia do dowolnego kształtowania dźwięku i jako jeden z pierwszych dostrzegł potencjał elektroniki w twórczości muzycznej.
- Claude Debussy
- Arnold Schoenberg
- Edgar Varèse
Wyjaśnij pojęcie Teoria Fouriera.
Muzyka ornamentalna to…
- muzyka tworzona w krajach azjatyckich
- muzyka wytworzona za pomocą rysowania ornamentów i naświetlaniu ich na taśmie światłoczułej
- muzyka bogata w ozdobniki, np. obiegniki, tryle
Zaznacz tytuły utworów wydanych w postaci papierowej partytury. Pamiętaj, poprawna może być więcej niż jedna odpowiedź.
- Mycenae alpha Iannis Xenakis
- Etiuda na jedno uderzenie w talerz Włodzimierz Kotoński
- Studie Karlheinz Stockhausen
Przedstawicielami nurtu muzyki spektralnej byli:
- Gérard Grisey,Tristan Murail,Michael Levinas
- John Cage, Vladimir Ussachevsky, Otto Luening
- Pierre Schaeffer, Pierre Henry, Jacques Poullin
Wyjaśnij pojęcie alikwoty.
Czy kompozycja na kwartet smyczkowy zrealizowana w latach 1955–1956 przez Lejarena Hillera i Leonarda Isaacsona dzięki pomocy algorytmu komputerowego (computer-aided composition)nazywa się Illiac Suite?
- Prawda
- Fałsz
Obejrzyj fragment partytury Symfonii na taśmę Bogusława Schaeffera. Jakie dźwięki wyobrażasz sobie patrząc na graficzne symbole? Skonfrontuj swoje wyobrażania z wersją Bohdana Mazurka dostępną w Internecie:
Nagranie dostępne pod adresem https://zpe.gov.pl/a/DOTdciKd8
Utwór: fragment partytury Symfonii na taśmę. Wykonawca: Bogusław Schaeffer. Kompozycja posiada umiarkowane tempo. Cechuje się groźnym, tajemniczym charakterem.

Do czego służy System UPIC?
Posłuchaj utworu Artikulation G. Ligetiego bez patrzenia na wizualizację. Następnie posłuchaj jeszcze raz, ale tym razem z wizualizacją. Czy słuchanie tego utworu z wizualizacją było ciekawsze?
Weź białą kartkę papieru A4, ustaw w poziomie i naszkicuj partyturę w formie spektrogramu, podobną do rysunku uzyskiwanego za pomocą urządzenia UPIC Iannisa Xenakisa. Dłuższy bok niech stanowi oś czasu, a krótszy wyznacza częstotliwości. W dolnej części kartki będą znajdować się dźwięki niższe, średni rejestr pośrodku, natomiast w górnej części dźwięki wyższe. Czy jesteś w stanie wyobrazić sobie jak mogłaby zabrzmieć Twoja muzyka?
Możesz to zadanie wykonać również w programie graficznym.
W Internecie dostępnych jest kilka programów, które pozwolą Ci zamienić Twój rysunek na dźwięk, np. Photosounder.
Spróbuj!
Słownik pojęć
Częstotliwości harmoniczne tonu podstawowego, wyższe składowe.
Zmiana proporcji występowania poszczególnych tonów składowych dźwięku za pomocą urządzeń elektronicznych.
Rodzaj muzyki elektronicznej, w której wykorzystywane jest przetwarzanie/generowanie dźwięku bezpośrednio podczas wykonania na żywo.
Muzyka powstała poprzez rysowanie ornamentów, powtarzalnych wzorów, naświetlanych następnie na taśmie światłoczułej i odtwarzanych za pomocą przystawki fonicznej projektora. Jeden z pierwszych rodzajów syntezy dźwięku.
Termin użyty po raz pierwszy przez Huguesa Dufourta w 1979 r. Polegała ona na wykorzystaniu wiedzy pochodzącej z analizy spektralnej dźwięku do stworzenia nowych jakości brzmieniowych za pomocą instrumentów akustycznych lub elektroniki. Kompozytorzy stosujący tę technikę to m. in. Gérard Grisey, Tristan Murail, Michael Levinas.
Rodzaj notacji muzyki elektronicznej. Nie przedstawia precyzyjnie zawartości materiału muzycznego. Jej zadaniem jest wsparcie słuchacza graficzną wizualizacją w śledzeniu przebiegu utworu.
Sztuczne odtworzenie za pomocą urządzeń elektronicznych dźwięków zarejestrowanych wcześniej i przeanalizowanych pod kątem zawartości tonów składowych.
Urządzenie służące do badania ruchów tektonicznych ziemi.
Inaczej widmo dźwięku – wykres rozkładu częstotliwości dźwięku w osi czasu lub w zatrzymanej chwili. Pozwala przeanalizować dźwięk pod względem zawartości poszczególnych składowych.
Sztuczne wytwarzanie, za pomocą urządzeń elektronicznych, całkowicie nowych, nieistniejących w naturze dźwięków. Synteza addytywna polega na dodawaniu do siebie kolejnych tonów składowych, natomiast subtraktywna – na odejmowaniu poszczególnych pasm, np. za pomocą filtrów.
UPIC – Unité Polyagogique Informatique du CEMAMu. System służący do komponowania muzyki elektronicznej poprzez rysowanie na osi czasu fal składowych dźwięku. Dane wprowadzane były do komputera za pomocą tabletu graficznego. Powstał w 1977 r. w Paryżu z inicjatywy Iannisa Xenakisa.
Każdy sygnał okresowy można przedstawić w postaci sumy sygnałów sinusoidalnych o odpowiednich amplitudach, częstotliwościach i przesunięciach.
Najniższa fala składowa dźwięku, która wyznacza rozpoznawaną przez nas wysokość dźwięku, np. a1 = 440 Hz.
Źródło:
Adam Wolański, Słownik terminów muzyki rozrywkowej, Wydawnictwo Naukowe PWN, Warszawa 2000.
Wojciech Marchwica, Słownik muzyki, Zielona Sowa, Kraków 2006.

