R1RUIILjmxeIq1

Zobaczyć dźwięk. Notacja i zapis muzyki elektronicznej

Źródło: online-skills, licencja: CC0.

Ważne daty

1857 r. – Édouard‑Léon Scott de Martinville konstruuje fonoautograf

1878 r. – powstaje fonograf Thomasa Edisona

1927 r. – René Bertrand i Edgard Varèse prezentują dynaphone

1948 r. – premiera Concert de bruits Pierre’a Schaeffera w paryskim radio w ramach Club d’Essai

1951 r. – powstaje w Paryżu Groupe de Recherche de Musique Concrete

1951 r. – powstaje Studio Muzyki Elektronicznej w Kolonii (RFN, obecne Niemcy)

1932 r. – Yevgeny Sholpo prezentuje variophone

1952 r. – pierwszy koncert muzyki na taśmę w Museum of Modern Art w Nowym Jorku

1954 r. – wydanie partytury Studie II Karlheinza Stockhausena

1955–1956 r. – pierwsza kompozycja, której materiał muzyczny w całości pochodzi z algorytmu zrealizowanego komputerowo – Illiac Suite Lejaren Hiller’a i Leonarda Isaacsona

1957 r. – powstaje Studio Eksperymentalne Polskiego Radia w Warszawie

1957 r. – w Bell Labs powstaje pierwszy komputerowy program muzyczny MUSIC autorstwa Maxa Mathewsa

1958 r. – powstaje Syntezator ANS Evgena Murzina

1961 r. – Max Mathews zrealizował pierwszy syntetyczny „śpiew” komputerowy w Bell Labs

1977 r. – Patrick Saint‑Jean we współpracy z Iannisem Xenakisem konstruuje pierwszą wersję systemu UPIC

1

Scenariusz dla nauczyciela

R1TBPrIH9e33l1
Scenariusz zajęć do pobrania.
Źródło: online-skills, licencja: CC0.

II. Analiza i interpretacja dzieł muzycznych. Uczeń:

1. zna podstawowe terminy i pojęcia właściwe dla opisu i zrozumienia wybranych dzieł muzycznych;

2. nazywa i porządkuje główne nurty, gatunki i style muzyczne, wskazuje formy wypowiedzi artystycznej spoza tradycyjnej klasyfikacji, uzasadniając swoją wypowiedź;

3. zna konteksty kulturowe i naukowe powstawania muzyki;

4. dokonuje analizy percepcyjnej, uwzględniając:

a) elementy muzyki,

b) podstawowe techniki kompozytorskie,

c) cechy stylów muzycznych,

d) strukturę gatunków i form muzycznych, ich zmiany i rozwój,

e) funkcje: np. religijna, społeczna, użytkowa, artystyczna i in.;

5. rozpoznaje cechy stylistyczne utworu reprezentującego określoną epokę muzyczną.

III. Tworzenie wypowiedzi związanych z historią i kulturą muzyczną. Uczeń:

4. formułuje logiczną wypowiedź na temat dzieł, form, gatunków, stylów, technik i twórców muzycznych, uwzględniając zależności między nimi w kontekście: genezy, przeobrażeń, porównań.

Nauczysz się

przedstawiać rozwój muzyki elektronicznej;

charakteryzować metody jej zapisu oraz notacji w kontekście postępu technologicznego w XX wieku.

Edgar Varèse i koncepcja notacji „sejsmograficznej”

R1NKMcINyPkIQ1
Edgar Varèse, classical20.files.wordpress.com, CC BY 3.0

Jednym z pierwszych kompozytorów, który dostrzegł potencjał elektroniki w kompozycji muzycznej był Edgar Varèse. Czynnie angażował się w prace nad skonstruowaniem elektronicznego urządzenia do dowolnego kształtowania dźwięku oraz zachęcał innych kompozytorów do współpracy z inżynierami i wynalazcami. Jego myśli w tym kierunku sięgają roku 1913, kiedy to poznał i zaprzyjaźnił się z projektantem elektroniki René Bertrandem. Bertrand i Varèse pracowali razem nad urządzeniem o nazwie dynaphone zaprezentowanym w 1927 r.

Rvmx0au5wLwHa1
autor nieznany, „Sjesmogram”, 2014, Wikipedia.org, Domena Publiczna

Podczas wykładu na Uniwersytecie Kalifornii Południowej w 1939 r., Edgar Varèse powiedział:

potrzebuję całkowicie nowego medium ekspresji: maszynę produkującą dźwięk (nie reprodukującą)… Cokolwiek napiszę, dotrze do słuchacza wolne od interpretacji wykonawczej. Będzie to polegało mniej więcej na tym: gdy kompozytor ukończy swoją pracę na papierze z pomocą nowej grafiki, podobnej w założeniach do notacji sejsmograficznej, oscyloskopowej, we współpracy z inżynierem dźwięku przetransferuje on ją bezpośrednio do tej elektrycznej maszyny. Po tym procesie każdy będzie mógł nacisnąć przycisk, aby uwolnić muzykę dokładnie taką, jaką napisał kompozytor.

Pomysł notacji podobnej do „sejsmograficznej” nie wziął się znikąd. Pierwszy zapis fali dźwiękowej powstał za pomocą fonoautografu, który skonstruował Édouard‑Léon Scott de Martinville w 1857 r., a zapis, który dało się ponownie zamienić na dźwięk, stał się możliwy wraz z powstaniem fonografu Thomasa Edisona w 1878 r.

Struktura dźwięku – fala wynikowa, spektrum

Za czasów Varèse’a była już znana teoria Josepha Fouriera z 1822 r., iż każdy sygnał okresowy można przedstawić w postaci sumy sygnałów sinusoidalnych o odpowiednich amplitudach, częstotliwościach i przesunięciach. Znane nam „alikwotyAlikwotyalikwoty” to nic innego, jak kolejne fale składowe dźwięku.

R15mEBwEF8VdT1
Ilustracja teorii Fouriera. Kształt fali na rysunku A jest falą wynikową, w rzeczywistości jest to suma tonów prostych B-E, zainea.com, CC BY 3.0

Wiedza ta, poparta obserwacjami i badaniami, pozwoliła spojrzeć na dźwięk ze świadomością jego złożonej struktury, analizować różne źródła dźwięku pod kątem zawartości składowych, a następnie podejmować próby stworzenia całkowicie nowych dźwięków albo tzw. resyntezę – sztuczne odtworzenie dźwięków zarejestrowanych wcześniej. Odbywało się to np. poprzez dodawanie kolejnych fal składowych wytwarzanych przy pomocy generatorów przebiegów sinusoidalnych, co nazywamy syntezą addytywną. Przeciwieństwem jest synteza subtraktywna polegająca na odejmowaniu od widma szumu pewnych zakresów częstotliwości (poprzez filtrowanieFiltrowaniefiltrowanie). Stało się to przedmiotem badań kompozytorów i inżynierów, m. in. Karlheinza Stockhausena, Herberta Eimerta działających w Studio Muzyki Elektronicznej w Kolonii, powstałym w roku 1951 z inicjatywy Wernera Meyera‑Epplera. Możliwość tworzenia nowych dźwięków wg ustalonych ścisłych porządków i zasad, np. serialnych, bardzo odpowiadało zwolennikom myśli tzw. szkoły darmstadzkiej.

Przykłady dźwiękowe dźwięków syntetycznych realizowanych za pomocą syntezy addytywnej i subtraktywnej.

Przykład.
Usłyszycie dźwięk naturalnego szumu morza, a następnie próbę zrealizowania podobnego efektu za pomocą syntezy subtraktywnej – filtrowania dźwięku generatora szumu białego. Czy dźwięk syntetyczny jest podobny do oryginału?

RP0hLI9EqK8xF1
Utwór muzyczny: Przykład muzyczny nr 2, odgłos morza. Kompozycja posiada umiarkowane tempo. Cechuje się spokojnym charakterem.

Rysowanie dźwięku – muzyka ornamentalna

Termin ten pojawił się w historii muzyki jako określenie dla muzyki powstałej poprzez rysowanie ornamentów, powtarzalnych wzorów, naświetlanych na filmowej taśmie światłoczułej. Zaciemnienia i jaśniejsze obszary taśmy miały wpływ na przebieg amplitudy dźwięku. W ten sposób prowadzone były pierwsze eksperymenty nad stworzeniem nowych syntetycznych dźwięków – badano jak brzmią rozmaite kształty fali, a także tworzono specjalne urządzenia pozwalające na realizację całych kompozycji.

Prekursorem wykorzystania zapisu fotooptycznego do syntezy dźwięku był Arseny Mikhailovich Avraamov – rosyjski kompozytor awangardowy i teoretyk, który tworzył pierwsze ręcznie malowane taśmy ze ścieżką dźwiękową na początku lat 30. XX w.

RW2VlxVlztjEH1
Schemat elementów urządzenia variophone Yevgena Sholpo (1932 r.), wp.com, CC BY 3.0

Pomysł syntezy dźwięku za pomocą aparatury światłoczułej wykorzystał do stworzenia urządzenia o nazwie variophone Yevgeny Sholpo (1932 r.) w Centralnym Laboratorium Komunikacji Przewodowej w Leningradzie. Zastąpił on malowane ręcznie i fotografowane kształty naświetlaniem taśmy z wykorzystaniem obracających się ze zmienną prędkością kartonowych dysków – szablonów przepuszczających światło przez odpowiednie otwory. Im większa prędkość obracającego się dysku, tym wyższy był wynikowy dźwięk. Jego barwa zależała od wyciętego w szablonie kształtu – ornamentu. Dzięki tej metodzie możliwe było także tworzenie kilku warstw, a więc polifonii (ścieżki były wtedy naświetlane jedna obok drugiej). Brzmienia uzyskiwane w ten sposób zaskakująco przypominają dźwięki pierwszych komputerów PC.

Warto zaznaczyć, że w innych krajach, np. w Niemczech (Rudolph Pfenninger, Oskar Fischinger), USA, Kanadzie (Norman McLaren) czy Anglii, równie chętnie sięgano do pomysłu „rysowania dźwięku”. Jednak to w ówczesnym ZSRR synteza dźwięku metodą fotooptyczną była najbardziej rozwinięta.

RHh2kXEjS2RTu1
Syntezator ANS Evgena Murzina z 1958 r. znajdujący się obecnie w Narodowym Muzeum Kultury Muzycznej im. M. Glinki w Moskwie, wp.com, CC BY 3.0

Zapis dźwięku stosowany na taśmach światłoczułych odegrał sporą rolę w postrzeganiu graficznym dźwięku i wyobrażeniach o notacji muzyki elektronicznej. Wielkim plusem tej technologii było bezpośrednio graficzne postrzeganie dźwięku. Rodziła ona nowe więzi i inspiracje między sferą plastyczną a muzyczną. Wciąż jednak brakowało kompozytorom narzędzia pozwalającego na pracę bezpośrednio na widmie – spektrum dźwięku.
Takim urządzeniem miał się stać syntezator ANS (nazwany tak na cześć Alexandra Nikolayevicha Scriabina) konstrukcji Evgena Murzina z 1958 r. Taśma filmowa została zastąpiona ruchomą czarną tablicą, na której rysowane były wzory stanowiące widmo dźwięku (a nie reprezentujące jak dotychczas jedynie amplitudę wynikową wszystkich fal składowych). W sumie możliwe było uzyskanie 720 tonów pokrywających cały zakres słyszalnych częstotliwości. Z syntezatora ANS korzystali najwybitniejsi przedstawiciele rosyjskiej muzyki awangardowej, m. in. Stanisław Kreichi, Alfred Schnittke, Edison Denisow, Sofia Gubajdulina, Eduard Artemyev.

Posłuchajcie jak brzmiał syntezator ANS.

R1S76sNMHFPpd
Utwór muzyczny: Brzmienie syntezatora ANS. Kompozycja posiada umiarkowane tempo. Cechuje się spokojnym charakterem.

Zapis na taśmie magnetycznej i nowe notacje

Przykłady notacji

Włodzimierz Kotoński, polski kompozytor muzyki elektronicznej, autor książki Muzyka elektroniczna, wyróżnił na drodze własnych doświadczeń pięć rodzajów notacji muzyki na taśmę:

1. zapis szkiców;

2. zapis precyzyjny;

3. partytura do zgrywania;

4. partytury wykonawcze;

5. partytury do słuchania.

RfjkEmMwT72Eb
Ilustracja interaktywna przedstawia: Zapis szkicowy utworu „Bohor” Iannisa Xenakisa. Dodatkowo na ilustracji umieszczono następujące informacje: 1. Zapis szkicowy jest całkowicie dowolny – to rysunki, które kojarzą się kompozytorowi z danym dźwiękiem, obrazują np. kierunki (wznoszący, opadający), fakturę i strukturę (drobinki, płaszczyzny), rejestry (niski, średni, wysoki), barwę (dźwięk chropowaty, ostry, łagodny). Wyznacza formę utworu, np. poprzez użycie powtarzalnych symboli.
Zapis szkicowy utworu „Bohor” Iannisa Xenakisa, moz.ac.at, CC BY 3.0
RQ9Hs2uogxxTF
Ilustracja interaktywna przedstawia: Zapis precyzyjny „Studie II” Karlheinza Stockhausena, Dodatkowo na ilustracji umieszczono następujące informacje: 1. Przykładem zapisu precyzyjnego może być utwór Karlheinza Stockhausena Studie II, który zapisał się w historii muzyki jako pierwszy utwór muzyki elektronicznej wydany w postaci papierowej partytury. Odbił się on szerokim echem znajdując naśladowców, m.in. w warszawskim Studio Eksperymentalnym Polskiego Radia (np. wydane przez PWM Etiuda na jedno uderzenie w talerz Włodzimierza Kotońskiego czy Muzyka na taśmę Andrzeja Dobrowolskiego). Na podstawie zapisu precyzyjnego da się zrealizować dany utwór ponownie. W Studie II siatka górnego wykresu wyznacza użyte przez kompozytora 81 częstotliwości tonów prostych wygenerowanych do zrealizowania poszczególnych zacienionych bloków. Dolny wykres oznacza ich głośność – obwiednię. Czas trwania bloków wyznacza oś środkowa. Co ciekawe, w oryginalnej partyturze czas podawany jest w centymetrach. Chodzi tu o długość taśmy magnetofonowej.
Zapis precyzyjny „Studie II” Karlheinza Stockhausena, pinimg.com, CC BY 3.0
R1LuvGnJsC5Hi
Ilustracja interaktywna przedstawia: Proces zgrywania partytury na taśmę. Dodatkowo na ilustracji umieszczono następujące informacje: 1. Wspomniana przez W. Kotońskiego partytura do zgrywania to schemat niezbędny do montażu taśmy magnetofonowej. Zawiera opisane literami bądź cyframi fragmenty taśmy, długość odcinków, sposób nakładania się i relacje dynamiczne. Obecnie, gdy pracujemy na komputerach, za partyturę do zgrywania służy nam okno montażu w programie DAW (Digital Audio Workstation). Dawniej, aby się w tym wszystkim nie poplątać, trzeba było dużej dyscypliny w segregowaniu i oznaczaniu poszczególnych odcinków taśmy. Fotografia przedstawia dwie rolki z taśmą. Zarówno rolki jak i urządzenie jest w kolorze szarym.
Proces zgrywania partytury na taśmę, online-skills, CC BY 3.0
R9W2adSVVH6UQ
Ilustracja interaktywna przedstawia: Przykład partytury wykonawczej – „Muzyka na taśmę magnetyczną i obój solo” (1965 r.) Andrzeja Dobrowolskiego. Dodatkowo na ilustracji umieszczono następujące informacje: 1. Partytury wykonawcze niezbędne są w przypadku wykonywania muzyki elektronicznej przez żywych wykonawców (live electronics) lub gdy np. grze na instrumencie akustycznym towarzyszy podkład dźwiękowy, zwyczajowo zwany taśmą. Umożliwia zorientowanie się wykonawcy w czasie, np. poprzez prowizoryczne zobrazowanie zawartości, podanie czasu, wyznaczenie punktów węzłowych, startu/zatrzymania taśmy. Partytura wykonawcza nie musi zawierać wszystkich szczegółów utworu. Ma jedynie umożliwić jego wykonanie podczas koncertu.
Przykład partytury wykonawczej – „Muzyka na taśmę magnetyczną i obój solo” (1965 r.) Andrzeja Dobrowolskiego, pinimg.com, CC BY 3.0
RlOYdRLDHthAI
Ilustracja interaktywna przedstawia: Gyorgy Ligeti, fragment partytury utworu „Artikulation”. Dodatkowo na ilustracji umieszczono następujące informacje: 1. Kompozytorzy chcąc ułatwić słuchaczom odbiór muzyki elektronicznej wielokrotnie decydowali się na opracowanie (nie zawsze samodzielne) tzw. partytury do słuchania. Jej zadaniem jest graficzne zobrazowanie zawartości muzycznej w przystępnej, abstrakcyjnej formie. Jednym z najlepszych przykładów jest Artikulation Gyorgya Ligetiego, którego partyturę graficzną opracował R. Wehinger. W Internecie dostępnych jest wiele animacji obrazujących muzykę (nie tylko elektroniczną). Można je porównać właśnie do tego rodzaju partytur, ale w ruchomej, zaanimowanej formie. Wysłuchaj teraz fragmentu utworu Artikulation.
Gyorgy Ligeti, fragment partytury utworu „Artikulation”, blogthehum.wordpress.com, CC BY 3.0
RpvIuIBTl9eTy
Ilustracja interaktywna przedstawia: Bogusław Schaeffer, fragment partytury Symfonii na taśmę. Dodatkowo na ilustracji umieszczono następujące informacje: 1. Ciekawym przypadkiem jest Symfonia na taśmę Bogusława Schaeffera z 1964 r. Zapis szkicowy został opracowany graficznie i wydany przez Polskie Wydawnictwo Muzyczne. Stał się więc partyturą do słuchania. Bogusław Schaeffer nie tworzył dźwięków w studio samodzielnie, lecz pozwolił zinterpretować reżyserowi dźwięku swoje dość precyzyjne opisy tekstowe zawarte w legendzie oraz graficzne symbole. Pierwszym realizatorem taśmy – interpretatorem (w 1966 r.) był Bohdan Mazurek – inżynier Studia Eksperymentalnego Polskiego Radia w Warszawie. Kompozytor dał możliwość tworzenia nowych wersji – interpretacji utworu.
Bogusław Schaeffer, fragment partytury Symfonii na taśmę, muzykotekaszkolna.pl, CC BY 3.0

Wynalezienie w latach 30. XX w. zapisu na taśmie magnetycznej i upowszechnienie się go w latach 50. było jednym z ważniejszych wydarzeń w historii muzyki elektronicznej, mających ogromny wpływ na rozwój muzyki elektronicznej oraz proces komponowania i notacji.

Praca na taśmie znacznie przyspieszyła i ułatwiła, a niekiedy wręcz umożliwiła cały proces komponowania muzyki elektronicznej. Szczególnie istotna była możliwość wielowarstwowej pracy z taśmą, dzięki wykorzystaniu więcej niż jednego magnetofonu i taśm wielościeżkowych. Możliwe stało się tworzenie dużo bogatszych struktur dźwiękowych. Muzyka na taśmę szybko zyskała rozgłos w Stanach Zjednoczonych za sprawą Johna Cage’a, który w 1951 r. założył nieformalną grupę kompozytorską Project of Music for Magnetic Tape. Natomiast w 1952 r. w Museum of Modern Art w Nowym Jorku odbył się pierwszy koncert muzyki na taśmę, na którym swoje prace prezentowali Vladimir Ussachevsky i Otto Luening.

Taśma magnetyczna nie miała, niestety, żadnej reprezentacji wizualnej dźwięku, tak jak to miało miejsce w przypadku chociażby taśmy fotooptycznej. Koniecznością stało się tworzenie szkiców na papierze, co dało początek rozmaitym koncepcjom notacji muzyki elektronicznej.

Rysowanie dźwięku – system UPIC Iannisa Xenakisa. Muzyka spektralna

R2H7VL2Lwhu901
Iannis Xenakis był także architektem. Czy urządzenie skonstruowane wg jego pomysłu nie wydaje Wam się podobne do stołu kreślarskiego?, wp.com, CC BY 3.0

Kontynuatorem myśli Edgara Varèse’a odnośne notacji „sejsmograficznej” oraz projektowania widma dźwięku, podobnie jak w syntezatorze ANS, był Iannis Xenakis, który we współpracy z inżynierem Patrickiem Saint‑Jeanem stworzyli w 1977 r. w Paryżu system UPIC (Unité Polyagogique Informatique du CEMAMu). Widmo dźwięku projektowane było przez kompozytora za pomocą tabletu graficznego. Rysunek wykonywany na tablecie pojawiał się na ekranie komputera, w którym był zapamiętywany, a następnie mógł być wydrukowany lub poddawany konwersji do modułu odpowiedzialnego za syntezę dźwięku i nagrywany za pomocą magnetofonu. System UPIC był stale modernizowany. Ostatnia wersja, której powstawanie koordynował Xenakis, powstała w 1992 r. Ważnym krokiem naprzód była możliwość wprowadzenia do komputera nagranego dźwięku i przekonwertowanie go do postaci graficznej, którą można było modyfikować.

R181IZ5356daR1
Spektrogram. Wykres spektrum dźwięku w czasie – analiza komputerowa, docplayer.pl, CC BY 3.0

W latach 70. XX w., gdy możliwa stała się precyzyjna analiza dźwięku pod kątem zawartości fal składowych, powstała technika kompozytorska zwana „spektralizmem”. Terminu muzyka spektralna użył po raz pierwszy Hugues Dufourt w 1979 r. Polegała ona na wykorzystaniu wiedzy pochodzącej z analizy spektralnej dźwięku do stworzenia nowych jakości brzmieniowych za pomocą instrumentów akustycznych lub elektroniki. Kompozytorzy stosujący tą technikę to m. in. Gérard Grisey, Tristan Murail, Michael Levinas.

Początki muzyki komputerowej

RqEx1Gy8T72uw1
Max Mathews w Bell Laboratories, i0.wp.com, CC BY 3.0

Pojawienie się komputerów i programów umożliwiających komponowanie muzyki i syntezę dźwięku było kolejnym po taśmie magnetycznej krokiem milowym w historii muzyki elektronicznej. Warta zaznaczenia jest w pierwszej kolejności rodzina programów MUSIC‑N, tworzona od 1957 r. w laboratoriach firmy Bell Labs m. in. przez Maxa Mathewsa – uważanego za ojca muzyki komputerowej (od jego imienia wziął nazwę jeden z popularniejszych wśród współczesnych kompozytorów muzyki elektronicznej programów – Max MSP).

W 1961 r. Max Mathews zaprezentował stworzony na komputerze akompaniament do piosenki Daisy Bell, w której melodię i słowa „zaśpiewał” po raz pierwszy w historii syntetyczny głos komputera. Choć początkowo muzyka komputerowa pod względem brzmieniowym nie zachwycała, ostatecznie, dzięki nieustannemu rozwojowi technologii informatycznej, dźwięk wytwarzany przy pomocy komputerów całkowicie zdominował obszar muzyki elektronicznej.

Komputer w muzyce elektronicznej poza spełnianiem funkcji stołu montażowego czy generatora dowolnie kształtowanego dźwięku (o którym marzył Varèse), daje również możliwość tworzenia środowiska interaktywnego, w którym funkcjonują wykonawcy używający instrumentów/kontrolerów – jest zatem wykorzystywany w muzyce live electronicsLive electronicslive electronics. Może też wspomagać pracę kompozytora np. w zakresie doboru materiału muzycznego – wg zadanego algorytmu. Ten ostatni typ kompozycji nazywany jest „computer‑aided composition” (CAAC). Niekiedy muzyka tworzona dzięki algorytmom komputerowym nie jest wcale wykonywana przez żadne urządzenie elektroniczne, lecz przez żywych wykonawców. Tak było w przypadku kompozycji Illiac Suite na kwartet smyczkowy z 1955–1956 r. Lejarena Hillera i Leonarda Isaacsona, która powstała dzięki wygenerowaniu danych – tablicy numerycznej do regulacji wysokości, długości trwania dźwięku oraz instrumentacji. Nazwa utworu pochodzi od komputera Illiac, na którym uruchomiony został algorytm.

Zadania

R1blKOvda33Vh
Ćwiczenie 1
Podaj nazwisko kompozytora, który czynnie zaangażował się w konstruowanie urządzenia do dowolnego kształtowania dźwięku i jako jeden z pierwszych dostrzegł potencjał elektroniki w twórczości muzycznej. Możliwe odpowiedzi: 1. Claude Debussy, 2. Arnold Schoenberg, 3. Edgar Varèse
R16ymw2EE97o4
Ćwiczenie 2
Wybierz jedno nowe słowo poznane podczas dzisiejszej lekcji i ułóż z nim zdanie.
Inna wersja zadania

Wyjaśnij pojęcie Teoria Fouriera.

RDLzGpc4fyeB8
Ćwiczenie 3
Muzyka ornamentalna to… Możliwe odpowiedzi: 1. muzyka tworzona w krajach azjatyckich, 2. muzyka wytworzona za pomocą rysowania ornamentów i naświetlaniu ich na taśmie światłoczułej, 3. muzyka bogata w ozdobniki, np. obiegniki, tryle
R1OpHPUgIYdUg
Ćwiczenie 4
Wybierz tytuły utworów wydanych w postaci papierowej partytury. Pamiętaj, poprawna może być więcej niż jedna odpowiedź. Możliwe odpowiedzi: 1. Mycenae alpha Iannis Xenakis, 2. Etiuda na jedno uderzenie w talerz Włodzimierz Kotoński, 3. Studie Karlheinz Stockhausen
RTh2OTW17vX0R
Ćwiczenie 5
Przedstawicielami nurtu muzyki spektralnej byli: Możliwe odpowiedzi: 1. Gérard Grisey, Tristan Murail, Michael Levinas, 2. John Cage, Vladimir Ussachevsky, Otto Luening, 3. Pierre Schaeffer, Pierre Henry, Jacques Poullin
RnwdzyuL7SYJC
Ćwiczenie 6
Wysłuchaj nagrania abstraktu, wyodrębnij jego części i nadaj im tytuły.
Inna wersja zadania

Wyjaśnij pojęcie alikwoty.

R1cho1ZSoI0pI
Ćwiczenie 7
Czy kompozycja na kwartet smyczkowy zrealizowana w latach 1955–1956 przez Lejarena Hillera i Leonarda Isaacsona dzięki pomocy algorytmu komputerowego (computer-aided composition) nazywa się Illiac Suite? Możliwe odpowiedzi: 1. Prawda, 2. Fałsz.
Polecenie 1

Obejrzyj fragment partytury Symfonii na taśmę Bogusława Schaeffera. Jakie dźwięki wyobrażasz sobie patrząc na graficzne symbole? Skonfrontuj swoje wyobrażania z wersją Bohdana Mazurka dostępną w Internecie:

R1WX1EgDQQFg7
Utwór: fragment partytury Symfonii na taśmę. Wykonawca: Bogusław Schaeffer. Kompozycja posiada umiarkowane tempo. Cechuje się groźnym, tajemniczym charakterem.
R18MvIQ2ltzrj1
Bogusław Schaeffer, „Symfonia – muzyka elektroniczna”, muzykotekaszkolna.pl, CC BY 3.0
Inna wersja zadania

Do czego służy System UPIC?

Polecenie 2

Posłuchaj utworu Artikulation G. Ligetiego bez patrzenia na wizualizację. Następnie posłuchaj jeszcze raz, ale tym razem z wizualizacją. Czy słuchanie tego utworu z wizualizacją było ciekawsze?

Polecenie 3

Weź białą kartkę papieru A4, ustaw w poziomie i naszkicuj partyturę w formie spektrogramu, podobną do rysunku uzyskiwanego za pomocą urządzenia UPIC Iannisa Xenakisa. Dłuższy bok niech stanowi oś czasu, a krótszy wyznacza częstotliwości. W dolnej części kartki będą znajdować się dźwięki niższe, średni rejestr pośrodku, natomiast w górnej części dźwięki wyższe. Czy jesteś w stanie wyobrazić sobie jak mogłaby zabrzmieć Twoja muzyka?
Możesz to zadanie wykonać również w programie graficznym.
W Internecie dostępnych jest kilka programów, które pozwolą Ci zamienić Twój rysunek na dźwięk, np. Photosounder.
Spróbuj!

Słownik pojęć

Alikwoty
Alikwoty

Częstotliwości harmoniczne tonu podstawowego, wyższe składowe.

Filtrowanie
Filtrowanie

Zmiana proporcji występowania poszczególnych tonów składowych dźwięku za pomocą urządzeń elektronicznych.

Live electronics
Live electronics

Rodzaj muzyki elektronicznej, w której wykorzystywane jest przetwarzanie/generowanie dźwięku bezpośrednio podczas wykonania na żywo.

Muzyka ornamentalna
Muzyka ornamentalna

Muzyka powstała poprzez rysowanie ornamentów, powtarzalnych wzorów, naświetlanych następnie na taśmie światłoczułej i odtwarzanych za pomocą przystawki fonicznej projektora. Jeden z pierwszych rodzajów syntezy dźwięku.

Muzyka spektralna
Muzyka spektralna

Termin użyty po raz pierwszy przez Huguesa Dufourta w 1979 r. Polegała ona na wykorzystaniu wiedzy pochodzącej z analizy spektralnej dźwięku do stworzenia nowych jakości brzmieniowych za pomocą instrumentów akustycznych lub elektroniki. Kompozytorzy stosujący tę technikę to m. in. Gérard Grisey, Tristan Murail, Michael Levinas.

Partytura do słuchania
Partytura do słuchania

Rodzaj notacji muzyki elektronicznej. Nie przedstawia precyzyjnie zawartości materiału muzycznego. Jej zadaniem jest wsparcie słuchacza graficzną wizualizacją w śledzeniu przebiegu utworu.

Resynteza
Resynteza

Sztuczne odtworzenie za pomocą urządzeń elektronicznych dźwięków zarejestrowanych wcześniej i przeanalizowanych pod kątem zawartości tonów składowych.

Sejsmograf
Sejsmograf

Urządzenie służące do badania ruchów tektonicznych ziemi.

Spektrum dźwięku
Spektrum dźwięku

Inaczej widmo dźwięku – wykres rozkładu częstotliwości dźwięku w osi czasu lub w zatrzymanej chwili. Pozwala przeanalizować dźwięk pod względem zawartości poszczególnych składowych.

Synteza dźwięku
Synteza dźwięku

Sztuczne wytwarzanie, za pomocą urządzeń elektronicznych, całkowicie nowych, nieistniejących w naturze dźwięków. Synteza addytywna polega na dodawaniu do siebie kolejnych tonów składowych, natomiast subtraktywna – na odejmowaniu poszczególnych pasm, np. za pomocą filtrów.

System UPIC
System UPIC

UPIC – Unité Polyagogique Informatique du CEMAMu. System służący do komponowania muzyki elektronicznej poprzez rysowanie na osi czasu fal składowych dźwięku. Dane wprowadzane były do komputera za pomocą tabletu graficznego. Powstał w 1977 r. w Paryżu z inicjatywy Iannisa Xenakisa.

Teoria Fouriera
Teoria Fouriera

Każdy sygnał okresowy można przedstawić w postaci sumy sygnałów sinusoidalnych o odpowiednich amplitudach, częstotliwościach i przesunięciach.

Ton podstawowy
Ton podstawowy

Najniższa fala składowa dźwięku, która wyznacza rozpoznawaną przez nas wysokość dźwięku, np. a1 = 440 Hz.

Źródło:

  • Adam Wolański, Słownik terminów muzyki rozrywkowej, Wydawnictwo Naukowe PWN, Warszawa 2000.

  • Wojciech Marchwica, Słownik muzyki, Zielona Sowa, Kraków 2006.

Biblioteka muzyczna