1857 r. – Édouard‑Léon Scott de Martinville konstruuje fonoautograf
1878 r. – powstaje fonograf Thomasa Edisona
1927 r. – René Bertrand i Edgard Varèse prezentują dynaphone
1948 r. – premiera Concert de bruits Pierre’a Schaeffera w paryskim radio w ramach Club d’Essai
1951 r. – powstaje w Paryżu Groupe de Recherche de Musique Concrete
1951 r. – powstaje Studio Muzyki Elektronicznej w Kolonii (RFN, obecne Niemcy)
1932 r. – Yevgeny Sholpo prezentuje variophone
1952 r. – pierwszy koncert muzyki na taśmę w Museum of Modern Art w Nowym Jorku
1954 r. – wydanie partytury Studie II Karlheinza Stockhausena
1955–1956 r. – pierwsza kompozycja, której materiał muzyczny w całości pochodzi z algorytmu zrealizowanego komputerowo – Illiac Suite Lejaren Hiller’a i Leonarda Isaacsona
1957 r. – powstaje Studio Eksperymentalne Polskiego Radia w Warszawie
1957 r. – w Bell Labs powstaje pierwszy komputerowy program muzyczny MUSIC autorstwa Maxa Mathewsa
1958 r. – powstaje Syntezator ANS Evgena Murzina
1961 r. – Max Mathews zrealizował pierwszy syntetyczny „śpiew” komputerowy w Bell Labs
1977 r. – Patrick Saint‑Jean we współpracy z Iannisem Xenakisem konstruuje pierwszą wersję systemu UPIC
1
Scenariusz dla nauczyciela
R1TBPrIH9e33l1
II. Analiza i interpretacja dzieł muzycznych. Uczeń:
1. zna podstawowe terminy i pojęcia właściwe dla opisu i zrozumienia wybranych dzieł muzycznych;
2. nazywa i porządkuje główne nurty, gatunki i style muzyczne, wskazuje formy wypowiedzi artystycznej spoza tradycyjnej klasyfikacji, uzasadniając swoją wypowiedź;
3. zna konteksty kulturowe i naukowe powstawania muzyki;
4. dokonuje analizy percepcyjnej, uwzględniając:
a) elementy muzyki,
b) podstawowe techniki kompozytorskie,
c) cechy stylów muzycznych,
d) strukturę gatunków i form muzycznych, ich zmiany i rozwój,
e) funkcje: np. religijna, społeczna, użytkowa, artystyczna i in.;
5. rozpoznaje cechy stylistyczne utworu reprezentującego określoną epokę muzyczną.
III. Tworzenie wypowiedzi związanych z historią i kulturą muzyczną. Uczeń:
4. formułuje logiczną wypowiedź na temat dzieł, form, gatunków, stylów, technik i twórców muzycznych, uwzględniając zależności między nimi w kontekście: genezy, przeobrażeń, porównań.
Nauczysz się
przedstawiać rozwój muzyki elektronicznej;
charakteryzować metody jej zapisu oraz notacji w kontekście postępu technologicznego w XX wieku.
Edgar Varèse i koncepcja notacji „sejsmograficznej”
R1NKMcINyPkIQ1
Jednym z pierwszych kompozytorów, który dostrzegł potencjał elektroniki w kompozycji muzycznej był Edgar Varèse. Czynnie angażował się w prace nad skonstruowaniem elektronicznego urządzenia do dowolnego kształtowania dźwięku oraz zachęcał innych kompozytorów do współpracy z inżynierami i wynalazcami. Jego myśli w tym kierunku sięgają roku 1913, kiedy to poznał i zaprzyjaźnił się z projektantem elektroniki René Bertrandem. Bertrand i Varèse pracowali razem nad urządzeniem o nazwie dynaphone zaprezentowanym w 1927 r.
Rvmx0au5wLwHa1
Podczas wykładu na Uniwersytecie Kalifornii Południowej w 1939 r., Edgar Varèse powiedział:
potrzebuję całkowicie nowego medium ekspresji: maszynę produkującą dźwięk (nie reprodukującą)… Cokolwiek napiszę, dotrze do słuchacza wolne od interpretacji wykonawczej. Będzie to polegało mniej więcej na tym: gdy kompozytor ukończy swoją pracę na papierze z pomocą nowej grafiki, podobnej w założeniach do notacji sejsmograficznej, oscyloskopowej, we współpracy z inżynierem dźwięku przetransferuje on ją bezpośrednio do tej elektrycznej maszyny. Po tym procesie każdy będzie mógł nacisnąć przycisk, aby uwolnić muzykę dokładnie taką, jaką napisał kompozytor.
Pomysł notacji podobnej do „sejsmograficznej” nie wziął się znikąd. Pierwszy zapis fali dźwiękowej powstał za pomocą fonoautografu, który skonstruował Édouard‑Léon Scott de Martinville w 1857 r., a zapis, który dało się ponownie zamienić na dźwięk, stał się możliwy wraz z powstaniem fonografu Thomasa Edisona w 1878 r.
Struktura dźwięku – fala wynikowa, spektrum
Za czasów Varèse’a była już znana teoria Josepha Fouriera z 1822 r., iż każdy sygnał okresowy można przedstawić w postaci sumy sygnałów sinusoidalnych o odpowiednich amplitudach, częstotliwościach i przesunięciach. Znane nam „alikwotyAlikwotyalikwoty” to nic innego, jak kolejne fale składowe dźwięku.
R15mEBwEF8VdT1
Wiedza ta, poparta obserwacjami i badaniami, pozwoliła spojrzeć na dźwięk ze świadomością jego złożonej struktury, analizować różne źródła dźwięku pod kątem zawartości składowych, a następnie podejmować próby stworzenia całkowicie nowych dźwięków albo tzw. resyntezę – sztuczne odtworzenie dźwięków zarejestrowanych wcześniej. Odbywało się to np. poprzez dodawanie kolejnych fal składowych wytwarzanych przy pomocy generatorów przebiegów sinusoidalnych, co nazywamy syntezą addytywną. Przeciwieństwem jest synteza subtraktywna polegająca na odejmowaniu od widma szumu pewnych zakresów częstotliwości (poprzez filtrowanieFiltrowaniefiltrowanie). Stało się to przedmiotem badań kompozytorów i inżynierów, m. in. Karlheinza Stockhausena, Herberta Eimerta działających w Studio Muzyki Elektronicznej w Kolonii, powstałym w roku 1951 z inicjatywy Wernera Meyera‑Epplera. Możliwość tworzenia nowych dźwięków wg ustalonych ścisłych porządków i zasad, np. serialnych, bardzo odpowiadało zwolennikom myśli tzw. szkoły darmstadzkiej.
Przykłady dźwiękowe dźwięków syntetycznych realizowanych za pomocą syntezy addytywnej i subtraktywnej.
Przykład. Usłyszycie dźwięk naturalnego szumu morza, a następnie próbę zrealizowania podobnego efektu za pomocą syntezy subtraktywnej – filtrowania dźwięku generatora szumu białego. Czy dźwięk syntetyczny jest podobny do oryginału?
RP0hLI9EqK8xF1
Rysowanie dźwięku – muzyka ornamentalna
Termin ten pojawił się w historii muzyki jako określenie dla muzyki powstałej poprzez rysowanie ornamentów, powtarzalnych wzorów, naświetlanych na filmowej taśmie światłoczułej. Zaciemnienia i jaśniejsze obszary taśmy miały wpływ na przebieg amplitudy dźwięku. W ten sposób prowadzone były pierwsze eksperymenty nad stworzeniem nowych syntetycznych dźwięków – badano jak brzmią rozmaite kształty fali, a także tworzono specjalne urządzenia pozwalające na realizację całych kompozycji.
RQTSjmKQiKAk81
RGrvIRMJI1nui1
Prekursorem wykorzystania zapisu fotooptycznego do syntezy dźwięku był Arseny Mikhailovich Avraamov – rosyjski kompozytor awangardowy i teoretyk, który tworzył pierwsze ręcznie malowane taśmy ze ścieżką dźwiękową na początku lat 30. XX w.
RW2VlxVlztjEH1
Pomysł syntezy dźwięku za pomocą aparatury światłoczułej wykorzystał do stworzenia urządzenia o nazwie variophone Yevgeny Sholpo (1932 r.) w Centralnym Laboratorium Komunikacji Przewodowej w Leningradzie. Zastąpił on malowane ręcznie i fotografowane kształty naświetlaniem taśmy z wykorzystaniem obracających się ze zmienną prędkością kartonowych dysków – szablonów przepuszczających światło przez odpowiednie otwory. Im większa prędkość obracającego się dysku, tym wyższy był wynikowy dźwięk. Jego barwa zależała od wyciętego w szablonie kształtu – ornamentu. Dzięki tej metodzie możliwe było także tworzenie kilku warstw, a więc polifonii (ścieżki były wtedy naświetlane jedna obok drugiej). Brzmienia uzyskiwane w ten sposób zaskakująco przypominają dźwięki pierwszych komputerów PC.
Warto zaznaczyć, że w innych krajach, np. w Niemczech (Rudolph Pfenninger, Oskar Fischinger), USA, Kanadzie (Norman McLaren) czy Anglii, równie chętnie sięgano do pomysłu „rysowania dźwięku”. Jednak to w ówczesnym ZSRR synteza dźwięku metodą fotooptyczną była najbardziej rozwinięta.
RHh2kXEjS2RTu1
Zapis dźwięku stosowany na taśmach światłoczułych odegrał sporą rolę w postrzeganiu graficznym dźwięku i wyobrażeniach o notacji muzyki elektronicznej. Wielkim plusem tej technologii było bezpośrednio graficzne postrzeganie dźwięku. Rodziła ona nowe więzi i inspiracje między sferą plastyczną a muzyczną. Wciąż jednak brakowało kompozytorom narzędzia pozwalającego na pracę bezpośrednio na widmie – spektrum dźwięku. Takim urządzeniem miał się stać syntezator ANS (nazwany tak na cześć Alexandra Nikolayevicha Scriabina) konstrukcji Evgena Murzina z 1958 r. Taśma filmowa została zastąpiona ruchomą czarną tablicą, na której rysowane były wzory stanowiące widmo dźwięku (a nie reprezentujące jak dotychczas jedynie amplitudę wynikową wszystkich fal składowych). W sumie możliwe było uzyskanie 720 tonów pokrywających cały zakres słyszalnych częstotliwości. Z syntezatora ANS korzystali najwybitniejsi przedstawiciele rosyjskiej muzyki awangardowej, m. in. Stanisław Kreichi, Alfred Schnittke, Edison Denisow, Sofia Gubajdulina, Eduard Artemyev.
Posłuchajcie jak brzmiał syntezator ANS.
R1S76sNMHFPpd
Zapis na taśmie magnetycznej i nowe notacje
Przykłady notacji
Włodzimierz Kotoński, polski kompozytor muzyki elektronicznej, autor książki Muzyka elektroniczna, wyróżnił na drodze własnych doświadczeń pięć rodzajów notacji muzyki na taśmę:
1. zapis szkiców;
2. zapis precyzyjny;
3. partytura do zgrywania;
4. partytury wykonawcze;
5. partytury do słuchania.
RfjkEmMwT72Eb
RQ9Hs2uogxxTF
R1LuvGnJsC5Hi
R9W2adSVVH6UQ
RlOYdRLDHthAI
RpvIuIBTl9eTy
Wynalezienie w latach 30. XX w. zapisu na taśmie magnetycznej i upowszechnienie się go w latach 50. było jednym z ważniejszych wydarzeń w historii muzyki elektronicznej, mających ogromny wpływ na rozwój muzyki elektronicznej oraz proces komponowania i notacji.
Praca na taśmie znacznie przyspieszyła i ułatwiła, a niekiedy wręcz umożliwiła cały proces komponowania muzyki elektronicznej. Szczególnie istotna była możliwość wielowarstwowej pracy z taśmą, dzięki wykorzystaniu więcej niż jednego magnetofonu i taśm wielościeżkowych. Możliwe stało się tworzenie dużo bogatszych struktur dźwiękowych. Muzyka na taśmę szybko zyskała rozgłos w Stanach Zjednoczonych za sprawą Johna Cage’a, który w 1951 r. założył nieformalną grupę kompozytorską Project of Music for Magnetic Tape. Natomiast w 1952 r. w Museum of Modern Art w Nowym Jorku odbył się pierwszy koncert muzyki na taśmę, na którym swoje prace prezentowali Vladimir Ussachevsky i Otto Luening.
Taśma magnetyczna nie miała, niestety, żadnej reprezentacji wizualnej dźwięku, tak jak to miało miejsce w przypadku chociażby taśmy fotooptycznej. Koniecznością stało się tworzenie szkiców na papierze, co dało początek rozmaitym koncepcjom notacji muzyki elektronicznej.
Rysowanie dźwięku – system UPIC Iannisa Xenakisa. Muzyka spektralna
R2H7VL2Lwhu901
Kontynuatorem myśli Edgara Varèse’a odnośne notacji „sejsmograficznej” oraz projektowania widma dźwięku, podobnie jak w syntezatorze ANS, był Iannis Xenakis, który we współpracy z inżynierem Patrickiem Saint‑Jeanem stworzyli w 1977 r. w Paryżu system UPIC (Unité Polyagogique Informatique du CEMAMu). Widmo dźwięku projektowane było przez kompozytora za pomocą tabletu graficznego. Rysunek wykonywany na tablecie pojawiał się na ekranie komputera, w którym był zapamiętywany, a następnie mógł być wydrukowany lub poddawany konwersji do modułu odpowiedzialnego za syntezę dźwięku i nagrywany za pomocą magnetofonu. System UPIC był stale modernizowany. Ostatnia wersja, której powstawanie koordynował Xenakis, powstała w 1992 r. Ważnym krokiem naprzód była możliwość wprowadzenia do komputera nagranego dźwięku i przekonwertowanie go do postaci graficznej, którą można było modyfikować.
R181IZ5356daR1
W latach 70. XX w., gdy możliwa stała się precyzyjna analiza dźwięku pod kątem zawartości fal składowych, powstała technika kompozytorska zwana „spektralizmem”. Terminu muzyka spektralna użył po raz pierwszy Hugues Dufourt w 1979 r. Polegała ona na wykorzystaniu wiedzy pochodzącej z analizy spektralnej dźwięku do stworzenia nowych jakości brzmieniowych za pomocą instrumentów akustycznych lub elektroniki. Kompozytorzy stosujący tą technikę to m. in. Gérard Grisey, Tristan Murail, Michael Levinas.
Początki muzyki komputerowej
RqEx1Gy8T72uw1
Pojawienie się komputerów i programów umożliwiających komponowanie muzyki i syntezę dźwięku było kolejnym po taśmie magnetycznej krokiem milowym w historii muzyki elektronicznej. Warta zaznaczenia jest w pierwszej kolejności rodzina programów MUSIC‑N, tworzona od 1957 r. w laboratoriach firmy Bell Labs m. in. przez Maxa Mathewsa – uważanego za ojca muzyki komputerowej (od jego imienia wziął nazwę jeden z popularniejszych wśród współczesnych kompozytorów muzyki elektronicznej programów – Max MSP).
W 1961 r. Max Mathews zaprezentował stworzony na komputerze akompaniament do piosenki Daisy Bell, w której melodię i słowa „zaśpiewał” po raz pierwszy w historii syntetyczny głos komputera. Choć początkowo muzyka komputerowa pod względem brzmieniowym nie zachwycała, ostatecznie, dzięki nieustannemu rozwojowi technologii informatycznej, dźwięk wytwarzany przy pomocy komputerów całkowicie zdominował obszar muzyki elektronicznej.
Komputer w muzyce elektronicznej poza spełnianiem funkcji stołu montażowego czy generatora dowolnie kształtowanego dźwięku (o którym marzył Varèse), daje również możliwość tworzenia środowiska interaktywnego, w którym funkcjonują wykonawcy używający instrumentów/kontrolerów – jest zatem wykorzystywany w muzyce live electronicsLive electronicslive electronics. Może też wspomagać pracę kompozytora np. w zakresie doboru materiału muzycznego – wg zadanego algorytmu. Ten ostatni typ kompozycji nazywany jest „computer‑aided composition” (CAAC). Niekiedy muzyka tworzona dzięki algorytmom komputerowym nie jest wcale wykonywana przez żadne urządzenie elektroniczne, lecz przez żywych wykonawców. Tak było w przypadku kompozycji Illiac Suite na kwartet smyczkowy z 1955–1956 r. Lejarena Hillera i Leonarda Isaacsona, która powstała dzięki wygenerowaniu danych – tablicy numerycznej do regulacji wysokości, długości trwania dźwięku oraz instrumentacji. Nazwa utworu pochodzi od komputera Illiac, na którym uruchomiony został algorytm.
Zadania
R1blKOvda33Vh
Ćwiczenie 1
R16ymw2EE97o4
Ćwiczenie 2
Inna wersja zadania
Wyjaśnij pojęcie Teoria Fouriera.
RDLzGpc4fyeB8
Ćwiczenie 3
R1OpHPUgIYdUg
Ćwiczenie 4
RTh2OTW17vX0R
Ćwiczenie 5
RnwdzyuL7SYJC
Ćwiczenie 6
Inna wersja zadania
Wyjaśnij pojęcie alikwoty.
R1cho1ZSoI0pI
Ćwiczenie 7
Polecenie 1
Obejrzyj fragment partytury Symfonii na taśmę Bogusława Schaeffera. Jakie dźwięki wyobrażasz sobie patrząc na graficzne symbole? Skonfrontuj swoje wyobrażania z wersją Bohdana Mazurka dostępną w Internecie:
R1WX1EgDQQFg7
R18MvIQ2ltzrj1
Inna wersja zadania
Do czego służy System UPIC?
Polecenie 2
Posłuchaj utworu Artikulation G. Ligetiego bez patrzenia na wizualizację. Następnie posłuchaj jeszcze raz, ale tym razem z wizualizacją. Czy słuchanie tego utworu z wizualizacją było ciekawsze?
Polecenie 3
Weź białą kartkę papieru A4, ustaw w poziomie i naszkicuj partyturę w formie spektrogramu, podobną do rysunku uzyskiwanego za pomocą urządzenia UPIC Iannisa Xenakisa. Dłuższy bok niech stanowi oś czasu, a krótszy wyznacza częstotliwości. W dolnej części kartki będą znajdować się dźwięki niższe, średni rejestr pośrodku, natomiast w górnej części dźwięki wyższe. Czy jesteś w stanie wyobrazić sobie jak mogłaby zabrzmieć Twoja muzyka? Możesz to zadanie wykonać również w programie graficznym. W Internecie dostępnych jest kilka programów, które pozwolą Ci zamienić Twój rysunek na dźwięk, np. Photosounder. Spróbuj!
Zmiana proporcji występowania poszczególnych tonów składowych dźwięku za pomocą urządzeń elektronicznych.
Live electronics
Live electronics
Rodzaj muzyki elektronicznej, w której wykorzystywane jest przetwarzanie/generowanie dźwięku bezpośrednio podczas wykonania na żywo.
Muzyka ornamentalna
Muzyka ornamentalna
Muzyka powstała poprzez rysowanie ornamentów, powtarzalnych wzorów, naświetlanych następnie na taśmie światłoczułej i odtwarzanych za pomocą przystawki fonicznej projektora. Jeden z pierwszych rodzajów syntezy dźwięku.
Muzyka spektralna
Muzyka spektralna
Termin użyty po raz pierwszy przez Huguesa Dufourta w 1979 r. Polegała ona na wykorzystaniu wiedzy pochodzącej z analizy spektralnej dźwięku do stworzenia nowych jakości brzmieniowych za pomocą instrumentów akustycznych lub elektroniki. Kompozytorzy stosujący tę technikę to m. in. Gérard Grisey, Tristan Murail, Michael Levinas.
Partytura do słuchania
Partytura do słuchania
Rodzaj notacji muzyki elektronicznej. Nie przedstawia precyzyjnie zawartości materiału muzycznego. Jej zadaniem jest wsparcie słuchacza graficzną wizualizacją w śledzeniu przebiegu utworu.
Resynteza
Resynteza
Sztuczne odtworzenie za pomocą urządzeń elektronicznych dźwięków zarejestrowanych wcześniej i przeanalizowanych pod kątem zawartości tonów składowych.
Sejsmograf
Sejsmograf
Urządzenie służące do badania ruchów tektonicznych ziemi.
Spektrum dźwięku
Spektrum dźwięku
Inaczej widmo dźwięku – wykres rozkładu częstotliwości dźwięku w osi czasu lub w zatrzymanej chwili. Pozwala przeanalizować dźwięk pod względem zawartości poszczególnych składowych.
Synteza dźwięku
Synteza dźwięku
Sztuczne wytwarzanie, za pomocą urządzeń elektronicznych, całkowicie nowych, nieistniejących w naturze dźwięków. Synteza addytywna polega na dodawaniu do siebie kolejnych tonów składowych, natomiast subtraktywna – na odejmowaniu poszczególnych pasm, np. za pomocą filtrów.
System UPIC
System UPIC
UPIC – Unité Polyagogique Informatique du CEMAMu. System służący do komponowania muzyki elektronicznej poprzez rysowanie na osi czasu fal składowych dźwięku. Dane wprowadzane były do komputera za pomocą tabletu graficznego. Powstał w 1977 r. w Paryżu z inicjatywy Iannisa Xenakisa.
Teoria Fouriera
Teoria Fouriera
Każdy sygnał okresowy można przedstawić w postaci sumy sygnałów sinusoidalnych o odpowiednich amplitudach, częstotliwościach i przesunięciach.
Ton podstawowy
Ton podstawowy
Najniższa fala składowa dźwięku, która wyznacza rozpoznawaną przez nas wysokość dźwięku, np. a1 = 440 Hz.
Źródło:
Adam Wolański, Słownik terminów muzyki rozrywkowej, Wydawnictwo Naukowe PWN, Warszawa 2000.
Wojciech Marchwica, Słownik muzyki, Zielona Sowa, Kraków 2006.
Biblioteka muzyczna
RP0hLI9EqK8xF1
Utwór muzyczny: Przykład muzyczny nr 2, odgłos morza. Kompozycja posiada umiarkowane tempo. Cechuje się spokojnym charakterem.
R1S76sNMHFPpd1
Utwór muzyczny: Brzmienie syntezatora ANS. Kompozycja posiada umiarkowane tempo. Cechuje się spokojnym charakterem.
R1WX1EgDQQFg71
Utwór: fragment partytury Symfonii na taśmę. Wykonawca: Bogusław Schaeffer. Kompozycja posiada umiarkowane tempo. Cechuje się groźnym, tajemniczym charakterem.