Przeczytaj
Dźwięk i fala dźwiękowa
Dźwięk to wrażenie słuchowe, które jest spowodowane drganiami akustycznymi, a które wywołuje docierająca do ucha fala akustyczna. Akustyka jest zaś samodzielną nauką o dźwięku i tym, w jaki sposób się rozchodzi.
Fale dźwiękowe to forma, w jakiej rozchodzą się zmiany ciśnienia atmosferycznego, które z kolei wywołuje drganie. Dźwięk rozprzestrzenia się za ich pomocą. Działanie fal dźwiękowych polega na przenoszeniu energii mechanicznej poprzez drgania cząstek – przenoszą się one z jednej cząstki sprężystej na drugą, wreszcie wprawiając w drganie powierzchnię ciała sprężystego.
Drgania te mają częstotliwość od Hz do GHz, czyli mln drgań/s. Człowiek jest w stanie usłyszeć dźwięk o odpowiednich częstotliwościach - od Hz do Hz. Tak dzieje się jednak tylko wtedy, gdy energia dźwięku jest duża. Dla dźwięków cichych ten zakres jest zawężony do ok.- Hz.
Fale możemy podzielić w następujący sposób:
na poprzeczne i podłużne ze względu na kierunek drgań powierzchni sprężystych; poprzeczna powstaje, gdy kierunek ten jest prostopadły do kierunku fali, podłużna zaś – gdy kierunek drgań jest równoległy;
na kuliste i płaskie ze względu na kierunek rozchodzenia się; fala dźwiękowa to fala kulista, bo rozchodzi się równomiernie we wszystkich kierunkach; jako falę płaską można ją traktować wtedy, gdy znajduje się w dużej odległości od źródła dźwięku;
na sinusoidalne, prostokątne, trójkątne, piłokształtne, losowe i szumowe ze względu na kształt ich przebiegu czasowego.
Słuch
Odbiór fal dźwiękowych jest możliwy dzięki zmysłowi słuchu. Fale są przekształcane na drgania mechaniczne, potem zaś impulsy nerwowe, a te za pośrednictwem nerwu słuchowego są przekazywane do mózgu. Tam poddane zostają analizie i przedstawione w postaci wrażenia słuchowego.
Słuch pełni wiele ważnych funkcji w naszym życiu i codzienności. Między innymi przyczynia się do rozwoju mowy i porozumiewania się, a także pomaga w kształtowaniu osobowości i rozwoju uczuć. Jest też istotnym źródłem informacji, które pozwalają nam zachować bezpieczeństwo, oraz tych, które rozwijają naszą wiedzę o otoczeniu. Wreszcie dzięki zmysłowi słuchu możemy wypracować i utrzymać sprawność fizyczną.
Narzędziem słuchu jest ucho. Odpowiada ono również za nasze poczucie równowagi. Składa się z:
ucha zewnętrznego: małżowiny usznej oraz zewnętrznego przewodu słuchowego, który jest zakończony błoną bębenkową; gdy fala dźwiękowa dociera do ucha przez przewód słuchowy, błona bębenkowa zaczyna drgać;
ucha środkowego: to niewielka przestrzeń (wielkość ok. 1/8 ucha zewnętrznego) wypełniona powietrzem, które przedostaje się do jamy gardła kanałem nazywanym trąbką Eustachiusza – dzięki niej w uchu wewnętrznym utrzymuje się takie samo ciśnienie powietrza, jak na zewnątrz; znajdują się tam również trzy kostki: kowadełko, młoteczek oraz strzemiączko;
ucha wewnętrznego: czyli bębenka, to najbardziej złożona część ucha; narząd słuchu stanowi struktura kostna nazywana ślimakiem, podzielona na trzy elementy;
części ośrodkowej narządu słuchu (ośrodków słuchowych w mózgu).
Specyficznym rodzajem słuchu jest słuch muzyczny. To zdolność do rozróżniania interwałów i nazywania dźwięków przez porównanie z dźwiękiem o znanej wysokości. Dźwięki wysokie od niskich potrafi rozróżnić większość ludzi, o słuchu muzycznym świadczy jednak także zdolność do powtarzania usłyszanych melodii. Umiejętność jej zapamiętania nazywamy zaś pamięcią muzyczną. Niektórzy potrafią rozpoznać bezwzględną wysokość usłyszanego dźwięku i odpowiednio go nazwać – nazywamy to słuchem absolutnym, który jest przekazywany w genach. O ile relatywny słuch muzyczny ma ok. 98% populacji, to absolutny już tylko ok. 8%.
Właściwości słuchu
Jedną z właściwości słuchu jest maskowanie dźwięków. Polega ono na tym, że gdy dociera do nas kilka dźwięków na raz, te głośniejsze osłabiają cichsze, w końcu doprowadzając do ich przykrycia. Im częstotliwość dźwięków oraz kierunki, z których dobiegają, są bardziej zbliżone, tym silniejsze jest całe zjawisko. Przy realizacji różnego rodzaju nagrań zjawisko to może wpływać na zaburzenie słyszalności dźwięków. By poprawić nagranie, wystarczy więc wyciszyć tych muzyków, którzy przykrywają niektóre tony, zamiast je pogłaśniać.
Innym zjawiskiem jest kierunkowość słuchu. To zdolność określenia, gdzie znajduje się źródło dźwięku. Służy do tego analiza różnic w sygnałach, jakie docierają do prawego i lewego ucha. Poddaje się jej trzy parametry:
głośność,
czas pojawiania się, czyli faza,
barwa.
Możliwa jest także lokalizacja przestrzenna dźwięku. Służy temu orientacja odległościowa. Nasze wyobrażenie na temat odległości źródła dźwięku kształtują następujące czynniki:
kształt czoła fali (wraz z odległością maleje jej stromość);
głośność znanych źródeł;
stosunek natężenia dźwięku bezpośredniego do dźwięków odbitych;
barwa dźwięku ze znanych źródeł (te słuchane z bliska brzmią jaśniej);
doświadczenie słuchowe.
Kryteria słuchowej oceny jakości dźwięku
Umiejętności właściwej oceny jakości dźwięku oraz analizy parametrów dźwięku to jedne z najważniejszych w pracy akustyka. Parametry, jakie bierzemy pod uwagę, to:
zniekształcenia – np. charczenia, przestery; jeśli występują, to w torze akustycznym prawdopodobnie dopuszczalna wielkość sygnału została przekroczona; jesteśmy w stanie zauważyć zniekształcenia powyżej 1%, a powyżej 4% są one bardzo widoczne;
zakłócenia – to szumy, brzęczenia czy przydźwięki, czyli to, czego nie powinno być w muzyce; powstają w wyniku błędnie wykonanych połączeń lub uszkodzenia ekranów w przewodach; zakłócenia są szczególnie częste w potężnych instalacjach nagłaśniających, duże są bowiem wówczas odległości między mikrofonami a stołem akustycznym;
barwa dźwięku – oceniając ten parametr, zwracamy uwagę na wierność barwy poszczególnych instrumentów oraz brzmienie całego zespołu i proporcji między nimi; oceny należy dokonywać przy odpowiedniej głośności, zbyt cichy odsłuch spowoduje bowiem, że najniższe i najwyższe częstotliwości zostaną osłabione;
wielkość obrazu dźwiękowego – określa rozmiary sceny, z której dociera dźwięk; jeśli obszar ten będzie zbyt wąski, nagranie będzie monofoniczne, zbyt szeroki obszar sprawi zaś, że ciągłość obrazu dźwiękowego przerwie się, scena podzieli się bowiem na lewą i prawą stronę, a ze środka nie będą dobiegały żadne dźwięki;
perspektywa dźwięku – to wrażenie odległości źródła od słuchacza, czyli głębokość obszaru dźwiękowego; nie powinien on być ani zbyt bliski, ani zbyt daleki, należy więc pamiętać o odpowiednim pogłosie dopasowanym do rodzaju nagrania;
atmosfera akustyczna – to wrażenie autentyczności nagrania; takie zrealizowane na żywo może zawierać odgłosy pozornie zakłócające odbiór – odgłos tłumu, innych elementów otoczenia; atmosferę akustyczną budują przestrzeń i dźwięki postronne, czyli tło; dbałość o ten element jest szczególnie ważna przy realizowaniu ścieżki dźwiękowej do filmu;
czytelność obrazu dźwiękowego – czyli jego przejrzystość, a więc zdolność odtwarzania szczegółów, czyli ostrość słyszenia; by dźwięk był przejrzysty, należy zadbać o odpowiedni aranż, ustawienie barwy, proporcji, rozmieszczenie instrumentów i głosów w panoramie oraz przestrzeni
równowaga głośności – za pomocą pokrętła BALANCE we wzmacniaczu należy dokonać sprawdzenia równowagi w poszczególnych kanałach, a różnica nie powinna przekraczać 6 dBdB.
Zestawienie wszystkich ośmiu kryteriów pozwoli na dokonanie właściwej oceny jakości dźwięku i wykrycie ewentualnych usterek.
Wysokość, głośność, barwa i czas trwania dźwięku
Język, za pomocą którego określamy cechy dźwięku, który ma wydobyć wykonawca, nazywamy notacją muzyczną. W jej skład wchodzą m.in.: oznaczenie instrumentu muzycznego, pięciolinie, klucze, nuty i pauzy, oznaczenie tempa, dynamiki i artykulacji, frazowanie oraz inne znaki.
Wysokość dźwięku określamy za pomocą pięciolinii (pięciu równoległych linii numerowanych od dołu do góry, na których i pomiędzy którymi zapisujemy dźwięki), kluczy (decyduje on o nazwie nuty zapisanej na pięciolinii; najbardziej popularne są klucze wiolinowe, basowe, altowe i tenorowe), nut i znaków chromatycznych. Zapis nutowy jest uniwersalny i międzynarodowy, domyślny i zrozumiały dla każdego muzyka.
Głośność dźwięku wiąże się z natężeniem, ciśnieniem, mocą i gęstością akustyczną. Jest to subiektywna cecha dźwięku, która umożliwia uporządkowanie dźwięków według skali od cichych do głośnych. Mierzy się ją w fonach, czyli obiektywnej jednostce, nazywanej też natężeniem słyszalnym. Ważnym pojęciem jest próg słyszalności, który wyznacza najcichszy dźwięk będący na tyle głośniejszy od cząsteczek powietrza, które uderzają w błonę bębenkową, że możemy go zidentyfikować. Cichsze dźwięki znajdują się poza obszarem naszego słuchu i określamy je mianem obszaru ciszy. Granicą bólu jest zaś dźwięk o poziomie 140 dB, a dźwięki powyżej 100 dB mogą uszkodzić nasz słuch.
Obszar słyszalności to przestrzeń znajdująca się pomiędzy najniższymi i najwyższymi oraz najcichszymi i najgłośniejszymi dźwiękami, jakie słyszymy. Jest to cecha indywidualna u każdego człowieka, zmienna w trakcie trwania życia. Im starsi jesteśmy, tym mniej wrażliwi stajemy się na dźwięki ciche i wysokie.
Barwa dźwięku jest wrażeniem słuchowym, które pozwala na odróżnienie dźwięków o tej samej wysokości i głośności. Wpływają na nią artykulacja i siła wzbudzania dźwięku. Barwa zależy przede wszystkim od poziomu ciśnienia akustycznego, struktury widmowej i przebiegu czasowego dźwięku. Barwa jest cechą o wielu wymiarach, nie można jednolicie jej określić ani umieścić na żadnej skali. Opisując ją, odwołujemy się do zmysłu wzroku (mówimy o jasnych i ciemnych dźwiękach) czy dotyku (dźwięki twarde i miękkie). Szczególną umiejętność rozróżniania oraz zapamiętywania barwy dźwięku nazywamy słuchem barwowym.
Czas trwania dźwięku jest cechą, która wynika ze specyfiki fali dźwiękowej. Dźwięk zanika wtedy, gdy wygaśnie drganie lub gdy zostanie ono zakłócone przez silniejszy bodziec. Trwanie dźwięku określamy za pomocą jednostek czasu. W muzyce podobnie, nadajemy nutom pewne wartości, którym odpowiadają pauzy, a to określa relacje czasowe między kolejnymi nutami. Czas trwania dźwięku w muzyce określa tempo. Może być ono powolne, umiarkowane bądź szybkie.
Wstęp do edycji dźwięku: import i eksport dźwięku w programie Audacity
Jednym z wielu programów służących do edycji dźwięku i pracy nad konkretnymi montażami jest program Audacity. Umożliwia on zastosowanie różnych efektów, m.in. kompresora, echa, pogłosu czy wyciszenia, a co za tym idzie – wykorzystanie nagrań do wielu celów, nadanie im rozmaitych funkcji. Poruszanie się po programie jest intuicyjne, dostępne są w nim wskazówki oraz samouczek, które ułatwiają korzystanie z Audacity.
Poza paskiem menu, w programie Audacity znajduje się też pasek transportu, który umożliwia nam poruszanie się po dźwięku (przewijanie go czy zatrzymywanie), pasek, w którym znajdują się przyciski takie jak lupa oraz narzędzie do przesuwania w czasie, a także pasek edycji, który pozwala nam wycinać czy kopiować wybrane fragmenty nagrania.
Import
Pracę w programie rozpoczynamy od zaimportowania gotowego pliku, który chcemy poddać obróbce, lub od stworzenia nowej sesji dźwiękowej.
W pasku Menu plik znajduje się zakładka „importuj”, która umożliwia zaimportowaniezaimportowanie dźwięku do programu Audacity. Program jest kompatybilny z formatami WAV, MP2, MP3, AIFF oraz OGG. Po zaimportowaniu wybranego pliku do programu możemy rozpocząć jego obróbkę. Jednym ze sposobów edycji jest skompilowanie – po uprzednim imporcie – dwóch plików, np. tekstu lektorskiego z muzyką.
Eksport
EksportowanieEksportowanie dźwięku, inaczej bouncing lub renderowanie dźwięku, to termin oznaczający stworzenie jednego pliku, który zawiera rezultat naszych dotychczasowych działań w programie do edycji dźwięku. Pozwala np. na zapisanie skompilowanych dwóch ścieżek dźwiękowych.
W menu plik wchodzimy w zakładkę eksport i decydujemy, czy zapiszemy plik w formacie mp3 czy WAV. Nadajemy plikowi nazwę i wprowadzamy ewentualne metadane utworu.
Wyeksportować można np. dźwięk skompilowany z dwóch śladów – monofonicznego z narracją oraz stereofonicznego z muzyką. W zakładce „eksport” w menu plik możemy wybrać format, w jakim zapiszemy skompilowany dźwięk (dostępne formaty to MP3, WAV czy OGG – ich wybór zależy od celu, w jakim przygotowujemy plik, gdzie będziemy go odtwarzać, czemu ma on służyć), nadać mu nazwę i wybrać lokalizację nowo powstałego pliku.
Eksportu można dokonać także do więcej niż jednego pliku. To opcja przydatna np. wtedy, gdy chcemy zapisać nagranie bądź album muzyczny do kilkunastu oddzielnych plików MP3. W tym celu korzystamy z opcji Menu > Eksportuj wiele plików
.
Zapisanie pliku
Poza eksportem, który stanowi zapisanie gotowego pliku, można także zapisać projekt, tak by móc do niego wrócić i kontynuować montaż. Po zapisaniu pliku można go bowiem ponownie otworzyć. Opcja Plik > Zapisz projekt / jako...
umożliwia zapisanie aktualnego pliku programu.
Kolejne wersje programu umożliwiają automatyczne zapisanie pliku, nad którym pracujemy, w regularnych odstępach czasowych. Można je dostosować w opcji Edycja > Preferencje > Projekty
. Od wersji 1.3.7 programu projekty możemy zapisywać w wersji skompresowanejskompresowanej, co pozwala zaoszczędzić miejsce na dysku komputera. To, czy program użyje kompresji stratnej czy bezstratnej, zależy od wyboru rodzaju pliku w czasie eksportu. Jeśli pracujemy w pliku WAV i eksportujemy go do formatu mp3, wówczas następuje zmniejszenie pliku.
Słownik
bele (B) oraz decybele (dB) to subiektywna jednostka głośności; ich wskazania w większym stopniu odpowiadają naszym wrażeniom słuchowym niż pomiar natężenia dźwięku. Subiektywną jednostką pomiaru głośności są
zapisanie danych w innym formacie niż ten, którym posługuje się aktualnie używany program
przeniesienie do danego programu aplikacji stworzonej przez inny program
zmniejszanie ilości informacji w jednostce pamięci lub czasu