Inzynieria dzwieku - Mastering, korekcja.doc

(2026 KB) Pobierz

Studio:

Techniki studyjne:

Mastering, korekcja

 

Prawdopodobnie najtrudniejszym aspektem miksowania jest uzyskanie odpowiedniej korekcji na poszczególnych ścieżkach, zwłaszcza wtedy, gdy mamy do czynienia z ich dużą ilością. Złe ustawienia korekcji, choćby tylko na jednej ścieżce, może negatywnie wpłynąć na cały miks. Wszystko co robisz ma wpływ na poziom jasności, ciepła, dynamik i na ogólny balans spektrum dźwięku.
     Wiedząc jaki wpływ ma na dźwięk każde pasmo częstotliwości, masz do dyspozycji gotowy plan perfekcyjnego miksu. Ale będzie on perfekcyjny tylko wtedy, gdy będziesz wstanie usłyszeć czego mu trzeba. Niestety, moda na różne brzmienia przemija słuch ulega zmęceniu, dlatego remastering może okazać się zbawieniem.
Remastering daje ci drugą szansę uzyskania odpowiedniej korekcji już po zmiksowaniu utworu Chociaż nagranie nowego miksu od początku (albo edycja oryginalnego miksu w przypadku gdy pracujesz na urządzeniu nagrywającym albo konsoli z automatycznym miksowaniem) jest zawsze najlepszym rozwiązaniem, wielośladowe nagrania nie zawsze są dostępne, a czas i budżet mogą wymagać szybkiej poprawki. W takich sytuacjach, zastosowanie stereofonicznej korekcji istniejącego nagrania, w dużym stopniu może ulepszyć miks. Pamiętaj tylko, że to co zmieniasz w miksie wpływa na wszystkie ścieżki. Przykładowo, podbicie częstotliwości nie tylko rozjaśni prowadzący wokal, ale również wzmocni talerze i gitary. Tylko robiąc nowy miks możesz niezależnie poprawić każdy ślad.
     Ale niezależnie od tego, czy miksujesz czy też robisz remastering, zmiana w danym paśmie będzie miała ta sam ogólny wpływ na dźwięk. W tym artykule przedstawimy charakterystyki różnych zakresów częstotliwości i przedyskutujemy kilka przykładów na to, jak podbicie czy też obcięcie w określonych pasmach może poprawić twój miks. Zacznijmy od basu!

  • 20Hz - 50Hz:W tym obszarze ucho nie słyszy zbyt dobrze; niższą część tego zakresu można bardziej o czuć niż usłyszeć. Tutaj żyją sobie odgłosy przejeżdżających w oddali ciężarówek. Dudnienie, które słyszysz - czy raczej odczujesz - pochodzące z następnej przecznicy, gdzie twój sąsiad używa ciężkiego sprzętu by rozebrać fundamenty. Problem ten jest stosunkowo prosty do usunięcia przy pomocy dowolnego korektora Jeśli jednak chcesz, by częstotliwości te by dobrze odczuwalne, tę strefę trzeba (ostrożnie) podbić. Posłuchaj utworu "Tiger" z albumu "This Fire" Pauli Cole, a zobaczysz o co mi chodzi. Lepiej jednak zostawić te częstotliwości w spokoju, chyba że masz subwoofer albo szerokopasmowe odsłuchy, które potrafią wiernie reprodukować to pasmo dźwięku. W innym przypadku, możesz dodać dużo więcej dołu niż to konieczne. Zbyt dużo energii w tym paśmie szybko pochłonie dźwiękową przestrzeń i ściągnie miks do niższego, słabiej brzmiącego poziomu.
  • 63Hz - 80Hz: To środkowo - basowe pasmo należy podbić, jeśli chcesz by bas i uderzenie stopy miały większą siłę. Jest to również dobre pasmo do podbicia, kiedy chcesz by miks był bardziej ciepły, dół masywniejszy, a wokal, gitary i solówki saksofonu nie rozmazane. Lecz zbyt dużo energii w tym paśmie może pozbawić miks dźwiękowej przestrzeni i powodować przesterowania w głośnikach.
  • 100Hz - 160Hz: Kiedy konga, dumbek i inne instrumenty perkusyjne uderzane dłonią produkują rezonujące dudnienie, to pasmo trzeba zazwyczaj obciąć. Z drugiej strony, jeśli twoje głośniki wytwarzają dużo dołu, ale gitara basowa z niejasnych przyczyn robi się słaba kiedy przechodzisz na odsłuchy Yamaha NS10M, lekkie podbicie w tym rejonie pozwoli odzyskać ciepło i odpowiednią równowagę miksu na mniejszych głośnikach. Uważaj tylko by nie przesadzić ponieważ zbyt dużo energii w tej strefie może sprawić, że miks będzie sprawiał wrażenie dudnienia.
  • 200Hz - 250Hz: Te częstotliwości są przyczyną zbyt dudniącego brzmienia gitary akustycznej. Lekkie podbicie w tym rejonie może dodać ciepła i pełni do słabego miksu, ale uważaj - może ono również sprawić. że gitara basowa będzie rozmazana i nie wyraźna. Gdy będziesz mieć problemy z rozróżnieniem nut granych przez bas, spróbuj obciąć to pasmo zamiast podbić średnie i wysokie częstotliwości. Uzyskasz jasność jakiej szukałeś, a miks będzie bardziej ciepły niż w przypadku podbitych wysokich tonów.
  • 315Hz - 400Hz: Kiedy ogólny miks jest jałowy zazwyczaj tę częstotliwość należy obciąć. To samo dotyczy indywidualnych ścieżek takich jak wokal - spróbuj najpierw obciąć te częstotliwości zamiast podbijać średnie i wysokie, a poprawisz wyrazistość śpiewanego tekstu zachowując ciepło nagrania.
  • 500Hz - 800Hz: Zbyt dużo energii w tym zakresie może sprawić, że miks będzie brzmiał twardo. Kiedy stopa perkusji brzmi jak uderzanie w gruby kawałek kartonu, zacznij od stłumienia tych częstotliwości. Masa przebojowych nagrań została nagrana z Wyciętym zakresem tych właśnie częstotliwości, ale pamiętaj by nie przesadzić.
  • 1kHz - 2kHz: Te częstotliwości należy podbić, kiedy chcesz poprawić wyrazistość bez zwiększania słyszalności głosek wybuchowych. Podbicie pomiędzy 1kHz a 2kHz może przywrócić jasność i definicję podstawowej wysokości dźwięku w przypadku mocno przesterowanych, brzęczących gitar. Gdy jednak miks zaczyna brzmieć jak klaksony w samochodach, to znak, by obciąć ten zakres.
  • 2,5kHz - 4kHz: Jest to strefa, w której ludzki słuch jest najbardziej wrażliwy. To oznacza dwie rzeczy. Po pierwsze, każda ścieżka, która ma się przebić przez miks, skorzysta na podbiciu tego pasma częstotliwości. Po drugie, zbyt dużo energii w tej strefie zmęczy stuł szybciej niż w
przypadku innych zakresów. Kiedy miks wydaje ci się zbyt ostry, sprawdź czy to pasmo częstotliwości zostało podbite na poszczególnych ścieżkach. Jest to błąd popełniany przez wielu początkujących Inżynierów dźwięku, stopniowo podbijających wysokie tony podczas pracy nad miksem, by zrekompensować zmęczenie słuchu. Następnego dnia, kiedy twój słuch jest wypoczęty, miks brzmi bardzo ostro. Generalnie, lepiej jest obciąć częstotliwości rozmazujące miks niż podbijać strefę, w której szybciej męczy się ucho.
  • 5kHz - 10kHz: Większość głosek wybuchowych w wokalu objawia się właśnie w tym zakresie częstotliwości, choć przy głosie kobiecym głoski wybuchowe mogą sięgać aż do 11 albo 12kHz. Obcięcie tego pasma zlikwiduje zakłócenia związane z głoskami wybuchowymi, pozbawi ono również wokal niuansów, artykulacji i przejrzystości. Z tego powodu lepiej zastosować de-esser. Podbij górną część tego zakresu by uwypuklić sprężyny przy uderzeniach w werbel, stuknięcia przy uderzeniach w tom-tomy i klang stopy. Lekkie podbicie w tym rejonie może dać przyjemny, srebrzysty odgłos uderzanych strun gitary akustycznej. Ale, jeszcze raz powtarzam, uważaj. Zbytnie podbicie może sprawić, że miks będzie brzmiał zbyt agresywnie.
  • 12,5kHz - 20kHz: Jest to pasmo, gdzie szum analogowej taśmy i szum przedwzmacniacza są najbardziej słyszalne. Często można tu zastosować filtr dolnoprzepustowy pod warunkiem, że nie są to ścieżki perkusyjne i mają niewiele wysokich tonów (np. bas elektryczny i gitara) Niewielkie podbicie w tym rejonie może sprawić, że talerze będą naprawdę wyraźne. Średnie podniesienie poziomu w tym zakresie może dać miksowi wspaniały klimat lekkości czy czytelności. W przeciwieństwie do pasm niższych częstotliwości, wyższa oktawa jest zazwyczaj bardziej pobłażliwa w stosunku do podbijania: możesz pozwolić sobie na więcej, zanim miks zacznie brzmieć zbyt jaskrawo i lodowato.

     PAMIĘTAJ!!!

     Podczas procy z korekcją trzeba pomimo jednej rzeczy: w większości przypadków lepiej jest obciąć niż podbijać. Wyjątki stanowią częstotliwości poniżej 250Hz i powyżej 2,5kHz. W tych ekstremalnych granicach spektrum dźwięku możesz czuć się swobodnie podbijając lub obcinając to co trzeba. Ale pomiędzy około 300Hz a 10kHz postępuj ostrożnie. Zbyt dużo podbicia gdziekolwiek w tym szerokim zakresie może spowodować, że instrument albo miks zabrzmi zbyt ostro i twardo. Na przykład jeśli ścieżka jest zbyt rozmazana spróbuj obniżyć niewyraźne niższe częstotliwości zamiast podbijać średnie i wysokie tony, które mogą wyostrzyć brzmienie. Z drugiej strony, jeśli ścieżka brzmi zbyt ostro i przeszywająco, obniż poziom w okolicach od 2,5kHz do 4kHz zamiast podbijać średnie niskie tony i bas. W większości przypadków twój miks zabrzmi cieplej i bardziej gładko.
     Naturalnie opisywanie dźwięku za pomocą słów jest procesem subiektywnym. Co jedna osoba postrzega jako dudniące, dla drugiej może zabrzmieć wspaniale. Powyższe wytyczne są po prostu punktem początkowym w twoich własnych twórczych eksperymentach. Im więcej będziesz kręcić potencjometrami i obserwować wyniki, tym lepiej nauczysz się rozróżniać co jest potrzebne danej ścieżce czy też całemu miksowi.

 

Mastering

KIEDYŚ

 

      Jak może jeszcze niektórzy z naszych Czytelników pamiętają, kiedyś źródłem muzyki najwyższej jakości (czyli po polsku hi-fi) były „czarne” płyty gramofonowe. Ile z tym było kłopotu pamięta każdy, kto urządzenie zwane gramofonem posiadał. Ale nie wszyscy wiemy, że kłopoty z tym systemem zapisu i odtwarzania dźwięku nie zaczynały się w momencie odtwarzania — z zapisem też nie było łatwo!
     Ze studia do tłoczni płytowej „przyjeżdżała” taśma magnetofonowa, którą w procesie zwanym masteringiem należało przegrać na płytę „matkę”, czyli tzw. master. Nie była to wcale prosta sprawa! Pozornie nic skomplikowanego - urządzenie podobne do gramofonu, tyle że igła mocniejsza i zamiast odtwarzać, dostaje „prąd” i żłobi rowki w jakimś tworzywie, a dalej, to już zwykła fabryka. Ale problemów było kilka. Przede wszystkim materiał źródłowy był (tak jak dzisiaj) bardzo różny, a głowice nacinające bardzo drogie i delikatne, przesterowane po prostu się przepalały. W niektórych firmach te trzysta dolarów za naprawę płacił inżynier z własnej kieszeni. Ponieważ sprawdzanie poziomu przed „nacinaniem” trwało długo łatwo było przeoczyć „zdradliwe” miejsca, bardzo prędko zaczęto stosować limitery czyli urządzenie nie pozwalające przekroczyć odpowiedniego poziomu. Poza tym płyta nie bez powodu nazywała się „długogrająca”. A żeby zmieścić tyle informacji na płycie, trzeba było przede wszystkim jak tylko się da „zagęścić” rowki — a do tego potrzebne były dość skomplikowane zabiegi. Jednym z podstawowych urządzeń był magnetofon z dwoma głowicami odczytującymi jedna za drugą. Ta druga sterowała głowicą nacinającą, a ta pierwsza z wyprzedzeniem „informowała” system, że zbliża się sygnał o dużej amplitudzie (czyli głośności) i wypadałoby zwiększyć odstępy pomiędzy rowkami, żeby na siebie przypadkiem nie naszły. Inne zabiegi zwiększające pojemność płyty były bardziej skomplikowane. Do najpowszechniej stosowanych należało zmniejszanie poziomu najniższych częstotliwości (bo to przede wszystkim od nich zależał odstęp między rowkami) — często cały materiał pozbawiany był częstotliwości poniżej 60 Hz, ale za to przy pomocy innych gałek korektora dźwięku można było dodać innych częstotliwości. Drugim sposobem na zagęszczenie rowków było obniżenie poziomu zadziałania limitera, który z „bezpiecznika” stawał się ciągle działającym urządzeniem — nie trzeba chyba dodawać, że nie pozostawało to bez wpływu na brzmienie nagrania. Jeżeli dodamy do tego nie znane dotąd problemy z przeciwfazą, zabójcze dla analogowej płyty stereo wymagające odpowiedniej korekcji, okaże się, że cały ten proces był dość skomplikowany i przede wszystkim przez dziesięciolecia w istotny sposób wpływał na brzmienie muzyki, której słuchaliśmy. W momencie pojawienia się płyty kompaktowej cały ten proces okazał się niepotrzebny — nie było problemów z najniższymi częstotliwościami czy przeciwfazą, a dynamika była jak na owe czasy niewyobrażalna! Proces masteringu ograniczał się do przegrania taśmy-matki na „coś”, z czego można było wyprodukować płytę CD, i to bez żadnych dodatkowych zabiegów. Wszyscy muzycy i realizatorzy odetchnęli z ulgą. Nareszcie nagrania nie będą „maltretowane” i dotrą do słuchacza w zamierzonym, niezmienionym kształcie wszyscy będą szczęśliwi.

 

 

DZISIAJ

 

      Niestety — prędko okazało się, że wcale nie jest tak dobrze. Nagraniom ciągle „czegoś” brakowało i tym czymś okazał się właśnie mastering — od tej pory rozumiany jednak inaczej, bardziej świadomie celowo. Pojawiła się nowa gałąź usług, etap produkcji płyty o tyle ważny, że ostatni. Realizator zajmujący się masteringiem na początku tylko ustalał odstępy między nagraniami i dodawał indeksy. Ponieważ najczęściej był to człowiek z dużym doświadczeniem, z czasem okazało się, że „świeże ucho” z dużym dystansem oceniające wyniki długiej pracy w studiu może być bardzo pomocne. Jednocześnie na fali nostalgii niebotyczne ceny zaczęły osiągać stare urządzenia, takie jak korektory Pultec czy kompresory Fairchild, stosowane masowo przy masteringu i ogólnie nielubiane ze względu na brzmienie (szczególnie kompresor Fairchild). Umożliwiały one nadanie cyfrowym nagraniom brzmienia, które choć może nie idealnie, to jednak zbliżało płytę CD do analogowego wzorca, do którego wszyscy byli przyzwyczajeni. Połączenie najnowszej, cyfrowej technologii z „zabytkowymi” wręcz procesorami I przede wszystkim dużą wiedzą zaowocowało pojawieniem się nowych możliwości wpływania na końcowy kształt nagrań i obecnie nie wy obrażamy sobie wydania płyty bez tego etapu obróbki. Co dać może nam mastering i dlaczego jest on niezbędnym etapem produkcji na grań?
Jednym z ważniejszych powodów jest obecność dodatkowej osoby ze świeżym spojrzeniem na naszą muzykę. Bardzo często bowiem silne zaangażowanie się i skupienie na jednych elementach (brzmienie gitary czy sekcji) powoduje przeoczenie innych, często podstawowych spraw. Dopiero człowiek „z zewnątrz”, który nie wie, ile czasu, potu i krwi zajęło nagranie tej solówki, może ją właściwie ocenić. Ponieważ jednak zajmować się będziemy masteringiem „zrób to sam”, ten aspekt — choć jeden z ważniejszych — pominiemy. Niemniej ważny jest natomiast czas, który upływa od zakończenia pracy w studiu do masteringu — nawet tydzień pozwala zapomnieć o mało istotnych a denerwujących szczegółach i ponowne słuchanie (koniecznie po przerwie) pozwala usłyszeć więcej i inaczej. W dodatku słuchamy w innych warunkach, na innych głośnikach, w innym pomieszczeniu. Ma to też duży wpływ na obiektywną ocenę brzmienia. Utwory powstają w różnym czasie, często w różnych warunkach, mogą być zgrywane przez różne osoby. Każdy oddzielnie może nawet brzmieć dobrze, ale po ustawieniu ich w kolejności okaże się, że konieczne jest dopasowanie ich do siebie — głośnością, często też barwą. Nie możemy zmienić proporcji (trochę możemy, ale o tym później), ale istnieje wiele sposobów na poprawienie brzmienia bez konieczności ponownego zgrywania. W studiu każdy muzyk czuje się dziwnie i obco, nie wie jak słuchać — cicho czy głośno, czy już wystarczy basu i pogłosu. W domu, na znanym sprzęcie, na którym słuchamy muzyki na co dzień, następuje ostateczny test i na szczęście dzięki rozwojowi techniki komputerowej istnieje możliwość ingerencji w zdawałoby się gotowy produkt, jakim są nasze nagrania. Nawet jeżeli nagrywamy sami w domowym studiu, mastering pomoże naszym nagraniom — jeżeli tylko będziemy wiedzieli, jak się do tego zabrać.

 

CO OSIĄGNIEMY

      Czy też raczej co będziemy się starali osiągnąć. Przede wszystkim będziemy mogli wyrównać brzmienie poszczególnych utworów — głośność, ale też i barwę. No i oczywiście nosze nagrania będą głośniejsze (o to chodzi, prawda?), dostaną „kopa” i czego tam im jeszcze brakuje. Jak trzeba, to poszerzymy bazę stereo, w ostateczności kompresorem pasmowym zmienimy nieco proporcje. Na koniec nagramy płytę CD z naszym materiałem i porównamy w jak największej ilości miejsc — po czym... wrócimy grzecznie poprawić wszystkie błędy. W związku z tym ważna uwaga — nigdy!!! nie należy kasować materiałów wyjściowych, nawet jeżeli jesteśmy pewni, że dodanie tego „dołu” jest absolutnie niezbędne.

 

 

 

CO JEST POTRZEBNE

      Przede wszystkim — źródło dźwięku. Najlepszym rozwiązaniem jest posiadanie magnetofonu cyfrowego typu DAT lub nagrywarki płyt CD. Urządzenia te nie stosują przy nagrywaniu kompresji danych i w związku z tym (przynajmniej teoretycznie) nie powodują pogorszenia brzmienia. Jeżeli nasze domowe studio jest wyposażone w MiniDisc, to nie należy rozpaczać — mimo stratnej kompresji danych urządzenia te i tak są o niebo lepsze od innych nośników. Tym bardziej, że z używanych obecnie pozostał tylko magnetofon kasetowy. Dobrym rozwiązaniem jest też wykorzystanie dwóch śladów cyfrowego wielośladu typu ADAT lub Tascam — jedynym problemem może być w tym wypadku brak lub trudności w wykorzystaniu wyjść wejść cyfrowych. Złącza cyfrowe są bowiem podstawą w tego rodzaju działalności — nieważne, czy optyczne czy elektryczne, zapewniają niezakłócone przesyłanie danych między urządzeniem nagrywającym i komputerem. Przy okazji chcę pod kreślić: nie ma żadnej różnicy w jakości dźwięku między sygnałem przesyłanym złączem optycznym (zwanym TOS-LINK od firmy Toshiba, która produkuje „gniazda” z diodami świecącymi i fotodiodami wykorzystywane w tym systemie) i złączem elektrycznym S/PDIF (Sony/Philips Digital lnterface). Oba te systemy przesyłają identyczne sygnały i jeżeli wszystko działa tak jak powinno, to sygnał przekazywany jest bez żadnych zmian, bit po bicie. Oczywiście, cyfrowe przesyłanie sygnału nie jest wolne od innego rodzaju zniekształceń (na przykład jitter), ale w normalnych warunkach są one niesłyszalne (nawet, jeżeli występują). Urządzenia nagrywające czyli magnetofony DAT czy MiniDisc wyposażone w wyjścia i wejścia cyfrowe są niestety nieco droższe, natomiast warta jest ponieść ten dodatkowy wydatek z dwóch względów: dźwiękowe karty komputerowe wyposażone tylko w wejścia i wyjścia cyfrowe są tańsze od posiadających również przetworniki analogowo-cyfrowe i cyfrowo-analogowe, a przesyła nie cyfrowe gwarantuje najwyższą z możliwych jakość, niemożliwą do osiągnięcia podczas przegrywania analogowego zwłaszcza, jeżeli wykorzystujemy prze tworniki analogowa-cyfrowe znajdujące się na karcie dźwiękowej. Oczywiście nie oznacza to, że nie można wgrywać do komputera muzyki z magnetofonu kasetowego analogowym wejściem popularnej karty multimedialnej. Trzeba tylko mieć świadomość ograniczeń i skutków takiej metody. Złącza cyfrowe przydadzą się też pod czas przegrywania gotowego, obrobionego już materiału z komputera na taśmę lub dysk — choć następuje to ostatnio coraz rzadziej, i nie ma się czemu dziwić, biorąc pod uwagę stale malejące ceny nagrywarek i „czystych” płyt CD. Dużą popularnością (również ze względu na cenę) cieszą się jednak zewnętrzne nagrywarki płyt CD firmy Philips i tu przegrywanie cyfrowe jest bardzo na miejscu. Wspomniałem już o komputerze i karcie dźwiękowej — to obecnie „serce” każdego studia zajmującego się masteringiem. Tu możliwości jest bardzo wiele, pamiętajmy tylko, żeby karta dźwiękowa miała wyjścia i wyjścia cyfrowe, i ta w takim standardzie jak nasz magnetofon czy MiniDisc. Komputer — oczywiście jak najszybszy, albo jeszcze szybszy, z dużym dyskiem — pamiętajmy, że jedna minuta stereofonicznego materiału w rozdzielczości 16 bitów to około 10 MB. Może to niewiele, ale jak zaczną się różne wersje i podwersje, to 4 GB może nie wystarczyć. Dobrze by było, gdyby nasz komputer był wyposażony w nagrywarkę płyt CD — oprócz tak oczywistej rzeczy jak płyty audio będziemy magli produkować również archiwalne płyty CD-ROM z plikami komputerowymi, aby zawsze móc wrócić do poprzedniego etapu pracy. Będziemy musieli stworzyć stanowisko odsłuchowe — najczęściej będzie to nasz domowy sprzęt hi-fi, ale może być też i końcówka mocy ze studyjnymi zestawami głośnikowymi. Najważniejsze, aby był to sprzęt znajomy, na którym słuchamy muzyki i wiemy, czego się po nim spodziewać. Najlepszym miejscem do sprawdzania nagrań ciągle jest jednak samochód — jeżeli coś jest nie tak, tam od razu to słychać. Trudno jednak w samochodzie zamontować komputer...
Najważniejszym elementem, bez którego nie będziemy mogli się obyć, jest oprogramowanie. W tym miejscu przypomnę, że oprogramowanie legalne jest duża lepsze od pirackiego, czyli ukradzionego. Pomijając aspekty etyczne (a przecież pracujemy w podobnej branży, czy nam byłoby miło, gdyby nasze nagrania sprzedawane byłyby w wersji pirackiej?) i prawne (bo to jest kradzież) codzienne używanie legalnego oprogramowania jest po prostu przyjemniejsze i prostsze. Mamy instrukcję obsługi i pewność, że ewentualne „zwisy” komputera będą rzadsze i z pewnością nie spowodowane działaniem „pirackiej” (czytaj kradzionej) wersji programu. Możemy korzystać z porad dystrybutora i producenta (lnternet!) i otrzymywać nowe, ulepszane lub po prostu lepiej działające wersje (znów lnternet). Kończąc apeluję, aby drugą część czytali tylko posiadacze legalnego oprogramowania - obiecuję, że nie będą to pieniądze zmarnowane. Poza tym, na rynku jest wiele plug-inów dostępnych w wersji freeware czy shareware, a ponadto masteringowy multiplug-in polskiego producenta, PSP Vintage Warmer jest naprawdę doskonały jakościowo i bardzo przystępny cenowo.

 

DLACZEGO MASTERING?

     Dlaczego nawet w przypadku amatorskich nagrań demo prowizoryczny mastering może sporo pomóc? Nawet jeżeli zgranie i mastering robi ten sam człowiek (choć lepiej, jeżeli jest to ktoś inny), w trakcie tych dwóch różnych czynności koncentruje się on na różnych rzeczach. W dodatku utwory pochodzić mogą z różnych studiów czy choćby z różnych dni, różnić się mogą aranżacją i użytymi instrumentami — po prostu mogą trochę do siebie nie pasować. W najprostszym przypadku stwierdzimy różną barwę i głośność poszczególnych utworów — a odbiorca, kimkolwiek by nie był, nie powinien być zmuszany do ciągłego kręcenia głośnością i barwą tonu. Tak więc naszym obowiązkiem jest zapewnienie choćby zbliżonej charakterystyki brzmienia i poziomu głośności wszystkich utworów. No tak — ale to przecież nie jest wielki problem. Kłopoty zaczynają się, gdy naszą płytę czy kasetę zamienimy na profesjonalne, studyjne nagranie i puścimy bez zmiany głośności czy barwy — wtedy rzadko uśmiech pozostaje na twarzy słuchacza-realizatora. Okazuje się, że „firmowe” nagrania nie dość, że są głośniejsze (często dużo głośniejsze), to w do datku są też i „bliższe”, a mimo to nie pozbawione głębi. Oczywiście, bardzo wiele zależy od aranżacji, muzyków, instrumentów, wykonania i realizacji nagrania w studiu, ale trochę też możemy poprawić masteringiem, nawet przy wykorzystaniu shareware'owego edytora i karty Sound Blaster.

 

BARWA

     Oryginalne nagrania, oprócz tego, że są głośniejsze, nawet po ustawieniu podobnej głośności brzmią lepiej. Jest to oczywiście kwestia aranżu i sprawnej realizacji, ale odpowiednio użyty equalizer czyli korektor barwy może sporo pomóc. Przede wszystkim należy znaleźć na granie najbardziej zbliżone do naszego, pod względem klimatu i użytych instrumentów (bardzo często będzie to po prostu nagranie naszego ulubionego zespołu, no którym wcale się nie wzorujemy, a już na pewno nie w tym utworze... Po dokładnym wysłuchaniu nagrań stwierdzimy z pewnością, że przede wszystkim proporcje i brzmienie poszczególnych instrumentów są zupełnie inne — i stąd wniosek, że takiego porównania należy dokonać dużo wcześniej, już podczas zgrania. Jeżeli jednak przypadkiem okaże się, że proporcje są dość podobne, mażemy próbować zbliżyć się do brzmienia „wzorca”. Bardzo pomocny w tym może być analizator widma (dostępny w wielu programach edycyjnych, lub jako oddzielny plug-in czy program), nie należy jednak demonizować jego znaczenia, bowiem na podstawie jedynie kolorowych „rysuneczków” nie da się uzyskać brzmienia ZZ Top — potrzeba czegoś więcej. Tylko wnikliwe słuchanie połączone z eksperymentowaniem może dostarczyć informacji o brakach naszego nagrania i niestety w takim artykule, jak ten nie można podać „magicznych” częstotliwości, po dodaniu lub odjęciu których utwór „zaczyna brzmieć”. Pewną wskazówką może być baczniejsze zwrócenie uwagi na środek pasma — konkretnie najpierw na częstotliwości z zakresu 1 — 4 kHz. Naturalną bowiem tendencją jest skupianie się na krańcach pasma, czyli krótko mówiąc dodawanie „dołu” i „góry” zgodnie z wieloletnią tradycją brzmienia typu „uśmiech dyskoteki” — niestety, takie działania najczęściej są bezskuteczne. Tymczasem to właśnie „górny środek” decyduje o zrozumiałości i bliskości nagrania, a często także o subiektywnej głośności. Z kolei częstotliwości z zakresu „niskiego środka” czyli rzędu 250 Hz potrafią skutecznie „zamulić” brzmienie. Warto więc „przyjrzeć” się i temu zakresowi. Bardzo ważną sprawą jest częste przełączanie nagrań — naszego i wzorcowego oraz głośników, na których odsłuchujemy. Nawet jeżeli są to przypadkowe zestawy, naczelną zasadą jest korzystanie z większej ilości systemów odsłuchowych, niż jeden. Czy będą to radia z budzikiem, stare radiomagnetofony, czy nowe wielodrożne zestawy — każdy z nich „powie” nam coś innego, z pewnością przekazując użyteczne informacje przykładowo o tym, że nie ma sensu męczyć się z basem, bo co byśmy nie zrobili, to... i tak charczy i po prostu trzeba cały „dół” wyrzucić lub przynajmniej sensownie podciąć. Nasze nagrania muszą bowiem brzmieć dobrze na każdym sprzęcie, a nie tylko na studyjnych monitorach — co więcej, akurat brzmienie na studyjnych monitorach jest najczęściej najmniej istotne. Wspomnijmy, że istnieją programy pozwalające na porównanie i automatyczne dopasowanie brzmienia jednego nagrania do drugiego (na przykład Steinberg FreeFilter), apeluję jednak o krytyczną ocenę efektów, łatwo bowiem o chwilowe zauroczenie, którego możemy potem żałować.

 

GŁOŚNOŚĆ

     No właśnie — przecież zaraz po wgraniu do komputera znormalizowaliśmy plik, tak więc nie może być nic głośniejszego! Tyle tylko, że jest. Oglądając w edytorze plik z naszym utworem i porównując go z „wzorcem” stwierdzimy, że ten nasz maksymalną głośność ma w jednym miejscu — na końcu po przejściu na kotłach jest to stopa z crashem „na raz”. Cała reszta jest dużo cichsza i w dodatku bardzo nierówna dynamicznie. Natomiast wzorzec wszystkie impulsy ma jednakowe i cały jest jakoś tak bardziej „nabity”. Co więc zrobić — zmienić perkusistę?
     Nie, bo po pierwsze trochę za późno o po drugie to nie jego wina (najczęściej, ale na kogoś trzeba zwalić całą winę). Oczywiście, świadomości nigdy za wiele porównanie również wzrokowe może być dla wszystkich muzyków bardzo pouczające, problem tylko w tym, że coś trzeba z tym zrobić. Jak widać, normalizacja niedaje spodziewanych rezultatów — tu potrzebny jest inny algorytm, mianowicie kompresora i limitera. Mówiąc prosto, dosadnie i niezbyt dokładnie, za głośność odpowiedzialny jest limiter, natomiast za „bliskość” kompresor )i trochę korektor). Ponieważ o korekcji barwy już mówiliśmy, następny w kolejności będzie kompresor. Kompresor jest urządzeniem, które zaczyna działać po przekroczeniu określonego poziomu sygnału i od tego poziomu zaczyna zmniejszać wzmocnienie czyli głośność. Na końcu łańcucha następuje oczywiście wzmocnienia całości mniej więcej tak, że głośne fragmenty mają podobną głośność, jak przed obróbką, dzięki czemu ciche fragmenty są... głośniejsze. Manipulując progiem zadziałania kompresora, szybkością nadążania za zmianami sygnału wejściowego i stopniem wpływu na sygnał wyjściowy możemy w dużym stopniu zmieniać nie tylko głośność, ale i brzmienie całego nagrania. Wydawać by się mogło, że jest to rozwiązanie idealne — wyrównana głośność całego nagrania to jest przecież to, o co nam chodził. Niestety, my możemy słuchać tylko stopy i basu lub „wokalu”, natomiast kompresor nie odróżni tych sygnałów od siebie i w rezultacie — najczęściej w zależności od czasów ataku i powrotu — uzyskamy znikomy wpływ na głośność lub bardzo nieprzyjemne „pompowanie” dźwięku. Okazuje się, że kompresor doskonale radzi sobie z po szczególnymi instrumentami na etapie zgrań, natomiast zastosowanie go do obróbki całego nagrania jest bardzo trudne wymaga cierpliwości doświadczenia. Najczęściej zresztą nie spełnia pokładanych w tym procesie nadziei (a i kompresor musi być niezły). Kluczem do roz wiązania tego typu problemów jest kompresja pasmowa lub wielopasmowa. W takiej obróbce pasmo dzielone jest na podzakresy (najczęściej trzy) każdy zakres obrabiany jest przez niezależny kompresor. Wtedy mimo mocnej kompresji stopa nie przycisza „wokalu” ani górnego pasma, a środek nie przycisza stopy — jedyny problem w tym, skąd wziąć „takie coś”. Na szczęście nie jest tak źle — na przykład w znanym programie SoundForge jest czteropasmowy kompresor, podobny dostępny jest w postaci plug-inu DirectX. Również firma Steinberg produkuje podobny plug-in. W ostateczności w pakiecie firmy Waves) jak ktoś nie ma, to niech kupi - warto!) kompresor ma możliwość pracy pasmowej i choć nie jest to to samo, często wystarcza. Warte rozważenia (choć niestety dość drogie) są propozycje sprzętowe, czyli klasyk — Finalizer firmy TC-Electronic czy nowy, niezwykle interesujący procesor potentata w dziedzinie procesorów dynamiki — dbx Quantum II. Tego typu procesory mogą być również stosowane jako wysokiej jakości przetworniki analogowo-cyfrowe cyfrowo-analogowe i to również w standardzie 24/96. Ich zakup, aczkolwiek łączący się z po ważnym wydatkiem, godny jest rozważenia.
Wracając na ziemię, jak mniej więcej ustawić taki wielopasmowy kompresor? Ponieważ wiele jest rozwiązań kompresorów i równie wiele utworów, które będziemy poddawać obróbce, najważniejsze będzie słuchanie i eksperymentowanie. Ponieważ najczęściej pasm nie można regulować (jeżeli można, to bezpieczniej jest ustawić je na początek mniej więcej równo), ogólne wskazówki mogą dotyczyć stopnia kompresji ) w zasadzie nie powinniśmy tłumić poszczególnych pasm więcej niż 6 dB przy umiarkowanym nachyleniu do 4:1, chyba, że ktoś musi, czasów ataku i powrotu. W tym przypadku wiele zależy od rodzaju materiału muzycznego i rezultatu brzmieniowego, który chcemy osiągnąć. Krótkie czasy ataku i powrotu powodują, że kompresja staje się bardziej słyszalna (ale i efektywniejsza). Kompresor zaczyna też wówczas bardziej wpływać na proporcje poszczególnych instrumentów. Bardziej „muzyczne” są umiarkowane czasy ataku powrotu, po przekroczeniu jednak pewnej wartości kompresor przestaje reagować na impulsy (czyli stopę) i słyszalne może się stać „pompowanie”. Czasem możemy regulować poziom wyjściowy każdego pasma oddzielnie — wtedy możemy dodatkowo wpływać na barwę, jak equalizerem. Naczelną zasadą jest słuchanie i częste używanie przycisku „bypass”, aby nie oderwać się od rzeczywistości, ponieważ bardzo łatwo jest przesadzić z kompresją i choć co prawda zachowujemy przejściowe pliki (lub przynajmniej oryginały) na dysku, to niepotrzebnie stracimy czas. Jeżeli nie mamy kompresora pasmowego, nie rozpaczajmy — profesjonalne studia masteringowe na Zachodzie zdecydowanie nie polecają takich urządzeń (czy ich nie używają, to inna sprawa). Zwykły kompresor też może być. Każdy program edycyjny (nawet shareware'owy CoolEdit) ma taki algorytm i warto spróbować, jak działa. Oczywiście efekty będą (a przynajmniej powinny być) bardziej subtelne niż w przypadku kompresora pasmowego, ale z pewnością możemy się spodziewać wyrównania głośności I niewielkiego ograniczenia impulsów. Nachylenie powinno być małe, najlepiej zacząć od 2:1. Kompresować też będziemy raczej mało, w najgłośniejszych momentach może 2-3dB. Aby uniknąć „pompowania”, czasy ataku i powrotu powinny być raczej dłuższe. No dobrze — po długich próbach mamy jako tako brzmiący utwór, „bliski” i „mięsisty”, ale ciągle, nawet po normalizacji, jest on cichszy od „wzorca” Jakoś te impulsy nadal nie są równej „wysokości”, a o poziomie całości decyduje jeden niesłyszalny „pik”. Znaczy to, że pora na...

 

LIMITER

      Limiter jest to, jak zapewne niektórzy już wiedzą, rodzaj kompresora o nieskończenie wielkim nachyleniu. Oznacza to, że limiter przez większą część utworu nic nie robi, wkraczając do akcji w tych niewielu momentach, w których sygnał przekracza pewien dość wysoki próg i po prostu nie pozwala go przekroczyć — a potem całość możemy spokojnie zgłośnić, ponieważ mamy pewność, że powyżej progu nic nie przejdzie. Jeżeli nie mamy limitera, to możemy spróbować zmniejszyć szczyty „ręcznie” — szukamy maksimum, zaznaczamy cały okres (dokładnie!) i zmniejszamy poziom o, powiedzmy, 6dB. Potem znów szukamy maksimum, zaznaczamy... i tak jakieś 600 razy. Może trochę długo, ale efekt gwarantowany — nie żartuję, utwór dwa razy głośniejszy bez jakiejkolwiek zmiany brzmienia! W praktyce duża przyjemniej uciec się do gorzej brzmiących, ale szybszych metod, jakimi dysponują programy edycyjne.
     Niestety, zwykły limiter (nawet ten programowy) również ma regulowane czasy ataku i powrotu i problem w tym, że mogą, powinny one być bardzo małe, a czas ataku nawet... ujemny. Nie ma sprawy, w komputerze jest to możliwe — limiter może „wiedzieć”, co będzie za chwilę I już wcześniej rozpocząć zmianę wzmocnienia — w ten sposób jego działanie będzie praktycznie niesłyszalne. Tu nie mamy wyboru — limiter L2 firmy Waves to jest to, czego potrzebujemy I za sam ten produkt należy się tej izraelskiej firmie pomnik (a inne produkty są również rewelacyjne). Przy pomocy tego plug-inu (dostępnego na dowolną platformę sprzętowo-programową) każdy utwór możemy dowolnie zgłośnić praktycznie bez zmiany brzmienia — to robią do słownie wszyscy, na całym świecie. Co jednak robić, gdy nie mamy L2? Kupić! Albo.., użyć czegoś innego. Zwykły limiter (czy kompresor o nieskończonym nachyleniu) pozwala zniwelować „piki” w sygnale, ale na skutek skończone go czasu ataku nawet przy minimalnym możliwym ustawieniu (i również w miarę krótkim czasie powrotu) coś tam jednak się przedostanie ponad próg — i na to praktycznie nie ma rady. Musimy pozbyć się tych „przerzutów”, a można to zrobić albo ręcznie w sposób opisany powyżej (metoda bardzo dobra) albo szybko i brutalnie (metoda w praktyce niewiele gorsza). Ten brutalny sposób to zwykłe zwiększenie głośności pliku (funkcja GAIN) o parę decybeli. Tak, w znormalizowanym pliku impulsy po prostu ulegną obcięciu i otrzymamy straszliwe zniekształcenia! Straszliwe — może, ale czy na pewno słyszalne? Proponuję samemu spróbować (pamiętając o kopii, tak na wypadek gdybym jednak się mylił), efekty mogą być ciekawe. Po takiej operacji dobrze jest obniżyć poziom o 1dB, plik będzie wyglądał bardziej „profesjonalnie”, jakby poddany skomplikowanej obróbce. Ten sposób nadaje się oczywiście wyłącznie do „masteringu” domowego i nie polecam go w każdej sytuacji, ale... spróbować warto.
Bardziej eleganckim rozwiązaniem jest za stosowanie dostępnej w niektórych edytorach normalizacji RMS lub „średniej”, która od zwykłej różni się tym, że daje głośniejsze nagranie. Jak? Nie bierze pod uwagę krótkich impulsów i obcina je lub ogranicza — efekt dobry, choć nie tak dobry jak w przypadku dobrego limitera ujemnym czasem ataku.
     Po takiej obróbce możemy nasze utwory przegrać na płytę CD lub kasetę i... nie wstydzić się brzmienia (taką mam przynajmniej nadzieję).

 

WGRANIE MATERIAŁU DO KOMPUTERA

     Przed obróbką materiał muzyczny musi znaleźć się na dysku twardym komputera w postaci pliku dźwiękowego. Częstotliwość próbkowania powinna wynosić 44.1 kHz — ze względu na prawdopodobny nośnik wyjściowy, jakim będzie płyta CD. Rozdzielczość bitowa powinna wynosić 24 bity (jeżeli oczywiście jest taka możliwość). Nawet, jeżeli efektem ma być płyta CD o rozdzielczości — jak wiadomo — 16 bitów i źródłem dźwięku jest na przykład magnetofon DAT czy MiniDisc, również o rozdzielczości 16 bitów, zastosowanie plików o większej rozdzielczości może przynieść duże korzyści. Pamiętajmy bo wiem, że będziemy dokonywać pewnej ilości operacji na naszych plikach (produkując po drodze setki megabajtów danych, ale to zupełnie inny problem), a każda z tych operacji przeprowadzona na pliku 24-bitowym brzmieć będzie lepiej, choćby z powodu większej dokładności obliczeń i braku konieczności ciągłego pilnowania pozi...

Zgłoś jeśli naruszono regulamin