Edycja dźwięku to narzędzie, które przenosi dźwięk projektu z etapu produkcji do etapu postprodukcji. Główna różnica między edycją dźwięku a miksowaniem dźwięku polega na tym, że edycja skupia się na produkcji, podczas gdy miksowanie zajmuje edytowany produkt i udoskonala go podczas postprodukcji.
Większość edycji dźwięku ma miejsce podczas produkcji. Obejmuje to wszystkie etapy produkcji, od kręcenia i nagrywania na planie po efekty dźwiękowe, foley i ADR. Każdy proces generujący nową zawartość audio wymaga edycji, zanim będzie gotowy do użycia w postprodukcji, dlatego jest traktowany jako edycja. Porównanie tego procesu z produkcją żywności sprawia, że edycja dźwięku jest zbieraniem świeżego materiału dźwiękowego. Nagrania są przycinane do rozmiaru, czyszczone i wysyłane do dalszego montażu i pakowania.
Miksowanie dźwięku łączy te surowe elementy, tworząc spójny, samowystarczalny świat złożony z dialogów, kroków, efektów i muzyki. W ramach poprzedniej analogii jest to sztuka gotowania, puszkowania i pakowania.
Edycja dźwięku
Na pierwszy rzut oka edycja i miksowanie wydają się dość podobne, ponieważ w obu procesach używane są te same ogólne narzędzia. Biorąc to pod uwagę, dają one znacząco różne wyniki. Podział obowiązków między edycją a miksowaniem jest nieco bardziej zniuansowany niż jednoznaczny wybór, kiedy zamiast tego użyć Adobe Premiere w porównaniu z After Effects.
Narzędzia – mniej znaczy więcej
Fazę produkcji łatwo postrzegać jako skupioną na ujęciach, podczas gdy w rzeczywistości produkcja obejmuje całą generację treści. Dla wydziału dźwięku montaż jest równoznaczny z nagraniem sceny dźwiękowej, ADR, foley, efektami i muzyką. Ta treść jest edytowana i dodawana do puli plików projektu.
Edycja dźwięku nadal korzysta z tego samego tradycyjnego zestawu narzędzi z czasów, gdy taśma była nadal preferowanym medium. W tamtych czasach montaż obejmował wycinanie, sklejanie i łączenie ujęć i scen. Tworzenie zanikania między dwoma częściami oznaczało przecięcie dwóch kawałków taśmy pod kątem i sklejenie ich ze sobą. To jest początek narzędzi do cięcia, klejenia i zanikania w kształcie brzytwy, które można znaleźć we współczesnych cyfrowych stacjach roboczych audio (DAW).
Celem administracyjnym dzisiejszej edycji jest zgromadzenie wszystkich zatwierdzonych ujęć w nowym projekcie i umieszczenie ich w pliku proxy wideo. Wczesne etapy edycji dźwięku obejmują wiele wycinania i usuwania w celu oczyszczenia projektu.
Cyfryzacja sprawiła, że edycja stała się bardziej wizualna, głównie dzięki wprowadzeniu przebiegów. Nie ma absolutnie nic złego w używaniu wizualnych wskazówek. Jednak nadmierne poleganie na kształtach fal i brak słuchania spowoduje nagłe cięcia, niezręczne pomiary i zakłócone oddechy między słowami. Na przykład nie polegaj tylko na używaniu funkcji wyciszania paska Pro Tools w agresywnym otoczeniu. Na szczęście większość edycji oprogramowania jest nieszkodliwa, a obszary cięcia można rozszerzyć.
Czas
Edycja to coś więcej niż usuwanie szumów tła. Dobre wyczucie rytmu, wyczucia czasu i estetyki odgrywają dużą rolę w tworzeniu przekonujących cięć, przejść i edycji. W przypadku edycji taśmy fizyczna mechanika procesu oznacza, że nie ma zbyt wiele miejsca na odłożenie zanikania na później. Łączenie dwóch odcinków taśmy daje tylko dwie opcje:cięcie i blaknięcie. Kąt i kierunek zanikania można zmienić, aby zanikać lub zanikać z różnymi prędkościami, ale ostatecznie to wszystko są zanikaniem.
Zmieniło się to, że prace edycyjne nie muszą już być wczytywane na początku. Ten postęp w przepływie pracy pozwala inżynierowi na podejmowanie pewnych decyzji dotyczących edycji i miksowania.
Zabrudzenie rąk
Świat edycji jest piaskownicą i należy go tak traktować. Kiedy pojawia się okazja, aby spróbować czegoś nowego, zachęcamy do podjęcia wysiłku, aby to wypróbować. John Roesch, zawodowy artysta foley, który pracował nad filmem „Indiana Jones i poszukiwacze zaginionej arki”, twierdził, że nie można odróżnić dobrego foleya od rzeczywistości. Prawie wszystkie efekty dźwiękowe w „Raiders” były foley, a większość dźwięku nagranego na planie była pełna szumu z maszyn efektów i sekwencji.
Foley jest absolutnie warty zaangażowania, a tworzenie kolekcji rekwizytów tylko pomaga poprawić twoje umiejętności Foleya. To samo dotyczy dźwięku znalezionego i wychwytywania nowych dźwięków w miarę ich pojawiania się; posiadanie przenośnego dyktafonu nigdy nie boli.
Miksowanie dźwięku
Miksowanie dźwięku skupia się na dopracowywaniu świeżo zredagowanych utworów i pracy nad osiągnięciem punktu końcowego. W przypadku pracy w zespole wskazówki mogą pochodzić od Ciebie lub innych osób. Ten etap w dużym stopniu korzysta z planu produkcji i miejsca docelowego. Miksowanie dźwięku na potrzeby tego artykułu konsoliduje pracę projektanta dźwięku i inżyniera miksowania, wcześniej znanych jako „ludzi dźwięku”.
Narzędzia handlu
Etap edycji wykorzystuje skromniejszy zestaw narzędzi w porównaniu ze znacznie bogatszym podejściem do miksowania dźwięku. Digitalizacja narzędzi nie kończy się na etapie edycji. Wszystkie zewnętrzne urządzenia używane obecnie w produkcji audio mają swoje cyfrowe odpowiedniki. To samo można powiedzieć o samplowanych instrumentach. W dzisiejszych czasach jest tak wiele przypadków, w których ludzie nie mrugną powiekami, słysząc sekcję strun w pudełku, całkiem możliwe, że szczelina stała się wystarczająco wąska.
Typowymi narzędziami w łańcuchu przetwarzania sygnału są:EQ, kompresory, limitery, bramki szumów, pogłos, opóźnienie, chorus, flanger i phaser. Automatyzacja to ostatni element, który łączy wszystko razem i ustala wszystkie zmiany w kamieniu.
W praktyce
Miksowanie to coś więcej niż ćwiczenie równoważenia poziomów, przycinania korektora i dodawania efektów. Wymaga wyobraźni, intencji, cierpliwości i dobrego ucha. Decyzje mają cel i jeśli wystarczająco mocno zezujesz, użyj dobrej teorii.
Korektory służą do rzeźbienia dźwięków i wydobywania klarowności. Dlatego wycinamy rezonans na dole partii wokalnych i podbijamy średnicę. Opóźnienia i pogłosy są równie zdolne do tworzenia nastroju, atmosfery lub wręcz hipnotycznych sekwencji. Kompresory mogą dać mocny dźwięk lub zapewnić spójność dialogom.
Praca jest wykonywana w kawałkach i sekcjach, nawet podczas pracy w pojedynkę. Nie próbuj podnosić wszystkiego na raz. Kompletne sekcje są znacznie łatwiejsze w zarządzaniu jako wyeksportowane łodygi lub grupy – więcej o tym później. Przyznane, że dzisiejsze limity ścieżek wzrosły, Pro Tools obsługują maksymalnie 768 ścieżek, a Logic Pro oferuje na północ od 1000. Grupy ułatwiają życie i utrzymują porządek w projekcie, co znacznie ułatwia automatyzację. Automatyzacja jest podobna do skryptowania w tym sensie, że typowo automatyzuje się każde ręczne zadanie wykonywane więcej niż kilka razy.
Chwile z historii
Nadchodzi moment, w którym zdajesz sobie sprawę, że niektórzy projektanci dźwięku i montażyści odegrali bardzo szczególną rolę w niektórych twoich ulubionych programach i filmach. Ich produkcje podniosły poprzeczkę na nowe wyżyny i dały nowe wspomnienia niezliczonej rzeszy widzów.
Filmy te mają już dziesiątki lat i nadal mają wspólny wątek z dzisiejszymi hitowymi produkcjami. To tak, jakby cofnąć się w czasie i zobaczyć pierwsze zastosowania narzędzi i metod uważanych dziś za standardową praktykę. Tak, dzisiejsze filmy są głośniejsze i odważniejsze, ale korzenie pozostają te same.
Chłopcy z San Francisco
Ben Burtt i Richard L. Anderson ukończyli szkołę filmową USC w 1975 roku i pracowali razem przy pierwszych filmach „Gwiezdne wojny” i Indiana Jones. Obaj mają niesamowicie udane kariery w branży i podzielili się Oscarem za pracę nad „Poszukiwaczami zaginionej arki”.
Obaj byli częścią grupy dwóch tuzinów młodych montażystów dźwięku, dubbingowanych przez Franka Warnera, znanego jako San Francisco Boys. Połączenie świeżych talentów i wizjonerskich reżyserów, takich jak Francis Ford Coppola i George Lucas, pomogło wznieść to medium na nowe wyżyny. To dbałość reżyserów o dźwięk umożliwiła i napędzała to nowe pokolenie projektantów dźwięku i montażystów.
Projekt dźwięku do „Czasu Apokalipsy” jest dziełem projektanta dźwięku Waltera Murcha, innego absolwenta USC, który studiował u George'a Lucasa. Efekty obejmowały nagrania dział strzelających ostrą amunicją, helikopterów i eksplozji.
„Poszukiwacze zaginionej arki” wciąż wydają się bardziej nowoczesne niż jego wiek i nie są osamotnieni. Lata otaczające 1981 rok przyniosły wiele filmów przesuwających granice dźwięku i wideo. „Gwiezdne wojny”, „Czas apokalipsy” i „Poszukiwacze zaginionej arki” pojawiły się na przestrzeni czterech lat. Zakwestionowali pretekst tego, co było możliwe, i zainspirowali pokolenia filmowców i montażystów.
Uczenie się od najlepszych
Korzystanie z nagrywania wielościeżkowego w rytmie 24 lub więcej ścieżek, czasami łączącego ze sobą wiele magnetofonów, stało się koniecznością. Wczesne etapy wykorzystują większą liczbę utworów, chociaż te liczby spadają, gdy więcej sekcji jest mieszanych i dzielonych na grupy. Burtt omówił potrzebę oddzielnego kontrolowania poziomów instrumentów dętych blaszanych i drewnianych, robiąc to z grupami ścieżek, aby nie stracić elementów muzycznych wewnątrz efektów dźwiękowych. Dziś jest to zarówno normalne, jak i konieczne, ponieważ ścieżki mają być miksowane i odbijane w miejscu jako łodygi. Tory mogą być również wysyłane do autobusów i zarządzane w ten sposób.
Pasja i uwaga, które to przyniosło, były niesamowicie pozytywne. Imponujący dźwięk znaleziony w tych filmach był możliwy dzięki rzemiosłu, które ludzie tacy jak Burtt pomogli stworzyć, które wciąż żyje i ma się dobrze.
Referencje
- Złote uszy filmów
- https://www.washingtonpost.com/archive/lifestyle/1984/07/03/the-movies-golden-ears/fd0a2636-86e6-498c-810b-52e3657c92d9/
- Poszukiwacze Zaginionej Arki udźwiękawiają wywiady z Benem Burttem i Joe Roeschem
- https://youtu.be/WYuxYkL_AHM
- Indiana Jones Sound Design Featurete part1
- https://www.youtube.com/watch?v=YWDSFihqyH8