Kwestia starzenia się i odmładzania na ekranie zawsze była wyzwaniem dla reżyserów. W końcu kręcenie filmów polega na przenoszeniu historii na ekran, a kiedy twoja historia toczy się przez długi czas, na przykład od dzieciństwa do starości, jednym z największych wyzwań jest realistyczne pokazanie starzejącego się aktora.
Wielu reżyserów przez lata próbowało różnych metod rozwiązania tego problemu, a w tym poście omówimy niektóre z nich. Od początków kina, kiedy używali makijażu, aż po zmianę aktorów na motion capture, a ostatnio o technologii przechwytywania światła, którą Martin Scorsese wykorzystał w swoim epopei kryminalnej The Irishman z 2019 roku, będziemy rozmawiać o historii starzenia się i odmładzanie na dużym ekranie.
Na koniec porozmawiamy o tym, jak możesz stworzyć własny efekt odmładzający za pomocą FaceApp, EBsynth i After Effects, tak jak zrobiliśmy to w naszej najnowszej reklamie.
Oto jedno z miejsc:
Cofnijmy się teraz w czasie.
Technika Karla Strussa
Kluczową postacią w tej dziedzinie we wczesnych dniach kina był amerykański fotograf, który został operatorem Karl Struss. Podczas kręcenia niemej epopei przygodowej „Ben Hur:Opowieść o Chrystusie” z 1925 r. Struss opracował technikę ukazywania przemiany twarzy na filmie. Nałożył czerwony makijaż, aby stworzyć rany na postaciach i użył czerwonego filtra w aparacie, aby zniknąć.
Przenosząc swoją technikę na wyższy poziom w 1931 r. Dr. Jekyll i Mr. Hyde, Struss zastosował czerwono-zielony makijaż na twarzy Doktora i użył czerwonych i zielonych filtrów, aby pokazać efekt transformacji. Problem z tą techniką polega na tym, że ma ona zastosowanie tylko w filmach czarno-białych, gdzie można ukryć kolor makijażu.
Możesz zobaczyć kolejny doskonały przykład techniki Karla Strussa w komedii-misterium Sh! z 1937 roku. Ośmiornica.
Odmładzanie CGI
Szybko do przodu do X-Men:The Last Stand z 2006 roku, w którym zastosowano pierwszy efekt CGI odmładzający. Pierwsza scena filmu przedstawia młodszego o 20 lat profesora X i Magneto, którzy jako dziecko odwiedzają Jean Grey. Aby usunąć starzenie się Patricka Stewarta i Iana McKellena, eksperci od efektów wizualnych wykorzystali słynny program komputerowy Lola VFX do stworzenia procedury 2D podobnej do Photoshopa na zdjęciach swoich młodszych postaci.
Technologia była jeszcze w powijakach i to się pokazało.
Benjamin Button i ograniczenia przechwytywania ruchu
Kolejny przełom w wizualizacji komputerowej nastąpił w nagrodzonym Oscarem filmie „Ciekawy przypadek Benjamina Buttona” Davida Finchera z 2008 roku. Fabuła opowiada o tytułowym bohaterze, granym przez Brada Pitta, który cierpi na stan, w którym rodzi się jako starzec i jego ciało starzeje się, gdy się starzeje.
W pierwszej godzinie filmu pojawia się tylko wygenerowany komputerowo Brad Pitt od szyi w górę, przyczepiony do ciała różnych aktorów, którzy nosili niebieskie kaptury (o tym później). Nie użyto makijażu ani nałożonej fotografii.
Zespół VFX w Digital Domain stanął przed trzema głównymi wyzwaniami:jednym było sprawienie, by Brad Pitt wyglądał na starszego; drugim było pokazanie wszystkich drobnych subtelności i szczególnych rysów jego twarzy, a trzecim ułożenie plam na jego twarzy w każdych warunkach, typach ujęć i wyrazie, niezależnie od tego, czy jest w biały dzień, w nocy, przy świetle świec, czy mówi, biega, płacze… cokolwiek.
Aby rozwiązać problem digitalizacji twarzy Brada Pitta, Digital Domain oparł swój proces na Facial Action Coding System (FACS) dr. stworzyć nieskończone możliwości wszystkiego, do czego jest zdolna ludzka twarz.
Mova kontur
Zespół wykorzystał przełomowy system kamer Mova Contour, który jest zbudowany jako szczelne pomieszczenie z dwoma zsynchronizowanymi szeregami kamer, które jednocześnie rejestrują wygląd i kształt twarzy za pomocą fluorescencyjnego makijażu zamiast markerów przechwytywania ruchu.
Siedzi w konturze Mova. Brad Pitt przeanalizował wszystkie pozy Ekmana, dając Digital Domain bazę danych 3D zawierającą wszystko, co potrafiła jego twarz.
Aby stworzyć twarz Brada w różnym wieku, zespół wykorzystał makiety wykonane przez hiperrealistycznego rzeźbiarza Kazu Hiro, które zeskanowali w bardzo wysokiej rozdzielczości i ogromnej liczbie wielokątów. To dało im trzy poziomy wiekowe skomputeryzowanego Benjamina i „przekierowali” dane, które posiadali ze wszystkich póz, które 44-letni Brad zrobił z trzema popiersiami Brada.
Przez pierwszą godzinę filmu kręcili sceny z aktorami, którzy mieli na sobie niebieskie kaptury i markery śledzące na głowach, aby odtworzyć ruch kamery optyki obiektywu z planu.
Brad został następnie przeniesiony na scenę dźwiękową, oglądał sceny w kółko, aby zanurzyć się w filmie i działał zgodnie z obrazami, które widział.
Następnym etapem był proces zwany analizą obrazu, który polega na przeniesieniu danych, które posiadali na 87-letniego Bena, a następnie dopasowaniu ich do materiału z występu Brada w akcji na żywo.
Aby sprostać wyzwaniu oświetleniowemu, zbudowali system oświetleniowy, w którym oświetlenie twarzy Brada pasowało do oświetlenia każdego miejsca, w którym pojawił się Benjamin.
Poziom szczegółowości produkcji Benjamina Buttona był naprawdę zdumiewający, a zespół został nagrodzony 3 Oscarami za kierownictwo artystyczne, makijaż i efekty wizualne.
Bliźnięta
Szczyt technologii przechwytywania ruchu prawdopodobnie nastąpił w 2018 r., gdy Gemini Man Anga Lee z Willem Smithem w roli głównej. W filmie stworzyli 23-letnią młodszą wersję Smitha, używając miksu jego nagrań z jego Fresh Prince i Men in Black days. Podobnie jak w przypadku Benjamina Buttona, zespół VFX przygotował bazę danych z wyrazami twarzy Willa Smitha, które nakręcili w zaciemnionym pokoju z dwoma szeregami kamer.
Poprosili również Smitha, aby grał samego siebie na planie w świecie rzeczywistym, a 6 miesięcy później kazał mu grać swoje młodsze ja na scenie przechwytywania ruchu. Produkcja tego filmu pokazała również, że przy całym swoim wyrafinowaniu motion capture wciąż ma ograniczone możliwości uchwycenia pełnej głębi i bogactwa ludzkich zachowań. Dlatego animatorzy studiowali wyraz twarzy Smitha klatka po klatce, bicie za biciem i przenieśli je ręcznie do Willa Juniora.
Odmładzanie na podstawie światła i tekstury
Najnowszy przełom w dziedzinie odmładzania pochodzi z nieoczekiwanego źródła. Gdyby zapytać ludzi, co przychodzi im na myśl, gdy słyszą nazwisko Martin Scorsese, nikt nie powiedziałby o efektach wizualnych, a w innych okolicznościach dyrektor Taxi Driver i Goodfellas prawdopodobnie nie stałby się katalizatorem, który doprowadził do tej technologicznej innowacji.
Legendarny reżyser od dawna marzył o nakręceniu Irlandczyka, gangsterskiej epopei, która opowiada historie mordercy Franka Sheerana, lidera kierowców Jimmy'ego Hoffy i szefa przestępczości Philly Russella Bufalino przez ponad 51 lat, z Robertem De Niro, Al Pacino i Joe w rolach głównych. Pesci, odpowiednio.
Kiedy projekt w końcu dostał zielone światło, jego trio aktorów było zbyt stare, aby zagrać młodsze wersje swoich postaci. Z istniejącymi technologiami. Scorsese stanął przed dwiema możliwościami:albo użyć różnych aktorów w filmie, albo użyć markerów do przechwytywania ruchu na twarzach aktorów.
Sprzeciwiając się jednej z opcji, Scorsese zwrócił się do kierownika ds. efektów wizualnych Pabla Helmana, z którym w tym czasie pracował nad Silence, który obiecał osiągnąć efekt odmładzania bez używania „piłek golfowych” na twarzach aktorów.
strumień
Aby zbudować najdokładniejsze komputerowe modele 3D aktorów, zespół ILM VFX zbudował specjalną kamerę, nazywaną Trójgłowym Potworem, która miała dwie mini kamery świadków ARRI po bokach głównej kamery produkcyjnej RED Helium. Te dwie boczne kamery zostały wyposażone w filtry podczerwieni, aby uzyskać równomiernie oświetlony obraz twarzy.
Przejrzeli mimikę FACS na lekkiej scenie i wykorzystali system o nazwie „Medusa”, aby wygenerować różne modele twarzy, które mogą przechodzić od jednego wyrazu twarzy do drugiego.
Wielkim przełomem było oprogramowanie Flux, które zamiast animacji analizuje każdą scenę na podstawie światła i tekstury oraz tworzy model 3D twarzy aktora.
System Flux następnie przekierowałby młodszy model do głowy współczesnego aktora przy użyciu tej samej technologii światła i tekstur.
Aby uzyskać najbardziej wiarygodne twarze, zbudowano wyszukiwarkę twarzy opartą na sztucznej inteligencji, z tysięcy zrzutów ekranu aktorów z ich filmów na wszystkich etapach ich wybitnych karier. Ta baza danych służyła jako wizualne odniesienie, aby zobaczyć, jak autentyczny był model stworzony przez Flux.
Zespół VFX w ILM został nominowany do Oscara
Efekt starzenia się przy użyciu FaceApp
Teraz zobaczymy, jak możesz stworzyć efekt starzenia i odmładzania bez wydawania milionów dolarów i osiągania imponujących rezultatów.
Jak wspomniano, w naszej najnowszej reklamie wykorzystaliśmy technologię FaceApp, która, jeśli nie zwracałeś uwagi, jest aplikacją do edycji zdjęć (i wkrótce wideo), która może sprawić, że będziesz wyglądać starzej, młodziej, zmienić płeć i robić więcej zabawy rzeczy. Aby zakończyć transformację naszych aktorów, zmieniliśmy przeznaczenie narzędzia zaprojektowanego do przekształcania obrazów w animacje wideo, o nazwie EBsynth i uzupełniliśmy je za pomocą After Effects.
Jeśli chcesz dowiedzieć się więcej o produkcji tej reklamy, obejrzyj nasz film zza kulis.
Samouczek tworzenia efektu starzenia
Przejdźmy teraz do efektu starzenia. Przepływ pracy obejmował wybór kadru z naszego oryginalnego materiału filmowego i użycie FaceApp, aby uczynić naszego aktora starszym. Następnie przenieśliśmy tę pojedynczą klatkę do EBsynth i użyliśmy jej jako klatki odniesienia dla wszystkich innych klatek w naszym filmie. EBsynth automatycznie dopasowuje i pozycjonuje efekt w każdej klatce indywidualnie i zapewnia pełną sekwencję, w której stosowany jest efekt starzenia.
Podzielmy ten proces jeszcze bardziej. Musisz otworzyć After Effects i zaimportować swoje nagranie. Następnie musisz utworzyć nową kompilację z tego materiału i wyeksportować ją jako sekwencję plików JPEG. Upewnij się, że wszystko jest uporządkowane, tworząc różne foldery dla swojego materiału filmowego i uruchamiając renderowanie.
To, co masz teraz, to materiał wyeksportowany jako pojedyncze klatki JPEG. Wybierz jedną ramkę – najlepiej taką, która zawiera najwięcej szczegółów twarzy fotografowanej osoby – i pobierz ją na swój telefon. Otwórz go za pomocą FaceApp i zastosuj filtr starzenia (lub dowolny inny efekt, jaki mają). Chociaż filtr starzenia FaceApp jest imponujący, technologia (nadal) działa tylko na zdjęciach, więc masz tylko jedną klatkę swojego filmu, w której temat jest starszy.
Zapisz to zdjęcie w telefonie i przenieś je z powrotem na komputer, a jeśli chcesz, dostosuj lub popraw efekt starzenia się w Photoshopie.
EBSynth
Nazwij ten obraz taką samą nazwą jak oryginalna ramka i otwórz EBsynth. Kliknij Wybierz i wybierz pierwszą klatkę sekwencji JPEG.
EBsynth automatycznie rozpozna katalog projektu. Teraz musisz zaimportować klatkę kluczową – czyli zdjęcie osoby w podeszłym wieku utworzone za pomocą Faceapp – kliknij zaznacz i wybierz tę klatkę.
Teraz musisz powiedzieć EBsynth, gdzie efekt powinien się zaczynać i kończyć zgodnie z numerami klatek naszej sekwencji. Wprowadź po lewej stronie numer pierwszej klatki kluczowej, w której występuje efekt, a po prawej numer ostatniej klatki. W środku wpisz numer ramki, którego użyłeś w FaceApp. Aby uzyskać gładszy efekt, kliknij „Zaawansowane” i wprowadź wartość około 1,5 w sekcji Usuwanie migotania.
Następnie kliknij wybierz i wybierz folder, do którego chcesz wyeksportować efekt. Kliknij „Uruchom wszystko” i pozwól oprogramowaniu działać magicznie. Weź pod uwagę, że może to zająć trochę czasu.
Po zakończeniu zaimportuj nową sekwencję do programu After Effects i dopasuj oryginalny materiał do nowego materiału. Po prostu animuj przezroczystość materiału i gotowe.
Oto kilka wskazówek dla profesjonalistów, które pomogą Ci uzyskać jeszcze lepsze wyniki. Zamaskuj oczy i usta, które są obszarami, z którymi oprogramowanie czasami ma problemy, i dodaj ostrość i ziarno, aby jeszcze bardziej połączyć efekt z oryginalnym materiałem filmowym. Aby uzyskać płynniejsze przejście, utwórz przejście Luma Key, korzystając z efektu poziomów w „Animate It”.
Alternatywnie możesz użyć nowo uruchomionej funkcji efektów wideo FaceApp.
To jest okład
Jak w przypadku każdej nowej przełomowej technologii, odstarzanie się przedstawia pewne dylematy filozoficzne i moralne, ale są one poza tematem tego postu. Mam nadzieję, że znalazłeś przydatne informacje i wskazówki do swojego następnego projektu wideo. Zachowaj kreatywność do następnego razu!