Podczas niedawnej imprezy poświęconej zapowiedziom produktów w Nowym Jorku, Google zaprezentował garść nowego sprzętu. Ale firma poświęciła dużo czasu – i prawdopodobnie pieniądze wydane na zatrudnienie kultowej fotografki portretowej Annie Leibovitz – pokazując nowy aparat smartfona Pixel 4. Ten nacisk ma sens. Konsumenci wciąż wskazują, że jakość zdjęć jest jednym z najważniejszych czynników, z których korzystają przy wyborze nowego urządzenia. A Google wychodzi z bardzo mocnego pokazu w Pixel 3, który był (przynajmniej w tamtym czasie) absolutnie najlepszym aparatem do smartfonów.
Pixel 4 dodaje trochę więcej inteligentnych rozwiązań opartych na sztucznej inteligencji, w coraz większym stopniu polegając na swoim oprogramowaniu w celu określenia ogólnego wyglądu końcowego obrazu. I chociaż aparat ma kilka momentów, w których jest naprawdę doskonały, napotkałem kilka problemów, gdy Google próbuje obliczyć drogę do doskonałych zdjęć.
Co nowego?
Na papierze aparat Pixela 4 nie różni się zbytnio od sprzęt, który był wcześniej. Podstawowym wyjątkiem jest godny uwagi dodatek teleobiektywu, który Google zamierza poprawić, szczególnie w przypadku zoomu i trybu portretowego. Konkurencja w strzelance jest jednak w tym roku twardsza:wydaje się, że Apple poprawiło niektóre nadgorliwe technologie HDR, które sprawiały, że zdjęcia iPhone’a XS czasami wyglądały nierealistycznie i nienaturalnie, a firma z Cupertino obiecuje jeszcze bardziej ulepszyć i tak już bardzo - dobry aparat, gdy jego technologia Deep Fusion poprawiająca szczegóły pojawi się w następnej aktualizacji iOS.
Jakość obrazu
Google nie uderza w fotografię obliczeniową, która opiera się więcej na mocy obliczeniowej i algorytmach niż czysta wydajność sprzętowa. Firma wyjaśnia, że magia oprogramowania, która ma miejsce podczas i po naciśnięciu spustu migawki, stała się niezwykle ważna w określaniu wyglądu końcowego obrazu.
Jak prawie każdy aparat w smartfonie w tym momencie naciśnięcie migawki nie powoduje po prostu jednego zdjęcia. Zamiast tego przechwytuje serię i łączy informacje z tych obrazów w jeden gotowy plik. Ta technologia „inteligentnego HDR” robi wiele dobrego:może zapobiegać rozświetleniu świateł lub spłaszczyć superkontrastową scenę, która może stracić kluczowe szczegóły. Ale, podobnie jak w przypadku iPhone'a 11 Pro, może to być nieprzewidywalne.
W dobrych warunkach fotografowanie głównym szerokokątnym aparatem wolę obrazy wychodzące z Pixela 4 do tych z iPhone'a 11 Pro. Jest blisko, ale aparat Pixela nadal wydaje mi się bardziej neutralny i naturalny. Nie zauważam efektu HDR, który sprawia, że obiekty wyglądają nierealistycznie – a czasem nawet kreskówkowo – tak samo jak w przypadku iPhone'a. Jest to szczególnie przydatne dla użytkowników, którzy edytują swoje zdjęcia po ich zrobieniu (co robi niewielu typowych użytkowników).
Google również wprowadził kilka mile widzianych ulepszeń w zakresie obsługi HDR. Po dotknięciu ekranu, aby ustawić ostrość na obiekcie na obrazie, pojawiają się teraz dwa suwaki do regulacji jasności sceny. Jeden suwak wpływa na ogólną ekspozycję (jak jasno lub ciemno wszystko wygląda) w scenie, podczas gdy drugi po prostu wpływa na cienie. Ten drugi suwak jest niezwykle przydatny. Umożliwia robienie takich rzeczy, jak robienie zdjęć sylwetki, na których obiekt jest praktycznie zaciemniony, a tło (zwykle jasne niebo) pozostaje odpowiednio naświetlone.
Można również uzyskać odwrotny efekt, w którym można rozjaśnić ciemne obiekt na pierwszym planie bez wydmuchiwania jasnego nieba w tle. W sytuacji takiej jak na zdjęciu poniżej, zazwyczaj tracisz niektóre z tych ładnych żółtych szczegółów liści na cień, chyba że rozjaśnisz cały obraz i zdmuchniesz niebo. Regulacja suwaka cienia pozwala zwiększyć ekspozycję na liściach, pozostawiając niebo w spokoju.
Ten suwak jest jednym z moich ulubionych dodatków do aparatu Pixel 4 i jest to trend, który chciałbym kontynuować, gdy cały czas idziemy w przyszłość HDR we wszystkim.
Gdy warunki fotografowania stają się trudne, Pixel 4 ma jednak kilka prawdziwych dziwactw.
Efekt migotania
Większość sztucznego oświetlenia migocze, ale Twój mózg wykonuje dobrą robotę, aby blask wydawał się ciągły. Efekt pulsacji jest jednak trudniejszy do zanegowania przez aparaty cyfrowe, a Pixel 4 wydaje się mieć na tym polu więcej problemów niż jego konkurencja.
W powyższym filmie zauważysz ciemne pasy przechodzące przez obraz. Tego rodzaju rzeczy nie są niezwykłe w przypadku sztucznych źródeł światła, które mają ogólnie niezauważalne migotanie, które zbiega się z przepływającym przez nie prądem elektrycznym 60 Hz. Dedykowane aparaty cyfrowe zazwyczaj mają jednak „wykrywanie migotania”, aby pomóc w jego zwalczaniu, a nawet iPhone 11 Pro lepiej radzi sobie z łagodzeniem tego efektu.
Dzięki Pixelowi 4 zauważyłem go w różnych lokalizacjach i sztucznych źródła światła. Przez większość czasu jest subtelny, ale jeśli masz jasne źródło światła w kadrze zdjęcia lub wideo, może przyspieszyć migawkę szybciej niż 1/60 sekundy, czyli wtedy, gdy pasma zaczynają się wkradać.
Gdy przełączyłem się na ręczny tryb aparatu w aplikacji Lightroom i użyłem wolniejszego czasu otwarcia migawki, zniknął. W takich scenach iPhone wydaje się używać technologii HDR+, aby utrzymać co najmniej jedną klatkę w miksie z wystarczająco wolnym czasem otwarcia migawki, aby temu zapobiec. Kiedy już ustaliłem okoliczności, które to spowodowały, nakręciłem poniższy przykład, który bardzo wyraźnie to pokazuje.
Wada nie jest przeszkodą, ponieważ pojawia się tylko w określonych okolicznościach , ale jest to bardzo denerwujące.
Ustawienie balansu bieli
Kolejny obszar, w którym nasz mózg i oczy rutynowo przewyższają aparaty:balans kolorów. Jeśli znajdujesz się w pomieszczeniu ze sztucznym światłem i oknem, oświetlenie może wyglądać dość spójnie dla Twojego oka, ale dla kamery jest renderowane odpowiednio jako pomarańczowe i niebieskie.
Smartfony często próbują podzielić różnicę, jeśli chodzi o balans bieli, chyba że sam się tym zadzierasz. Pixel 4 analizuje jednak scenę przed nim i wykorzystuje sztuczną inteligencję, aby spróbować rozpoznać ważne obiekty w kadrze. Tak więc, jeśli zauważy twarz, spróbuje uzyskać właściwy balans bieli na osobie. To dobra taktyka.
Ogólnie myślę, że Pixel 4 wykonuje świetną robotę, jeśli chodzi o balans bieli, z wyjątkiem sytuacji, gdy jest bardzo źle. Poruszaj się po aparacie iPhone'a 11 Pro, a ogólna kolorystyka sceny pozostaje w większości spójna. Zrób to samo z Pixel 4, a jego ogólny balans bieli może się drastycznie przesunąć, nawet jeśli tylko nieznacznie poruszysz aparatem. Powyżej zrzut ekranu w stylu siatki pokazuje serię zdjęć, które zrobiłem kolejno w niezmiennych warunkach. Podczas robienia zdjęć delikatnie poruszałem telefonem i widać naprawdę głęboką zmianę kolorów. Znowu dzieje się tak głównie podczas fotografowania w sztucznym świetle.
Tak długo, jak zwracasz uwagę i zauważasz zmianę przed zrobieniem zdjęcia, wszystko jest w porządku, a Pixel wykonuje świetną robotę. Łatwo jest też później poprawić, jeśli chcesz otworzyć aplikację do edycji. Ale kilka razy skończyło się na dziwnie żółtym zdjęciu, którego się nie spodziewałem.
Teleobiektyw
Nowy teleobiektyw jest mniej więcej dwa razy dłuższy niż standardowy aparat Pixela , który skutecznie zapewnia 2-krotny zoom optyczny. Ma przysłonę f/2,4 w porównaniu do ulepszonego obiektywu portretowego f/2,0 (niższe wartości wpuszczają więcej światła) w telefonie iPhone 11 Plus. To jednak tylko ułamek postoju, więc jest mało prawdopodobne, aby miało to duży wpływ, ale jest to przypomnienie, że Apple robi teleobiektywy już od jakiegoś czasu i już udoskonala, podczas gdy Google dopiero zaczyna.
Tak jak powiedzieliśmy wcześniej, teleobiektyw liczy zoom jako jeden z głównych Funkcje. Telefon daje możliwość powiększenia do 8x dzięki połączeniu technologii cyfrowej i optycznej. Google twierdzi, że szczypanie, aby zbliżyć się teraz, faktycznie zapewnia lepszą jakość obrazu niż po prostu zrobienie szerszego zdjęcia i przycięcie, co historycznie zapewniało lepsze wyniki. Uważam, że to stwierdzenie jest trafne. „Zooming” przeszedł długą drogę w aparatach smartfonów, ale nie należy spodziewać się magii. Nadal będziesz mieć brzydkie, poszarpane „artefakty” na obrazach, które wyglądają, jakby zostały zapisane i ponownie zapisane zbyt wiele razy jako JPEG.
Kiedy podglądasz obrazy na mniejszym ekranie, takim jak Instagram, wyglądają imponująco i jest to prawdopodobnie najważniejszy warunek wyświetlania aparatu w smartfonie w 2019 roku.
Jeśli dużo powiększasz, Pixel wygrywa z iPhonem w zwykłym trybie. Nawet nieco łatwiej jest utrzymać stabilność dzięki ulepszonemu systemowi stabilizacji obrazu, gdy jesteś maksymalnie 8x przybliżony.
Tryb portretowy
Inną wielką zaletą teleobiektywu jest ulepszony portret tryb. Nawet z pojedynczym obiektywem w Pixel 3, Google wykonał już bardzo imponującą robotę, udając rozmycie tła, które pochodzi z małej głębi ostrości. Przewidywalnie, dodanie drugiego obiektywu, aby umożliwić lepsze obliczenie głębi sceny, poprawia jej wydajność.
Jeśli naprawdę chcesz zauważyć skok, spróbuj sfotografować większy obiekt lub osobę z większej odległości niż zwykłe ujęcie głowy i tułowia, dla którego pierwotnie opracowano tryb portretowy. Korzystanie z trybu portretowego w przypadku większych obiektów jest nową umiejętnością Pixela 4 i dobrze radzi sobie z łagodzeniem nieodłącznych ograniczeń technologii. Wszelkie dziwactwa lub artefakty, takie jak dziwnie ostre obszary lub nierówne plamy rozmycia, zwykle pojawiają się wokół krawędzi obiektów lub w drobnych szczegółach, takich jak włosy lub futro. Im bardziej zbliżasz się do obiektu, tym trudniej pracujesz z aparatem i tym bardziej prawdopodobne jest, że zauważysz coś dziwnego lub nie na miejscu.
Ogólnie rzecz biorąc, tryb portretowy Pixela 4 wygląda bardziej naturalnie niż iPhone 11 Pro , ale bardziej zmaga się z krawędziami i zabłąkanymi włosami. W headshotach obszary wokół włosów zazwyczaj od razu zdradzają sztuczki Pixela 4. (IPhone 11 Pro radzi sobie z tymi problemami z krawędziami, dodając „marzycielskie” rozmycie na większości obrazu.) Ogólne kolory i kontrast Pixela są ogólnie lepsze, ponieważ nie próbują emulować różnych rodzajów oświetlenia, tak jak robi to iPhone. Ale kiedy uzyskasz naprawdę brzydką krawędź wokół twarzy lub włosów obiektu za pomocą Pixela 4, może to szybko zepsuć efekt.
Jeśli publikujesz zdjęcia w trybie portretowym na Instagramie, krawędzie mogą nie grać dla twoich obserwujących. Jednak oglądanie ich na ekranie laptopa lub większym czyni je oczywistymi.
Pixel 4 daje prawie natychmiastowy dostęp do obu fałszywych obrazów rozmycia i zwykłe zdjęcie w Twojej bibliotece. Przetwarzanie trybu portretowego zajmuje kilka sekund, więc nie widać ich od razu. Biorąc pod uwagę ilość przetwarzania, które wykonuje, jest to zrozumiałe — a także w przypadku iPhone'a — ale jeśli próbujesz uzyskać dokładnie odpowiednią ekspresję, nie możesz tak naprawdę sprawdzić wyników w czasie rzeczywistym.
Noktowizor
Kiedy Google zadebiutował w swoim imponującym trybie fotografowania przy słabym świetle, Night Sight, w Pixel 3 był niesamowicie imponujący. Google wyraźnie kontynuuje ulepszanie swojej wydajności i nawet po dodaniu przez iPhone'a 11 Pro własnej wersji technologii Pixel 4 nadal ma znaczną przewagę.
Nadal musisz przesunąć palcem do trybu Night Sight, aby go włączyć, w przeciwieństwie do iPhone'a, który uruchamia go automatycznie, gdy uzna, że warunki są odpowiednie. Lubię mieć większą kontrolę nad tym, co robię, więc wolę podejście Pixela, zwłaszcza że te tryby nocne wymagają długich ekspozycji, które mogą powodować rozmyte zdjęcia, jeśli Ty lub obiekty w scenie nie możesz się zatrzymać.
W porównaniu z trybem nocnym iPhone'a kolory celownika nocnego są dokładniejsze, a sceny wyglądają bardziej naturalnie. Ostatecznie ten sprowadzi się do osobistych preferencji, ale wolę wyniki Pixela 4 niż iPhone'a 11 Pro.
Podczas prezentacji aparatu Google wyraźnie powiedział, że ma nadzieję, że użyjesz tylko „flesza” aparatu jako latarki. Przestrzegałem tej zasady. Lampa błyskowa nie jest dobra, tak jak każde zdjęcie z lampą błyskową aparatu smartfona, które było przed nią. Jest to przydatne, jeśli naprawdę tego potrzebujesz — zwłaszcza jeśli nie masz nic przeciwko konwersji obrazów na czarno-białe po fakcie — ale ostatecznie możesz po prostu pozostawić to wyłączone na zawsze.
Jako dodatek do funkcji Night Sight, Google dodał również funkcję ułatwiającą robienie zdjęć nocnego nieba, które pokazują gwiazdy i Drogę Mleczną — jeśli wiesz, co robisz. Nie testowałem tej funkcji, ponieważ nie miałem dostępu do naprawdę ciemnego nieba, a pogoda nie do końca współpracowała. Jeśli planujesz korzystać z tej funkcji, powinieneś zaplanować użycie statywu - lub przynajmniej zrównoważyć telefon na stabilnym obiekcie - ponieważ nadal wymaga długich ekspozycji. Ostatecznie podoba mi się, że firma dodała tę funkcję i nie mogę się doczekać, aby zobaczyć, co ludzie za jej pomocą tworzą, ale wyobrażam sobie, że jest to wyspecjalizowana rzecz, której większość użytkowników nie spróbuje więcej niż kilka razy.
Przypadek brakującego superszerokokątnego obiektywu
Kiedy Pixel 3 był dostarczany bez teleobiektywu, tak naprawdę nie przegap tego. Muszę się jednak zastanowić, dlaczego Google miałby wysyłać Pixel 4 bez superszerokokątnego obiektywu, który można znaleźć w iPhonie 11 Pro i innych smartfonach z wyższej półki.
Superszeroki jest łatwy do nadużycia, jeśli unikalna perspektywa oślepia cię na nieodłączne zniekształcenie i ogólnie po prostu zwariowaną perspektywę, jaką oferuje. Ale są chwile, kiedy jest to naprawdę przydatne. Jeśli próbujesz sfotografować ogromny krajobraz bez tworzenia panoramy lub po prostu robisz zdjęcie w naprawdę ciasnych pomieszczeniach, dodatkowa szerokość robi namacalną różnicę.
Ostatecznie opowiadam się za tym, aby ludzie robili większość zdjęć za pomocą standardowego aparatu szerokokątnego, bez względu na wybrany telefon, ponieważ ogólna wydajność i jakość obrazu są zazwyczaj znacznie lepsze niż w przypadku innych obiektywów . Ale lubię opcje, a superszerokokątny obiektyw pozwala uzyskać perspektywę, której fizycznie nie można uzyskać, po prostu tworząc kopię zapasową.
Jaki jest najlepszy aparat w smartfonie?
Pixel 4 pozostawił nas w trudnej sytuacji. Jakość obrazu, odwzorowanie kolorów i szczegółowość są naprawdę doskonałe — przez większość czasu. Dziwactwa, które się pojawiają, mają jednak wymierny wpływ na ogólną użyteczność aparatu jako całości. Jeśli jesteś typem strzelca, który zwraca uwagę na swoją scenę i edytujesz zdjęcia po ich zrobieniu, Pixel jest w większości najlepszą opcją. Bardziej neutralne kolory i kontrast umożliwiają edycję lepiej niż te w plikach iPhone'a, które wychodzą prosto z aparatu i wyglądają na bardziej przetworzone.
Ostatecznie jednak jesteśmy w czasach, gdy jakość aparatu w smartfonie w dużej mierze się ustabilizowała. W tej recenzji w większości nie wspomniałem o aparatach Samsunga, ponieważ ich pliki są przetworzone ze zbyt dużym wyostrzeniem i agresywnym kontrastem i nasyceniem. Ale duży kontyngent takich ludzi. W tym momencie nie ma wystarczającej różnicy między ogólną wydajnością a jakością obrazu w Pixel 4, aby przeskoczyć z preferowanej platformy - tylko po to, aby uzyskać niewielką przewagę na obrazach wychodzących prosto z aparatu.