W dobie aparatów do smartfonów i oprogramowania do edycji napędzanych sztuczną inteligencją, kto tak naprawdę kontroluje kompozycję – algorytm czy fotograf? Odpowiedzi znajdziesz w trzeciej kolumnie „Inteligentniejszy obraz”.
Autor:Jeff Carlson | Zaktualizowano 27 stycznia 2022 r. o godzinie 2:56 czasu wschodniego

Powracającym tematem fotografii obliczeniowej jest napięcie związane z twórczymi wyborami. Funkcje „AI” w aparatach i aplikacjach do edycji zdjęć mogą przejąć kontrolę nad wieloma aspektami technicznymi, takimi jak eksponowanie sceny lub ostrość. Czy nie odbiera to fotografom zbyt dużej kontroli twórczej? (Zobacz moją ostatnią kolumnę:„Korzystasz już z fotografii obliczeniowej, ale to nie znaczy, że nie jesteś fotografem”).
Kompozycja obrazu wydaje się być poza tym napięciem. Kiedy ustawiasz ujęcie, aparat fizycznie nie ciągnie Cię za ramiona, aby ustawić obiektyw w lepszym układzie. (Jeśli ciągnie Cię za ręce, czas pomyśleć o lżejszym aparacie lub solidnym statywie!). Jednak oprogramowanie może wpływać na kompozycję w wielu okolicznościach — głównie podczas edycji, ale w niektórych przypadkach także podczas fotografowania.
Zastanów się nad kompozycją
Na pierwszy rzut oka kompozycja wydaje się być najprostszą częścią fotografii. Skieruj aparat na obiekt i naciśnij lub dotknij spustu migawki. Doświadczeni fotografowie wiedzą jednak, że wybór miejsca pojawienia się obiektu, jego kompozycji w wizjerze/ekranu, a nawet tego, który element jest temat, wymaga więcej pracy i przemyśleń. Tak naprawdę kompozycja jest często najtrudniejszą częścią uchwycenia sceny.
Gdzie zatem w tym kontekście mieści się fotografia obliczeniowa?
Pod pewnymi względami łatwiej jest zastosować bardziej zaawansowane funkcje sztucznej inteligencji, takie jak HDR. Aparat, niemal wyłącznie w smartfonie, w ciągu kilku milisekund rejestruje kilkanaście ujęć o różnej ekspozycji, a następnie łączy je, by zbudować dobrze oświetlone zdjęcie. Gromadzi szeroką gamę danych i łączy je w całość.
Aby zastosować sztuczną inteligencję do kompozycji, aparat musi rozumieć i robić to, co widać w wizjerze. Częściowo tak się dzieje:smartfony potrafią rozpoznać osobę w kadrze, a niektóre rozpoznają wspólne elementy, takie jak niebo, drzewa, góry i tym podobne. Nie pomaga to jednak w określeniu, który obiekt na pierwszym planie powinien być widoczny i gdzie powinien być umieszczony w stosunku do innych obiektów w scenie.
Ponadto podczas fotografowania to fotograf nadal decyduje o tym, gdzie skierowany jest obiektyw. Czy tak jest? Żartuję na temat kamery, która przesuwa twoje ramiona w odpowiednie miejsce, ale to nie odbiega od opisu tego, co robi wiele urządzeń z kamerą. Oprócz minimalizowania ruchu kamery w celu zapewnienia płynnego ruchu, gimbal może zidentyfikować osobę i utrzymać ją w centrum kadru.
Wróćmy jednak do samego aparatu. Jeśli mamy kontrolę nad ciałem i miejscem, w którym jest ono skierowane, wszelka pomoc obliczeniowa musiałaby pochodzić z tego, co widzi soczewka. Jednym ze sposobów osiągnięcia tego jest wybranie kompozycji w pikselach rejestrowanych przez czujnik. Robimy to cały czas podczas edycji poprzez kadrowanie, o czym za chwilę. Ale powiedzmy, że chcemy algorytmu, który pomoże nam określić najlepszą kompozycję przed nami. Idealnie byłoby, gdyby aparat widział więcej niż to, co widać w wizjerze i wybierał część tych pikseli.
Cóż, to też się dzieje, w ograniczony sposób. W zeszłym roku Apple wprowadziło funkcję o nazwie Center Stage w modelach iPada, iPada mini i iPada Pro z roku 2021. Przednia kamera ma ultraszerokie pole widzenia wynoszące 120 stopni, a oprogramowanie Center Stage ujawnia tylko jego część, dzięki czemu wygląda jak zwykła klatka wideo. Ale oprogramowanie rozpoznaje również, kiedy dana osoba znajduje się w ujęciu, i dostosowuje widoczny obszar, aby utrzymać ją wyśrodkowaną. Jeśli w pomieszczeniu pojawi się inna osoba, kamera pomniejszy obraz, aby uwzględnić także tę osobę. (Innym przykładem jest kamera Logitech StreamCam, która może podążać za jedną osobą w lewo i prawo.) Efekt wydaje się nieco śliski, ale ruch jest całkiem płynny i na pewno się poprawi.
Kompozycja w montażu
Apple Photos na iPhonie 13 Pro wyświetla przycisk Auto, gdy wykryje osoby na obrazie (po lewej). Do obrazu po prawej stronie zostanie zastosowane automatyczne przycięcie. Jeffa Carlsona W oprogramowaniu do edycji znajdziesz więcej opcji automatycznego kadrowania, ale rezultaty będą bardziej chybione.
W aplikacji Zdjęcia w systemie macOS kliknięcie przycisku Auto w interfejsie Kadrowanie powoduje jedynie wyprostowanie, co w tym przypadku spowodowało obrócenie obrazu za bardzo w prawo. Jeffa Carlsona Koncepcja odzwierciedla to, co robimy, gdy siadamy do edycji zdjęcia:aplikacja analizuje obraz, wykrywa obiekty i typy scen, a następnie wykorzystuje tę wiedzę do wyboru alternatywnych kompozycji poprzez przycięcie. Wiele aplikacji, które wybrałem jako przykłady, wykorzystuje twarze jako podstawę do zmiany kompozycji; Aplikacja Zdjęcia Apple wyświetla przycisk Auto w interfejsie przycinania tylko wtedy, gdy dana osoba jest obecna lub gdy wyraźna linia horyzontu sugeruje, że obraz wymaga wyprostowania.
Luminar AI wykonała dobrą robotę, wycinając drogowskaz po prawej stronie. Jeffa Carlsona Spodziewałem się lepszych wyników w Luminar AI przy użyciu narzędzia Composition AI, ponieważ główną cechą Luminar AI jest fakt, że analizuje on każdy obraz po rozpoczęciu jego edycji w celu ustalenia zawartości. Wykonał dobrą robotę w przypadku mojego zdjęcia testowego krajobrazu, utrzymując samochód i kierowcę w kadrze wraz ze skałami w lewym górnym rogu i usuwając drogowskaz w prawym dolnym rogu. Jednak na portrecie (poniżej) efekt był odwrotny do oczekiwanego, czyli trzymanie palców kobiety po prawej stronie i przycinanie jej włosów po lewej stronie.
Luminar AI wygląda tak, jakby uwydatniała każdą twarz wzdłuż prowadnic reguły trzeciej, ale rozpraszające palce trzymała po prawej stronie. Jeffa Carlsona Wrzuciłem także dwa obrazy testowe do Pixelmator Pro na macOS, ponieważ Pixelmator (firma) agresywnie włącza do swojego edytora narzędzia oparte na języku maszynowym. Dobrze ujęło dwie kobiety na portrecie (poniżej), chociaż wolałbym nie kadrować tak ciasno, jak to miało miejsce. Na zdjęciu krajobrazowym zostało ono nieco przycięte, co tylko nieznacznie poprawiło zdjęcie.
Ponowna ramka Pixelmator Pro uwydatnia twarze kobiet, chociaż dla lepszej równowagi przesunąłbym granice kadrowania w lewo. Jeffa Carlsona Programy Adobe Lightroom i Photoshop nie udostępniają żadnej funkcji automatycznego przycinania, ale program Photoshop Elements oferuje cztery sugerowane kompozycje na pasku opcji narzędzia, gdy wybrane jest narzędzie Kadrowanie. Nie jest jednak jasne, czego aplikacja używa do generowania tych sugestii, ponieważ mogą one być dość losowe.
Adobe Elements oferuje także funkcję automatycznego przycinania, ale rezultaty mogą być nieprzewidywalne. Jeffa Carlsona Skład-u? (Nie, to okropne określenie)
Należy tutaj zauważyć, że to wszystko są punkty wyjścia. W każdym przypadku zostanie wyświetlona sugestia, którą można następnie manipulować ręcznie, przeciągając uchwyty przycinania.
Być może właśnie tego powinniśmy się dzisiaj nauczyć:w fotografii obliczeniowej nie chodzi tylko o to, aby aparat lub oprogramowanie wykonało całą pracę za Ciebie. Może dać ci wybór lub zaoszczędzić trochę czasu, ale ostatecznie wybory, których dokonasz, nadal należą do ciebie. Czasami zobaczenie kiepskiej sugestii zmiany kadru może pomóc Ci zorientować się, które elementy zdjęcia działają, a które należy wyciąć. Możesz też zastosować automatyczną korektę, nie zgodzić się (być może gwałtownie) i zrobić coś własnego.