Gamma to nieliniowa operacja wykorzystywana do kodowania i dekodowania wartości jasności w nieruchomych i ruchomych obrazach. Gamma określa, w jaki sposób wartość liczbowa piksela odnosi się do jego rzeczywistej jasności.
Chociaż gamma jest niezwykle trudna do zrozumienia w całości, fotografowie cyfrowi muszą zrozumieć, w jaki sposób odnosi się do obrazów. Gamma dramatycznie wpływa na wygląd obrazu cyfrowego na ekranie komputera.
Zrozumienie gamma w fotografii
Termin gamma ma zastosowanie w kategoriach fotograficznych, gdy chcemy oglądać obrazy na monitorach komputerowych. Koncepcja jest niezbędna do uchwycenia (nawet na powierzchni), ponieważ celem jest stworzenie cyfrowego obrazu, który wygląda jak najlepiej na skalibrowanych i nieskalibrowanych monitorach.
W obrazach cyfrowych występują trzy rodzaje gamma:
- Gamma obrazu — Używany przez aparat lub oprogramowanie do konwersji obrazu RAW do konwersji obrazu na skompresowany plik (JPG lub TIFF).
- Wyświetlanie gamma — Używany przez monitory komputerowe i karty graficzne do regulacji wyjścia obrazu. Wysoka gamma wyświetlania stworzy obrazy, które będą ciemniejsze i bardziej kontrastowe.
- Gamma systemu — Nazywany także wyświetlaniem gamma , jest to reprezentatywne dla wszystkich wartości gamma używanych do wyświetlania obrazu:w zasadzie jest to połączenie gamma obrazu i wyświetlacza. Na przykład ten sam obraz oglądany na monitorze z inną gamą wyświetlania nie będzie wyglądał tak samo, ponieważ wynikowa gama wyświetlania jest inna.
Od kamery do monitora:jak działa gamma
Urządzenie nadaje każdemu pikselowi na obrazie cyfrowym wartość, która określa jego poziom jasności. Monitor komputera używa tych wartości podczas wyświetlania obrazów cyfrowych. Jednak monitory komputerowe CRT i LCD muszą wykorzystywać te wartości w sposób nieliniowy, co oznacza, że wartości należy dostosować przed ich wyświetleniem.
Prosto po wyjęciu z pudełka monitor komputerowy ma zwykle współczynnik gamma 2,5. Większość nowoczesnych lustrzanek cyfrowych nagrywa w przestrzeni kolorów sRGB lub Adobe RGB, a te działają z gamma 2,2.
Jeśli ekran komputera nie jest skalibrowany tak, aby pasował do tej wartości gamma 2.2, obrazy z lustrzanki cyfrowej mogą wyglądać na zbyt ciemne i zupełnie niepodobne do zdjęć zrobionych na początku.
Dlaczego kalibracja monitora jest ważna?
Z tych wszystkich powodów ustanowiono zestaw standardów, dzięki którym obraz na twoim monitorze będzie wyglądał jak ten sam obraz na monitorze sąsiada. Proces ten nazywa się kalibracją i używany do uzyskania określonego odczytu gamma, który jest podobny do każdego innego skalibrowanego monitora na świecie.
Żaden fotograf, czy to amator, czy profesjonalista, nie powinien pracować z obrazami bez posiadania skalibrowanego monitora. Jest to niewielka inwestycja, która zapewni, że każde zdjęcie, które udostępnisz online lub wyślesz do laboratorium fotograficznego w celu wydrukowania, będzie wyglądało zgodnie z Twoimi zamierzeniami. Tworzenie obrazu, który wygląda pięknie dla Ciebie i wygląda okropnie dla wszystkich innych, nie ma sensu!
Możesz użyć różnych metod kalibracji monitora, w tym opcji sprzętowych i programowych.
Przeciętny użytkownik komputera prawdopodobnie nie skalibruje swojego monitora. Może to stanowić problem dla fotografów próbujących pochwalić się (lub sprzedać) swoje zdjęcia. Jeśli jednak monitor jest skalibrowany, zrobiłeś wszystko, co w Twojej mocy, aby pokazać swoje zdjęcia w najlepszy możliwy sposób. Optymalnie możesz wyjaśnić kalibrację odbiorcom, którzy widzą obraz, który jest zbyt ciemny lub zbyt jasny.