Sposób działania cyfrowego zoomu w Pikselu 3 mógł wymyślić tylko Google. Zasada działania jest błyskotliwa
Google wynosi cyfrowy zoom w Pikselu 3 na zupełnie nowy poziom za sprawą oprogramowania. Wiemy już w jaki sposób działa nowy system Super Res Zoom.
Choć producenci smartfonów stosują podwójne, potrójne, a nawet poczwórne układy aparatów, Google cały czas przekonuje, że pojedynczy obiektyw może grać w pierwszej lidze jakościowej. Producent robi to, w czym jest najlepszy, czyli stosuje bardzo wysublimowane zabiegi programowe w celu poprawy jakości. Na blogu Google pojawił się szczegółowy opis działania trybu Super Res Zoom z Pixela 3 i 3 XL.
Super Res Zoom to zoom cyfrowy, który działa zupełnie inaczej, niż standardowe rozwiązania tego typu.
Super Res Zoom to zoom cyfrowy wykorzystujący mikrodrgania dłoni do zbierania danych o obrazie i zwiększania szczegółowości zdjęć. To rozwiązanie jest dostępne tylko w smartfonach Pixel 3 i Pixel 3 XL. Aby uzyskać zdjęcie w Super Res Zoom, należy przybliżyć obraz przed naciśnięciem spustu migawki. Działa to dla każdego powiększenia począwszy od 1.2, a efekt działa dużo lepiej, niż powiększenie gotowego zdjęcia zrobionego w standardowy sposób.
Oto porównanie jakości nowego trybu do zwykłego cyfrowego powiększenia.
Dlaczego zwykły zoom cyfrowy jest tak słaby? Google podaje ciekawe argumenty.
Matryce naszych aparatów, czy to smartfonów, czy tych dedykowanych, działają w oparciu o demozaikowanie. Komórki światłoczułe matrycy zbierają informacje o intensywności natężenia światła na każdym pikselu, ale nie o kolorze. Informacja o barwach bierze się z filtra, którym najczęściej jest filtr Bayera, będący charakterystyczną siatką filtrów zielonych, niebieskich i czerwonych rozrzuconych w powtarzający się sposób.
Podstawowy blok takiej siatki ma rozmiar 16 pikseli (4 x 4). Na takiej powierzchni mamy tylko cztery piksele czerwone, cztery niebieskie i osiem zielonych, natomiast wszystkie 16 pikseli muszą dostać informacje o trzech kolorach. W związku z tym w każdym zdjęciu aż 2/3 informacji o kolorze pochodzi z interpolacji!
Kiedy nałożymy na to zoom cyfrowy, ta proporcja zwiększa się jeszcze bardziej w kierunku interpolacji, czyli zgadywanki aparatu. A przecież do stworzenia obrazu potrzeba nie tylko informacji o natężeniu światła, ale też o jego kolorze. Im mniej danych wejściowych, tym gorszy rezultat wyjściowy.
Niektóre aparaty korzystają z trybu wysokiej rozdzielczości dzięki stabilizacji matrycy.
Nowe aparaty Panasonica ze stabilizowaną matrycą mają szalenie ciekawą funkcję zwiększania rozdzielczości. Musimy fotografować na statywie, a aparat robi serię zdjęć, pomiędzy którymi lekko przesuwa matrycę. Jest to możliwe, ponieważ sensor jest wyposażony w mechanizm ruchu, wykorzystywany standardowo do stabilizacji.
W efekcie mamy do wyboru dwie korzyści. Można uzyskać pełne pokrycie siatki Bayera jeżeli zdecydujemy się zachować pierwotną rozdzielczość zdjęcia, a więc każdy piksel dostanie informacje o trzech podstawowych kolorach. Daje to trzykrotnie więcej informacji o kolorze, niż w standardowym zdjęciu, co eliminuje proces interpolacji i daje znacznie szersze pole do obróbki. Aparat zachowuje się tak, jakby miał trzy matryce, po jednej na kolor zielony, niebieski i czerwony.
Drugą korzyścią, alternatywną do pierwszej, jest tryb wysokiej rozdzielczości. Musimy się w nim pogodzić z brakiem dodatkowych informacji o kolorze, ale za to rozdzielczość zdjęcia wyraźnie rośnie, ponieważ aparat składa do jednego zdjęcia wiele klatek przesuniętych nieznacznie względem siebie. W przypadku Panasonica efekt jest piorunujący, bo z matrycy o rozdzielczości 24 megapikseli uzyskujemy zdjęcia o rozdzielczości 80 MP!
Google odwrócił tę metodę. Zamiast ruchomej matrycy mamy drgania rąk, a zamiast statywu - stabilizację optyczną obiektywu.
Google wykorzystuje w Pikselach pomysł z aparatów Panasonica, tyle że zrealizowany w odwrotny sposób. To drgania naszych rąk wprowadzają wibracje, czyli przesunięcie matrycy. Z kolei optyczna stabilizacja obrazu działa jak statyw. Odcina największe dragania, ale zachowuje te mikroskopijne, rzędu pojedynczych pikseli. Poniższy przykład pokazuje, jak niewielkie są to drgania.
A co w przypadku, gdy chcemy fotografować smartfonem ze statywu, a więc nie wprowadzamy do obrazu żadnych drgań? Google pomyślał o takim scenariuszu. Jeśli Pixel 3 jest całkowicie unieruchomiony, mikrodrgania wprowadza układ stabilizacji optycznej obiektywu. Widać to nawet na podglądzie kadru, który bardzo delikatnie faluje.
Do tego Google stworzył autorski moduł do łączenia zdjęć, na których widać obiektyw ruchu. Dzięki temu przy łączeniu kilku klatek w jedną, ruchome obiektyw mają być idealnie zamrożone. Trzeba jednak uważać, bo przy bardzo szybkim ruchu może zabraknąć informacji potrzebnych do zwiększenia rozdzielczości.
To bardzo google’owe podejście do problemu.
Google jest mistrzem oprogramowania i potrafi zrobić z tego użytek. Cyfrowe powiększenie x2 z Piksela 3 i Piksela 3 XL właściwie nie odbiega jakością od smartfonów wyposażonych w teleobiektyw z dwukrotnie węższym kątem widzenia.
Google gra na nosie innym producentom, pokazując, że jeden obiektyw nadal może być w pełni wystarczający w topowym smartfonie. Za takie podejście należą się brawa!