piątek, 22 listopada

Apple w najbliższych dniach udostępni deweloperom pierwszą wersję beta kolejnej dużej aktualizacji systemu iOS 13, prawdopodobnie iOS 13.2, która wprowadzi funkcję, którą Apple obiecał podczas prezentacji iPhone’a 11 i iPhone’a 11 Pro o nazwie Deep Fusion.

Deep Fusion to nowy system przetwarzania obrazu, który wykorzystuje A13 Bionic i silnik neuronowy. Deep Fusion wykorzystuje technikę uczenia maszynowego do przetwarzania zdjęć piksel po pikselu, optymalizując teksturę, szczegóły i szumy w każdej części obrazu.

Funkcja ta ma na celu poprawę jakości zdjęć w pomieszczeniach i zdjęć wykonanych przy średnim oświetleniu. Jest to funkcja, która zostanie automatycznie aktywowana w zależności od wybranego obiektywu i poziomu oświetlenia w pomieszczeniu. Obiektyw szerokokątny będzie domyślnie używał Smart HDR do jasnych scen, z funkcją Deep Fusion aktywowaną w średnim lub słabym świetle oraz trybem nocnym w przypadku ciemniejszych scen.

Teleobiektyw będzie korzystał głównie z technologii Deep Fusion, ale Smart HDR aktywuje się, gdy oświetlenie będzie bardzo jasne. Tryb ciemny aktywuje się, gdy oświetlenie jest ciemne. Ultra-szerokokątny obiektyw wykorzystuje tylko Smart HDR i nie obsługuje Deep Fusion (ani trybu nocnego).

The Verge podsumowuje działanie Deep Fusion o informacje uzyskane od Apple. Deep Fusion działa całkowicie w tle i w przeciwieństwie do trybu nocnego, nie ma opcji włączenia lub wyłączenia.

Deep Fusion to złożony proces, w którym hardware iPhone’a wykonuje kilka czynności po zrobieniu zdjęcia. Przed naciśnięciem spustu migawki aparat rejestruje trzy klatki z krótkim czasem otwarcia migawki, aby zatrzymać ruch. Po naciśnięciu spustu migawki rejestrowane są dodatkowe trzy zdjęcia, a następnie wykonywane jest jedno dłuższe zdjęcie w celu zachowania szczegółów.

Trzy zwykłe zdjęcia i ujęcie z długim czasem naświetlania są połączone w coś, co Apple nazywa „syntetycznie długim”, które różni się od Smart HDR. Deep Fusion wybiera obraz z krótkim czasem naświetlania, który ma najwięcej szczegółów, a następnie łączy go z syntetycznie długim czasem naświetlania (są to tylko dwie ramki, które są połączone).

Następnie obrazy przechodzą czteroetapową procedurę przetwarzania, piksel po pikselu, mającą na celu zwiększenie szczegółów i przekazanie do układu A13 instrukcji, w jaki sposób oba obrazy (szczegół, ton, kolor, luminancja i więcej) powinny być ze sobą zmieszane.

Wykonanie zdjęcia Deep Fusion zajmuje nieco więcej niż zrobienie normalnego zdjęcia Smart HDR, około sekundę, więc Apple początkowo wyświetli zdjęcie zastępcze jeśli dotkniesz zdjęcia tuż po zrobieniu zdjęcia Deep Fusion, chociaż szybko zostanie zastąpiony pełnym obrazem Deep Fusion.

Funkcja Deep Fusion będzie dostępna tylko telefonach iPhone 11, iPhone 11 Pro i iPhone 11 Pro Max.

Udostępnij:
Subscribe
Powiadom o

0 komentarzy
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
wpDiscuz
0
0
Chciałbyś się podzielić swoim przemyśleniem? Zostaw komentarzx
Exit mobile version