Aparat w iPhonie zyska własny mózg. Będzie ci mówił, na co patrzysz
iOS 27 to między innymi Siri w aparacie, "inteligentne”" zdjęcia i kolejna runda wyścigu na AI. Co szykuje Apple?

Apple jeszcze oficjalnie nic nie ogłosił, ale z przecieków opublikowanych przez Bloomberga (tu i tu) wynika jedno: iOS 27 będzie kolejną odsłoną strategii "Apple Intelligence ma być wszędzie". Tym razem na celowniku znalazły się dwie rzeczy, które użytkownicy iPhone’ów używają codziennie - Aparat i Zdjęcia. Do tego dochodzi kilka sprytnych sztuczek z rozpoznawaniem sceny, etykiet żywieniowych i wizytówek. Brzmi jak miks Obiektywu Google, Photoshopa i Vision Pro, tylko w wydaniu z logo nadgryzionego jabłka. Przyjrzyjmy się spokojnie, co dokładnie wyciekło - i co to może realnie zmienić w codziennym korzystaniu z iPhone’a, iPada i Maka.
Nowy tryb Siri w aparacie: nie tylko zdjęcia, ale i odpowiedzi
Obok klasycznych trybów Foto i Wideo ma pojawić się kolejna pozycja - Siri - która zamieni aparat w coś na kształt interaktywnego czytnika świata. Zamiast po prostu robić zdjęcie użytkownik będzie mógł skierować obiektyw na obiekt, scenę czy tekst, a następnie zadać pytanie. Pod spodem ma działać Visual Intelligence, czyli funkcja, którą Apple już wcześniej powiązało z przyciskiem Camera Control w iPhonie 16. Teraz ma zostać przeniesiona wprost do aplikacji aparatu i mocniej zintegrowana z Siri.
Czytaj też:
Apple nie zamyka się tu wyłącznie na własne modele. W trybie Siri w aparacie użytkownik ma mieć możliwość skorzystania z zewnętrznych usług - wprost padają nazwy ChatGPT i Google. To dość ciekawy sygnał: Apple najwyraźniej akceptuje fakt, że nie każdą odpowiedź musi generować wyłącznie własna chmura.
W praktyce może to wyglądać tak: kierujesz aparat na roślinę i pytasz co to za gatunek. Albo na urządzenie elektroniczne i prosisz o instrukcję obsługi. Albo na budynek i chcesz wiedzieć, jaka jest jego historia. To, co dziś wielu użytkowników robi przez Obiektyw Google czy Binga ma być wciągnięte Apple’a w natywny workflow iOS-a. W interfejsie zobaczymy nowy przycisk migawki - zamiast klasycznego białego kółka pojawi się ikonka Apple Intelligence.
Visual Intelligence: od rozpoznawania sceny do kalorii i kontaktów

Samo "rozumienie" obrazu Apple chce rozciągnąć dalej niż tylko odpowiedzi na pytania. Visual Intelligence ma dostać nowe, bardzo konkretne zastosowania. Pierwsze to skanowanie etykiet żywieniowych. iPhone ma być w stanie odczytać tabelę wartości odżywczych z opakowania i przekształcić ją w zrozumiały, ustrukturyzowany zapis - z możliwością logowania tych danych w systemie. Jeśli Apple dobrze to połączy z aplikacją Zdrowie i pierścieniami aktywności to może powstać całkiem sensowny, codzienny asystent żywieniowy.
Drugie zastosowanie to kontakty. Aparat ma rozpoznawać dane kontaktowe widoczne w kadrze - wizytówki, banery, plakaty - i pozwalać jednym tapnięciem dodać je do książki adresowej. To niby nic nowego w świecie telefonów, bo podobne rzeczy robią od lat aplikacje skanujące wizytówki, ale różnica polega na tym, że tutaj ma to być natywne, zintegrowane i dostępne od ręki w aparacie, bez instalowania czegokolwiek.
W tle cały czas pracuje Apple Intelligence, czyli parasolowa nazwa dla modeli AI, które Apple rozkłada po systemie. W iOS 27 Visual Intelligence ma być bardziej wyeksponowane - nie jako ukryta funkcja pod długim przytrzymaniem, ale jako pełnoprawny tryb pracy aparatu.
AI w Zdjęciach: Enhance, Extend i Reframe, czyli mały Photoshop wbudowany w system
Drugi filar przecieków dotyczy aplikacji Zdjęcia na iOS 27, iPadOS 27 i macOS 27. Apple szykuje tam większy remanent narzędzi edycyjnych, oczywiści mocno oparty na generatywnej AI. Dziś użytkownicy urządzeń z Apple Intelligence mają już do dyspozycji funkcję czyszczenia - odpowiednik "gumki" znanej z Photoshopa czy Pixelowych Magic Eraserów, pozwalający usuwać niechciane obiekty ze zdjęcia. W iOS 27 do tego zestawu mają dołączyć trzy nowe narzędzia: Enhance, Extend i Reframe.
Enhance ma być inteligentnym "podkręceniem" zdjęcia. Nie chodzi tylko o klasyczne suwaki jasności, kontrastu i nasycenia, ale o analizę sceny i automatyczne poprawki, które mają sprawić, że zdjęcie "wygląda lepiej" bez konieczności ręcznego grzebania. To funkcja, którą w różnych formach znamy już z Androida, ale Apple będzie ją opierać na własnych modelach - z naciskiem na to, by całość była możliwie bezbolesna i nie zamieniała zdjęć w plastikowe renderki.
Extend to już typowa generatywna magia. Narzędzie ma pozwalać "dopowiększać" kadr - czyli generować brakujące fragmenty obrazu poza oryginalnymi granicami zdjęcia. Extend ma dorobić brakujące tło, tak by można było np. zrobić z tego poziomą tapetę czy lepiej skadrowany kadr do social mediów. To dokładnie ten typ funkcji, który w ostatnich latach stał się jednym z głównych selling pointów Photoshopa i narzędzi pokroju Midjourney czy GPT.
Reframe idzie w jeszcze inną stronę: ma pozwalać zmieniać perspektywę zdjęć 3D oglądanych na Apple Vision Pro. To już zabawa na styku fotografii i przestrzennego wideo - użytkownik ma móc "przekadrować" ujęcie tak, by lepiej wyglądało w goglach, zmieniając punkt widzenia w trójwymiarowej scenie. To niszowe, ale dobrze wpisuje się w próbę zbudowania wokół Vision Pro jakiejś realnej wartości dodanej.
Warto jednak zaznaczyć, że według przecieków Extend i Reframe w wewnętrznych testach nie działają jeszcze zbyt niezawodnie. Apple ma rozważać ich opóźnienie, ograniczenie lub przeprojektowanie.
WWDC, jesienna premiera i pytanie o dostępność
iOS 27 - razem z iPadOS 27 i macOS 27 - ma zostać oficjalnie pokazany na WWDC w czerwcu, a ostatecznie trafić do użytkowników jesienią, tradycyjnie w okolicach premiery nowych iPhone’ów. To oznacza, że przecieki, które widzimy teraz dotyczą funkcji planowanych, a nie gwarantowanych.
Kluczowe pytanie, którego przecieki na razie nie rozstrzygają, dotyczy dostępności. Apple Intelligence już dziś jest ograniczone do nowszych urządzeń - nie każdy iPhone czy Mac dostaje pełen pakiet funkcji. Można się spodziewać, że nowy tryb Siri w aparacie, Visual Intelligence z logowaniem kalorii i kontaktem, a także Enhance/Extend/Reframe w Zdjęciach będą wymagały co najmniej kilku ostatnich generacji sprzętu, być może z konkretnymi układami (A18, seria M itd.). To będzie kolejny element presji na wymianę urządzeń.
Jedno jest pewne: jeśli ktoś liczył, że po pierwszej fali Apple Intelligence sam Apple zwolni tempo, to iOS 27 pokazuje coś odwrotnego. To dopiero rozgrzewka.



















