REKLAMA

Patrzysz w aparat, nawet gdy nie patrzysz w aparat. Tak będzie teraz działał iPhone

Jeśli korzystasz z wideorozmów, na pewno znasz sytuacje, kiedy wzrok rozmówcy jest skierowany gdzieś obok, ponieważ patrzy on na ekran swojego smartfona, a nie w oczko kamery. Apple to naprawi. I to w rozmowach prowadzonych na żywo.

iPhone XR opinie
REKLAMA

Przy korzystaniu z przedniej kamerki smartfona problem jest zawsze ten sam: patrzymy w ekran, a nie w kamerę. Widok samego siebie (lub rozmówcy) na ekranie sprawia, że nasz wzrok odruchowo kieruje się właśnie na twarz, a więc na ekran.

REKLAMA

To powoduje, że wideorozmowy są dość nienaturalne, bo nie da się zachować kontaktu wzrokowego. A nawet w rozmowie zdalnej, na odległość, jest to ważne.

Czy wyobrażacie sobie, że w rozmowie na żywo ktoś cały czas patrzyłby wam na usta, a nie na oczy? Byłoby to dziwne i krepujące. W wideorozmowach najczęściej tak to właśnie wygląda.

facetime iOS 12.1.4 iphone ipad apple class="wp-image-883168"

Człowiek zauważa nawet najmniejsze odchylenie wzroku innej osoby. Na twarze i oczy patrzymy przez dosłownie całe swoje życie, od momentu narodzin. Półroczne dziecko doskonale wie, kiedy rodzic patrzy na nie, a kiedy gdzieś obok. Od tego czasu człowiek tylko doskonali tę umiejętność.

Nie bez powodu w telewizji stosuje się promptery, a vlogi nagrywa się patrząc w obiektyw, a nie ekran. Widzowie od razu są w stanie wychwycić, że osoba przed kamerą nie miała wzroku skupionego na obiektywie, a więc nie utrzymywała z nami „kontaktu wzrokowego”.

Apple poprawi twoje oczy w rozmowach FaceTime. W iOS pojawi się automatyczna zmiana pozycji oczu, generowana na żywo.

Jest to jedna z nowości, która zawitała do trzeciej bety w iOS 13. W ustawieniach FaceTime jest teraz nowe pole „FaceTime Attention Correction” odpowiedzialne za korektę wzroku. Po jego włączeniu iPhone będzie korygował pozycję źrenic.

Brzmi to futurystycznie… i takie właśnie jest. Smartfon na żywo analizuje twarz i tworzy de facto grafikę, ponieważ źrenice są wycinane i przesuwane w odpowiednie miejsce. To wszystko, klatka po klatce, jest realizowane na żywo. Apple wykorzystuje do tego ARKit i mapowanie twarzy.

Efekty wyglądają w praktyce tak, jak na dwóch załączonych zrzutach ekranu. Widać na nich odpowiednio ujęcie z rozmowy prowadzonej przy wyłączonej i przy włączonej funkcji „FaceTime Attention Correction”. Co ciekawe, kiedy przy włączonej funkcji korekcji spojrzymy w kamerkę, oczy będą wyglądać tak, jakbyśmy patrzyli wyżej, ponad smartfon.

REKLAMA

Funkcja jest w fazie beta, ale powinna trafić w gotowej wersji do iOS 13.

ios 13 facetime class="wp-image-965593"

Na razie nie wiadomo dokładnie, które modele iPhone’a wspierają nowość. Sprawdziliśmy, że funkcja działa na iPhonie XR i XS Max. Ciekaw jestem, czy podobne rozwiązanie trafi kiedyś do Androida. Pomysł jest świetny i warto byłoby go wdrożyć na całym rynku. To dalece bardziej przydatny drobiazg, niż mapowanie twarzy w filtrach na Snapchacie.

REKLAMA
Najnowsze
Aktualizacja: 2025-11-03T19:00:25+01:00
Aktualizacja: 2025-11-03T17:16:41+01:00
Aktualizacja: 2025-11-03T17:05:11+01:00
Aktualizacja: 2025-11-03T16:49:25+01:00
Aktualizacja: 2025-11-03T15:17:19+01:00
Aktualizacja: 2025-11-03T15:09:44+01:00
Aktualizacja: 2025-11-03T14:40:25+01:00
Aktualizacja: 2025-11-03T14:32:30+01:00
Aktualizacja: 2025-11-03T14:00:59+01:00
Aktualizacja: 2025-11-03T13:14:29+01:00
Aktualizacja: 2025-11-03T11:51:06+01:00
Aktualizacja: 2025-11-03T07:53:33+01:00
Aktualizacja: 2025-11-03T06:45:00+01:00
Aktualizacja: 2025-11-03T06:30:00+01:00
Aktualizacja: 2025-11-03T06:15:00+01:00
Aktualizacja: 2025-11-02T19:29:40+01:00
Aktualizacja: 2025-11-02T17:15:41+01:00
Aktualizacja: 2025-11-02T14:30:00+01:00
Aktualizacja: 2025-11-02T07:12:00+01:00
Aktualizacja: 2025-11-02T07:00:00+01:00
REKLAMA
REKLAMA
REKLAMA