REKLAMA

Wskażesz na problem, a telefon ci wyjaśni jak go naprawić. Tę aktualizację dostali nieliczni (na ten moment)

Gemini Live, tryb rozmowy z AI od Google, staje się bardziej interaktywny. Dzięki nowym funkcjom kamery i udostępniania ekranu możesz uzyskać pomoc na podstawie tego, co AI "widzi". Funkcja trafia na razie do nielicznych, ale zapowiada się obiecująco.

Wskażesz na problem, a telefon ci wyjaśni jak go naprawić. Tę aktualizację dostali nieliczni (na ten moment)
REKLAMA

Przez ostatnie miesiące byliśmy świadkami - powiedzmy to sobie wprost - sporej transformacji w świecie modeli językowych Google. To, co zaczęło się jako Bard, taki trochę eksperymentalny chatbot, stopniowo ewoluowało w coś znacznie bardziej zaawansowanego. Kluczowym momentem było przejście na nową, mocniejszą architekturę Gemini. I to naprawdę zrobiło różnicę – odpowiedzi stały się lepsze, model zaczął lepiej łapać kontekst, a jego ogólne możliwości konwersacyjne po prostu wskoczyły na wyższy poziom. To nie była tylko kosmetyczna zmiana nazwy, ale konkretne przeprojektowanie mechanizmów, które otworzyły drogę do bardziej złożonych zadań i, co ważne, lepszej integracji z innymi usługami Google.

Obecnie Gemini to już nie tylko okienko w przeglądarce. Google intensywnie pracuje, żeby wpleść go bezpośrednio w nasze telefony. Widać to chociażby po dedykowanej aplikacji Gemini na Androida, która w praktyce zastępuje Asystenta Google'a (choć na razie jest bardzo wolny), dając w zamian więcej możliwości opartych na AI. Jeśli masz iPhone'a, integracja odbywa się przez główną aplikację Google. Chodzi o to, żeby Gemini było pod ręką - żeby można było szybko coś sprawdzić, napisać, wymyślić albo dopytać, nawet stojąc w kolejce w sklepie.

REKLAMA

Gemini Live z kamerą i udostępnianiem ekranu – co nowego?

Najświeższa, i całkiem spora, nowinka to wprowadzenie funkcji kamery i udostępniania ekranu w ramach Gemini Live. Samo Gemini Live już wcześniej pozwalało na bardziej naturalne, płynne rozmowy z AI w ponad 45 językach. Teraz jednak ta funkcja dostała niezłego turbodoładowania. Możesz teraz rozmawiać z Gemini, pokazując mu świat przez obiektyw aparatu albo po prostu udostępniając to, co masz na ekranie telefonu.

Jak to działa w praktyce? W interfejsie Gemini Live (albo w tej nakładce Gemini, która czasem się pojawia) znajdziesz nowe przyciski. Ten z ikonką kamery uruchamia tryb wideo na żywo. Kierujesz aparat, na co chcesz i rozmawiasz o tym z Gemini.

Drugi przycisk, „udostępnij ekran z Live”, pozwala AI zajrzeć na twój ekran, więc możesz pytać o rzeczy, które właśnie przeglądasz. Proste i całkiem intuicyjne.

Cała ta magia opiera się na multimodalnych możliwościach AI, które Google rozwijało m.in. w ramach Projektu Astra (może kojarzysz z prezentacji na I/O 2024). Dzięki temu Gemini rozumie nie tylko tekst czy głos, ale też obraz wideo na żywo, analizując obiekty, otoczenie i to, co się dzieje. To spory krok wprzód, bo wcześniej zazwyczaj trzeba było zrobić zdjęcie i je wysłać – teraz wszystko dzieje się płynniej.

Nowe funkcje wchodzą na rynek stopniowo. Jako pierwszy dostają je subskrybenci Gemini Advanced oraz posiadacze najnowszych flagowców, takich jak Google Pixel 9 czy Samsung Galaxy S25 (to dane na początek kwietnia 2025, więc lista zapewne się wydłuży). Jeśli nie widzisz u siebie tych opcji, czasem trzeba wymusić zatrzymanie aplikacji Gemini (lub głównej aplikacji Google) w ustawieniach telefonu i uruchomić ją ponownie. Czasem trzeba po prostu cierpliwie poczekać.

Google podsuwa kilka pomysłów, jak tego używać. Wyobraź sobie, że kierujesz kamerę na zagracone biurko i pytasz Gemini, jak to ogarnąć. Albo próbujesz naprawić rower i pokazujesz mu, co się zepsuło, żeby podpowiedział, co robić.

Może też robić za osobistego doradcę zakupowego – udostępniasz ekran podczas buszowania po sklepach online i pytasz o porównanie produktów albo czy coś pasuje do ubrań, które pokazujesz przez kamerę. Gemini Live może też pomagać w kreatywnych zadaniach, szukając inspiracji w otoczeniu, albo dawać feedback do twojej pracy, np. analizując wpis na blogu, który mu pokażesz na ekranie.

To może cię zaciekawić:

To naprawdę działa. Ma sens?

Powiem szczerze, chociaż często kręcę nosem na AI wpychane wszędzie na siłę, to ta funkcja kamery w Gemini Live naprawdę daje radę. Żeby nie było: tak, sprawdziłem działanie Live na dwóch smartfonach - Galaxy S25 Ultra oraz na Pixelu. Nie chodzi mi tu o jakiś chwilowy efekt wow, który znika po pięciu minutach. To nie jest kolejna wydmuszka dla marketingu, która ładnie wygląda na prezentacji, a w praktyce jest mało użyteczna.

To coś, co faktycznie działa i wydaje się logicznym, wręcz naturalnym rozwinięciem tego, co znamy z Obiektywu Google (czy też Google Lens). Tyle że na sterydach i w trybie na żywo. Zamiast robić statyczne zdjęcie i czekać, aż AI je przetrawi i wypluje wynik, dostajemy płynną interakcję tu i teraz. To fundamentalna różnica.

Sama możliwość prowadzenia rozmowy z AI o tym, co widzi twoja kamera, jest imponujące. To już nie jest proste zapytanie typu „co to jest?”, na które dostajesz jedną odpowiedź. To może być dialog. Pokazujesz Gemini roślinę i pytasz: „Co to za kwiat? A jak o niego dbać? Czy potrzebuje dużo słońca? A może ta ziemia jest dla niego dobra?”. AI widzi to samo co ty i może odpowiadać na bieżąco, dopytywać, sugerować. 

To przekształca interakcję z narzędziem w coś bliższego rozmowie z kompetentnym pomocnikiem, który patrzy ci przez ramię. Właśnie takie zastosowania AI, które realnie ułatwiają życie, rozwiązują konkretne problemy i jakoś naturalnie wpasowują się w to, jak postrzegamy świat, mają największy sens. Dla mnie to naprawdę ciekawy i, co ważniejsze, użyteczny bajer.

A już szczególnie obiecująco wygląda potencjał tej technologii dla osób z różnymi ograniczeniami. I tu naprawdę widzę ogromną wartość. Pomyśl o osobach niedowidzących – mogą skierować telefon na otoczenie i dostać opis głosowy tego, co jest wokół („Przed tobą stół, na nim kubek i książka”), identyfikację przedmiotów („To jest puszka twojej ulubionej herbaty”), pomoc w odczytaniu drobnego druku na etykiecie leku czy nawigacji w nieznanym miejscu („Skręć w lewo za tym zielonym koszem”). 

Albo osoby z daltonizmem – Gemini może pomóc im (...mi) w codziennych czynnościach, np. przy doborze ubrań („Ta koszula jest granatowa, a spodnie burgundowe”).

REKLAMA

Czy AI się myli? Oczywiście, że tak. Zapytałem AI ile ma kcal 100 mililitrów soku, i ta cholera dwa razy upierała się przy nieprawdzie - nawet, gdy pokazałem jej tabelkę z wartościami odżywczymi. Ale nadal: to według mnie krok w dobrą stronę.

REKLAMA
Najnowsze
Aktualizacja: 2025-04-11T20:04:33+02:00
Aktualizacja: 2025-04-11T19:27:06+02:00
Aktualizacja: 2025-04-11T16:36:42+02:00
Aktualizacja: 2025-04-11T16:08:22+02:00
Aktualizacja: 2025-04-11T15:09:11+02:00
Aktualizacja: 2025-04-11T08:27:54+02:00
Aktualizacja: 2025-04-11T05:53:00+02:00
Aktualizacja: 2025-04-10T21:22:33+02:00
Aktualizacja: 2025-04-10T20:19:04+02:00
REKLAMA
REKLAMA
REKLAMA