"Brak zgody na kradzież twoich danych to dla nas wytyczna, nie obowiązek". Bezczelność Google'a przekracza wszelkie granice
W praktyce oznacza to, że możesz zablokować wykorzystanie swoich treści przez narzędzia AI Google, a firma i tak zrobi po swojemu. Jeśli myślałeś, że możesz kontrolować swoje dane w Internecie, najnowsze rewelacje rzucają na to zupełnie nowe światło.

Podczas przesłuchania w sądzie wiceprezes produktu w Google DeepMind, Eli Collins, przyznał coś, co wielu obserwatorów rynku technologicznego wprawiło w osłupienie. Okazuje się, że nawet jeśli wydawca treści zdecyduje się na wyłączenie swoich materiałów z procesu trenowania systemów AI Google'a, firma i tak może wykorzystać te treści do trenowania swoich produktów związanych z wyszukiwarką, takich jak AI Overviews.
Collins wyjaśnił, że kontrolki umożliwiające wydawcom rezygnację z wykorzystania ich treści do trenowania AI obejmują wyłącznie prace Google DeepMind, a nie inne oddziały firmy. Innymi słowy, jeśli Google uzna daną treść za przydatną do rozwoju swoich systemów wyszukiwania opartych na AI, to skorzysta z niej bez względu na preferencje właściciela tej treści.
Czytaj też:
Gdy weźmiesz model Gemini i umieścisz go w dziale wyszukiwania, dział wyszukiwania ma możliwość trenowania na danych, z których wydawcy zrezygnowali, prawda? - zapytała prawniczka Departamentu Sprawiedliwości. Zgadza się - do wykorzystania w wyszukiwarce - odpowiedział Collins.
Opt-out jako zasłona dymna
Praktyka stosowania opcji opt-out (konieczność aktywnej rezygnacji) zamiast opt-in (świadoma zgoda) w przypadku trenowania AI budzi coraz więcej kontrowersji. Niektórzy eksperci nazywają to wręcz powolną trucizną, która pod pozorem dawania wyboru w rzeczywistości go ogranicza.
Problem polega na tym, że mechanizm opt-out stawia użytkownika w niekorzystnej pozycji - musi on aktywnie poszukiwać sposobu, by zrezygnować z czegoś, na co nigdy świadomie się nie godził. To jak sytuacja, w której ktoś zabiera twój samochód, a potem informuje, że jeśli chcesz go odzyskać, musisz wypełnić odpowiedni formularz w urzędzie miasta.
Jak pokazują najnowsze doniesienia, nawet gdy zdecydujesz się na opt-out, Google może zinterpretować twoją decyzję bardzo wybiórczo. Nie chcesz, żebyśmy trenowali nasz model AI na twoich danych? Okej, nie będziemy... chyba że mówimy o wyszukiwarce, wtedy twoja zgoda nas nie obchodzi.
Prawny labirynt i szara strefa
Z prawnego punktu widzenia praktyki Google'a budzą poważne wątpliwości. Produkty AI specyficzne dla wyszukiwania wymagają, aby Google tworzyło własne treści jako bezpośredni substytut treści, do których musi się odwoływać. Istnieje duże pytanie, czy AI Overviews są legalne w świetle prawa autorskiego.
Google ma wyraźne pozwolenie na indeksowanie treści do celów wyszukiwania, ale nie oznacza to, że może tworzyć własne treści oparte na pracach objętych prawami autorskimi. To trochę jak sytuacja, w której bibliotekarz może skatalogować książki, ale nie może tworzyć własnych wersji tych książek w oparciu o oryginały.
Rewolucja AI kosztem prywatności. Podwójne standardy gigantów technologicznych
Sztuczna inteligencja niewątpliwie rewolucjonizuje naszą rzeczywistość, ale nie powinno to odbywać się kosztem podstawowych praw do prywatności i kontroli nad własnymi danymi. Krótkoterminowe korzyści nie powinny przesłaniać długoterminowych kosztów dla społeczeństwa.
Ironią jest to, że te same firmy, które gorliwie zbierają nasze dane do trenowania swoich modeli AI, często same blokują dostęp do swoich treści innym podmiotom. W lipcu ubiegłego roku Google zaktualizował swoją politykę prywatności, zezwalając na wykorzystanie publicznych informacji do pomocy w trenowaniu modeli AI Google. Jednocześnie firma umożliwiła wydawcom blokowanie web crawlera używanego do trenowania ChatGPT - narzędzia konkurencyjnego wobec własnych produktów Google'a.
Takie podwójne standardy są trudne do zaakceptowania. Z jednej strony firmy technologiczne argumentują, że swobodny dostęp do danych jest niezbędny dla postępu AI, z drugiej - gdy chodzi o ich własne interesy, nagle pojawiają się opcje blokowania i ograniczania.
Jaka przyszłość nas czeka?
Najnowsze doniesienia o praktykach Google'a to nie tylko ciekawostka ze świata technologii, ale sygnał ostrzegawczy dotyczący kierunku, w jakim zmierzamy. Jeśli pozwolimy, by giganci technologiczni interpretowali nasze preferencje dotyczące prywatności wedle własnego uznania, to gdzie jest granica?
Jako entuzjaści technologii powinniśmy nie tylko cieszyć się nowymi możliwościami, jakie oferuje AI, ale także aktywnie domagać się jasnych, uczciwych i transparentnych zasad jej rozwijania. Być może nadszedł czas, by regulatorzy na całym świecie przyjrzeli się bliżej praktykom firm technologicznych i wymusili przejście z modelu opt-out na opt-in jako międzynarodowego standardu.
W świecie, gdzie dane stały się nowym złotem, kontrola nad nimi powinna należeć do ich pierwotnych właścicieli - nas wszystkich. Czas przypomnieć gigantom technologicznym, że nasza prywatność to nie opcja, którą można zignorować, gdy staje na drodze do większych zysków.
*Zdjęcie otwierające: DB Photos / Shutterstock