REKLAMA

Instagram, jakiego znacie, właśnie umiera. Szef nie ma złudzeń

Adam Mosseri w swoim noworocznym wpisie zapowiadającym trendy na bieżący rok ogłosił zmianę filozofii działania platform: zamiast ścigać fałszywki trzeba zacząć certyfikować to, co prawdziwe. 

Instagram fake Mosseri 2026
REKLAMA

Wszystko, co sprawiało, że twórcy mieli znaczenie - autentyczność, kontakt, niepodrabialny głos - stało się dostępne dla każdego, kto ma odpowiednie narzędzia - pisze Mosseri. I trudno mu odmówić racji. Algorytmy generatywne rozwijają się szybciej, niż ktokolwiek przewidywał, a ich wykrywanie staje się z roku na rok bardziej iluzoryczne.

Meta wydała w 2024 r. około 40 mld dol. na rozwój AI. W ubiegłym roku ta kwota miała wzrosnąć nawet do 65 mld. Paradoks polega na tym, że te same inwestycje, które napędzają rozwój generatywnych modeli, jednocześnie utrudniają rozpoznawanie ich efektów. 

REKLAMA

To też jest ciekawe:

Naukowcy z University of Maryland przetestowali 14 narzędzi do wykrywania treści AI. Wyniki? Żadne nie przekroczyło 80 proc. skuteczności, a większość nie dobiła nawet do 70 proc.. Jeszcze gorzej wygląda sytuacja w edukacji: Washington Post ujawnił, że Turnitin - standard w akademickim antyplagiacie - myli się w połowie przypadków, oznaczając ludzkie teksty jako wygenerowane przez AI. Średnia skuteczność detektorów tekstowych to zaledwie 39,5 proc.

A to dopiero początek problemów.

Watermarki? Wystarczy screenshot

W świecie grafiki i zdjęć sytuacja jest równie ponura. Badacze IEEE Spectrum pokazali, że watermarki C2PA - standardu, który miał być złotym środkiem na walkę z deepfake’ami - można usunąć w… dwie sekundy. Bez kodowania, bez hakowania. Wystarczy zrzut ekranu. Google SynthID, system oznaczający już ponad 10 mld obrazów, daje się obejść z 79-procentową skutecznością.

C2PA, czyli Coalition for Content Provenance and Authenticity, to standard, który zakłada podpisywanie zdjęć kryptograficznym certyfikatem już w momencie ich wykonania. Zamiast udowadniać, że coś jest fałszywe mamy potwierdzać, że jest prawdziwe.

Brzmi świetnie - i faktycznie, branża sprzętowa rzuciła się na ten pomysł. Ponad 90 proc. producentów aparatów zadeklarowało wsparcie. Leica wdrożyła C2PA już w 2023 r., Sony aktualizuje kolejne modele Alpha, Canon dodał standard do EOS R1 i R5 Mark II, Nikon szykuje aktualizacje dla Z6 III, Z8 i Z9. Nawet Google Pixel 10 obsługuje C2PA.

AFP przetestowała system podczas wyborów w Stanach Zjednoczonych w 2024 r., łącząc podpis C2PA z niewidocznym watermarkiem IMATAG. Dziennikarze mogli weryfikować zdjęcia za pomocą wtyczki WeVerify. Działało.

Tyle że szef Instagrama o czymś zapomniał

C2PA ma trzy fundamentalne bariery: złożoność wdrożenia, koszt certyfikatów x.509 który wyklucza mniej uprzywilejowanych twórców i platformy społecznościowe, które rutynowo usuwają metadane. Jeśli Instagram lub Facebook skompresują zdjęcie i przy okazji wytną podpis cyfrowy, to cały system przestaje mieć sens. Dlatego trwają prace nad Durable Content Credentials - połączeniem metadanych, watermarków i fingerprintingu, które mają przetrwać typowe transformacje.

Do tego dochodzą kwestie polityczne. W krajach autorytarnych obowiązek podpisywania materiałów prawdziwym nazwiskiem może być śmiertelnie niebezpieczny. Kto będzie decydował, które podmioty są zaufane? Czy nie powstanie nowy system kastowy, w którym tylko certyfikowani twórcy będą uznawani za wiarygodnych?

Mosseri ostrzega: Feedy zaczynają się wypełniać syntetycznym wszystkim. I nie przesadza. Termin AI slop - określający masowo generowane, niskiej jakości treści AI - został słowem roku 2025 według Merriam-Webster. Liczba wzmianek o tym zjawisku wzrosła dziewięciokrotnie w ciągu roku. Według firmy Graphite ponad połowa anglojęzycznych artykułów w sieci to już treści wygenerowane przez AI.

Instagram porzuca perfekcję. Ten feed jest martwy

Mosseri nie owija w bawełnę: Ten feed jest martwy. Instagram - platforma, która zbudowała swoją potęgę na perfekcyjnych, wypolerowanych zdjęciach - musi zmienić DNA. 

Fotografia pochlebiająca jest tania w produkcji i nudna w konsumpcji. Ludzie chcą treści, które wydają się prawdziwe - pisze szef platformy.

Przez lata Instagram promował estetykę ideału, profesjonalnych kadrów i wygładzonej skóry. Teraz ta sama platforma twierdzi, że perfekcja jest podejrzana, a niedoskonałość staje się dowodem autentyczności. Młodsi użytkownicy już dawno to zrozumieli. Zamiast publikować w głównym feedzie, wysyłają znajomym zdjęcia butów i niepochlebne selfie przez Relacje i wiadomości prywatne.

To część większego trendu. TikTok zbudował potęgę na autentyczności. LinkedIn - tak, nawet LinkedIn - promuje osobiste treści zamiast korporacyjnych komunikatów. Badania pokazują, że profesjonalnie produkowane materiały tracą na oglądalności od 2022 r., podczas gdy surowy user-generated content rośnie.

Twórcy są wściekli

Dla fotografów i twórców wizualnych to cios w samo serce. Instagram od miesięcy zasypywany jest skargami: algorytm nie pokazuje postów nawet własnym obserwatorom. Szacunki mówią o 5-7 proc. zasięgu. Platforma konsekwentnie faworyzuje Rolki kosztem zdjęć.

Grudniowa aktualizacja algorytmu miała nagradzać oryginalnych twórców, ale niewielu w to wierzy. Wskaźniki zaangażowania spadły do rekordowo niskiego poziomu 0,45-0,5 proc. To aż 28 proc. mniej niż rok wcześniej. Coraz więcej twórców mówi wprost o masowym exodusie.

Mosseri stawia sprawę brutalnie szczerze: Przez większość mojego życia mogłem z dużym prawdopodobieństwem założyć, że zdecydowana większość fotografii lub wideo które widzę to w dużej mierze dokładne uchwycenie momentów, które wydarzyły się w rzeczywistości. To wyraźnie już nie jest prawda. To zdanie jest jak epitafium. Przez dwie dekady żyliśmy w przekonaniu, że obraz jest dowodem. Teraz dowód wymaga dowodu.

Instagram proponuje pięć filarów odbudowy zaufania: rozwój narzędzi kreatywnych (zarówno AI, jak i tradycyjnych), jasne oznaczanie treści generowanych przez AI, współpracę z producentami sprzętu przy weryfikacji autentyczności, „odcisk palca” na prawdziwych mediach oraz sygnały wiarygodności kont publikujących treści. 

Brzmi ambitnie, ale jest w tym pewien haczyk.

Meta umywa ręce

W praktyce Mosseri przerzuca odpowiedzialność na wszystkich dookoła. To nie Meta - firma z budżetem większym niż PKB niektórych państw - ma rozwiązać problem detekcji treści AI, to producenci aparatów i sami użytkownicy mają zadbać o autentyczność. 

Ironia sytuacji jest oczywista: to właśnie Meta agresywnie rozwija narzędzia generatywne, które doprowadziły do obecnego chaosu. A teraz oczekuje, że inni posprzątają.

Techniczne remedium, czyli C2PA, wciąż raczkuje. Standard wymaga współpracy całego ekosystemu: producentów aparatów, platform społecznościowych, agencji informacyjnych, twórców i zwykłych użytkowników. Wystarczy jedno słabe ogniwo, by cały łańcuch się rozsypał.

Do tego dochodzi problem edukacji. Większość ludzi nie ma pojęcia, czym jest kryptograficzny podpis cyfrowy, a tym bardziej - jak go weryfikować. Czy przeciętny użytkownik Instagrama będzie sprawdzał certyfikat C2PA przed uwierzeniem w zdjęcie? Czy brak certyfikatu stanie się automatycznym sygnałem to fake, nawet jeśli zdjęcie jest prawdziwe? Czy obecność certyfikatu nie stworzy fałszywego poczucia bezpieczeństwa, skoro potwierdza jedynie, że obraz powstał na konkretnym urządzeniu - a nie że przedstawia prawdę?

To pytania, na które nikt nie ma odpowiedzi.

Nie dziwię się kryzysowi zaufania

Deepfake’i były największym problemem przed wyborami w 2024 i 2025 r. I faktycznie - pojawiły się w kampaniach w Pakistanie, Bangladeszu, Indonezji i kilku innych krajach. W Stanach Zjednoczonych 33 proc. obywateli uważało media za najbardziej zagrożone przez deepfake’i, a 28 proc. obawiało się manipulacji wyborami. Unia Europejska, przewidując skalę problemu, wprowadziła w Digital Services Act obowiązek oznaczania treści AI do sierpnia minionego roku.

A jednak apokalipsa dezinformacji nie nadeszła. Deepfake’i okazały się mniej skuteczne, niż przewidywano. Użytkownicy stali się bardziej sceptyczni, a tradycyjne metody manipulacji - wyrwane z kontekstu nagrania, emocjonalne narracje, półprawdy - wciąż działają lepiej.

To jednak nie powód do świętowania. Problem nie zniknął. On się… zadomowił. AI slop obniża standardy dla wszystkich. W minionym roku daliśmy temu zjawisku klucze do naszego cyfrowego świata.

Mosseri ma rację w jednym: ludzie będą musieli nadpisać swój instynkt, by ufać temu, co widzą online. Przechodzimy od zasady ufaj, chyba że masz powód, by wątpić do wątp, chyba że możesz zweryfikować. To zmiana psychologicznie obciążająca. Człowiek ewoluował, by ufać własnym zmysłom. Świat, w którym widzenie nie znaczy wierzenie to świat większego stresu poznawczego i erozji społecznego zaufania.

Instagram i Meta - firmy, które zbudowały swoje imperia na tym, że ludzie dzielili się wizualnym zapisem swojego życia - teraz mówią: Nie możecie już ufać temu, co widzicie. Przykro nam. Ale może kupicie nasz aparat z certyfikatem?.

Będziemy musieli nauczyć się nowych form cyfrowej higieny, nowych odruchów sceptycyzmu, nowych sposobów weryfikacji. Instagram nie ma rozwiązania. Meta nie ma rozwiązania. Producenci aparatów mają fragment rozwiązania. 

REKLAMA

Reszta spada na nas. Autentyczność staje się najcenniejszym - i najbardziej zagrożonym - zasobem.

Jest tego więcej
Ustaw Spider’s Web jako preferowane medium w Google

REKLAMA
Najnowsze
Aktualizacja: 2026-01-01T16:10:00+01:00
Aktualizacja: 2026-01-01T16:00:00+01:00
Aktualizacja: 2026-01-01T08:40:00+01:00
Aktualizacja: 2026-01-01T08:20:00+01:00
Aktualizacja: 2026-01-01T08:10:00+01:00
Aktualizacja: 2025-12-31T20:12:00+01:00
Aktualizacja: 2025-12-31T19:11:00+01:00
Aktualizacja: 2025-12-31T17:09:00+01:00
Aktualizacja: 2025-12-31T15:07:00+01:00
Aktualizacja: 2025-12-31T13:55:40+01:00
Aktualizacja: 2025-12-31T13:05:00+01:00
Aktualizacja: 2025-12-31T12:21:17+01:00
Aktualizacja: 2025-12-31T11:12:15+01:00
Aktualizacja: 2025-12-31T11:04:00+01:00
Aktualizacja: 2025-12-31T10:21:26+01:00
Aktualizacja: 2025-12-31T09:02:00+01:00
Aktualizacja: 2025-12-31T06:23:00+01:00
Aktualizacja: 2025-12-31T06:00:00+01:00
Aktualizacja: 2025-12-30T20:19:30+01:00
Aktualizacja: 2025-12-30T19:56:23+01:00
Aktualizacja: 2025-12-30T19:22:53+01:00
Aktualizacja: 2025-12-30T19:05:57+01:00
REKLAMA
REKLAMA
REKLAMA