Szef Instagrama mówi wprost: nie wierzcie w to, co widzicie na Instagramie
Szef Instagrama przyznaje otwarcie, że choć platformy należące do Mety mają systemy oznaczające treści jako wygenerowane przez AI, to są one dziurawe. Na tyle dziurawe, że twoja intuicja i fact-checking poza Instagramem są skuteczniejsze.
Misinformacja i dezinformacja to problemy trapiące nas od lat, jednakże zjawiska te weszły "na nowy poziom" wraz z rozkwitem generatywnej sztucznej inteligencji. Bowiem za pomocą kilku kliknięć - i może niezbyt dużej sumy pieniędzy - każdy z nas może sobie pozwolić na wygenerowanie wiarygodnie brzmiącego tekstu, stosunkowo realistycznie wyglądającej grafiki, a nawet dźwięku czy tekstu.
O ile w mediach mówi się stosunkowo często by mieć się na baczności przeglądając wszelkiego rodzaju treści w internecie, o tyle rzadko słyszy się by jakikolwiek duży serwis lub jego przedstawiciele mówili głośno: bądźcie czujni korzystając z naszej platformy.
Adam Mosseri radzi, by niezbyt ufać temu, co widzisz na zarządzanym przez niego serwisie
Na tego typu krok zdecydował się Adam Mosseri, dyrektor generalny Instagrama i Threads, który na swoim profilu w serwisie Threads opublikował całkiem długi wpis dotyczący podejścia do treści wygenerowanych przez AI na Instagramie - i treści publikowanych tam ogólnie.
Jak powiedział, generatywna sztuczna inteligencja "bez wątpienia tworzy treści, które trudno odróżnić od nagrań rzeczywistości", a jej zdolności w szybkim tempie się udoskonalają. Choć Instagram i inne platformy Mety mają odpowiednie systemy pozwalające oznaczać treści wygenerowane przez AI i oznaczenia te nie mogą zostać usunięte przez użytkowników, to systemy nie są doskonałe i tu i ówdzie mogą przejść przez nie nieoznaczone posty.
[...] Być może stało się to lata temu, ale wydaje się, że właśnie teraz wspólnie doceniamy, że przy ocenie ważności oświadczenia ważniejsze stało się rozważenie, kto mówi daną rzecz, niż co mówi. Naszą rolą jako platform internetowych jest oznaczanie treści generowanych jako AI najlepiej jak potrafimy. Ale niektóre treści nieuchronnie prześlizgną się przez luki [w systemach], a ponadto nie wszystkie fałszywe informacje są generowane przez sztuczną inteligencję, więc musimy również zapewnić kontekst o tym, kto je udostępnia, abyś mógł sam ocenić, w jakim stopniu chcesz zaufać publikowanych przez te osoby treściom.
Napisał Adam Mosseri
Jednocześnie przytoczył on słowa swojego przyjaciela, przedsiębiorcy Samuela Lessina, który "dziesięć lat temu przekonał" Mosseriego, że "każde twierdzenie powinno być oceniane nie tylko na podstawie jego treści, ale także wiarygodności osoby lub instytucji, która je przedstawia".
Co warto zaznaczyć, choć szef Instagrama wspomniał o zapewnianiu przez serwisy "kontekstu o tym, kto udostępnia informacje", to wszystkie platformy należące do Mety obecnie posiadają jedynie systemy "znaczków" przy nazwach wyświetlanych oraz (stosunkowo dziurawe) systemy oznaczania obrazów wygenerowanych przez AI. Tak więc nie do końca wiadomo czy w ten sposób Mosseri zapowiedział kolejne zmiany w sposobie wyświetlania treści, czy jedynie dość barwnie opisał aktualnie stosowane rozwiązania.
Może zainteresować cię także:
Zdjęcie główne: PixieMe / Shutterstock