Masz swoje cichutkie, ukryte obawy? Facebook sprytnie je odkryje i podsunie takie reklamy, by zmieniły się w lęki. NEWS SW+

Algorytmy reklamowe Facebooka mogą żerować na ludzkich słabościach, a proponowane przez platformę narzędzia do ich ograniczania są nieskuteczne. Fundacja Panoptykon przeprowadziła eksperyment dowodzący, że gigant omija prawo chroniące użytkowników. I to tak, że może nawet wywołać u użytkowników stany lękowe.

Facebook odkryje Twoje obawy i podsunie takie reklamy, by zmieniły się w lęki

Joanna, matka małego dziecka, mało aktywna na Facebooku, raczej jego pasywna użytkowniczka. Tylko od czasu do czasu publikowała materiały związane z wykonywaną pracą. Nigdy nie wrzucała do serwisu prywatnych zdjęć ani informacji. 

To ona – choć jej imię jest zmienione, bo kobieta chciała pozostać anonimowa – stała się bohaterką analizy wykonanej przez zajmującą się cyfrowymi prawami człowieka Fundację Panoptykon wraz z Piotrem Sapieżyńskim, naukowcem z Northeastern University zajmującym się badaniem algorytmów reklamowych.

Specjaliści przeanalizowali przykład tej kobiety, na której stan zdrowia psychicznego, jak się okazuje, miał wpływ Facebook. A konkretnie to, jakie treści zaczął podsuwać jej serwis społecznościowy. Przeprowadzili też eksperyment sprawdzający, jaką skuteczność w ograniczeniu treści reklamowych będą miały proponowane przez platformę narzędzia do tego, aby niechciane treści nie pojawiały się już na naszej tablicy.

Wnioski, choć wyciągnięte na podstawie tylko jednego przypadku, są alarmujące.

Reklamy – lęk – kolejne reklamy

Wróćmy do Joanny. Mimo swojej bierności w korzystaniu z Facebooka w 2019 roku, kiedy była w ciąży, spostrzegła, że na jej tablicy (newsfeedzie) pojawia się coraz więcej reklam nawiązujących do badań prenatalnych czy opieki okołoporodowej.

– Kładłam to na karb tego, że dużo czytałam wtedy o rozwoju ciąży, potrzebnych badaniach itd. Niby wiedziałam, że reklamy są mocno spersonalizowane, ale trochę dziwiło mnie, że dotykają wrażliwych informacji o moim życiu – mówi Joanna i dodaje, że wówczas machnęła na ten problem ręką.

Niechciane reklamy na Facebooku nasiliły zaburzenia lękowe – zdjęcie ilustracyjne. Fot. KieferPix / Shutterstock.com

Jednak temat wrócił, kiedy na świat przyszło jej dziecko. Zaczęła wtedy sporo czytać o zdrowiu, nie tylko dzieci, ale i rodziców. Zainteresowała się tematem nowotworów, SMA. Zaczęła nawet wspierać niektóre zbiórki na leczenie, choć nie z własnego konta bankowego, lecz jej partnera. Efekt: na Facebooku została zalana reklamami o zdrowiu, badaniach np. wykrywających nowotwory czy choroby genetyczne dzieci, ale też o samych chorobach.

Te niby niegroźne informacje zaczęły jednak na nią niekorzystnie działać – nasiliły zaburzenia lękowe, z którymi kobieta zmagała się od dłuższego czasu.

– Bałam się o zdrowie swojego dziecka. Wpadałam w spiralę lęku, myśląc „co będzie, jak mnie albo moje dziecko spotka poważna choroba”. A jednocześnie nie potrafiłam oprzeć się temu, aby kliknąć kolejne reklamy pojawiające się na tablicy Facebooka. Czytałam o internetowych zbiórkach na leczenie i nie mogłam pozbyć się tych historii z głowy. Po chwili sama sprawdzałam, czy nie mam opisywanych objawów, a następnego dnia dostawałam reklamy o komercyjnych badaniach przesiewowych, fundacji wspierających ludzi leczących się na raka i tak dalej – opowiada.

Wtedy Joanna postanowiła wyrzucić niechciane reklamy ze swojego Facebooka i tak trafiła do Fundacji Panoptykon. Ta zaś postanowiła wykorzystać jej przypadek do przeprowadzenia eksperymentu sprawdzającego to, jak skuteczne w ograniczaniu niechcianych reklam będą udostępniane przez Facebooka rozwiązania.

Falowanie ograniczania reklam

Analiza Panoptykonu i Sapieżyńskiego trwała dwa miesiące. W tym czasie na facebookowym profilu Joanny modyfikowano ustawienia dotyczące zainteresowań i targetowania reklam tak, aby usunąć z nich kategorie związane z rodzicielstwem i zdrowiem. Szczególnie ważna była ta ostatnia, bo to związane z nimi reklamy nasilały lęki Joanny.

– Platforma oferuje użytkownikom narzędzia, które w teorii mają sprawić, że nie będą dostawać niechcianych reklam. W badanym przypadku użytkowniczka chciała wykorzystać taką możliwość, czyli opcję usuwania zainteresowań i ograniczenie targetowania, ale nie przyniosło to oczekiwanych efektów. Zbadaliśmy ok. 2 tys. reklam, także po zmianach ustawień. Okazało się jednak, że poziom liczby reklam zawierających niechcianą treść spadał tylko na krótko, aby szybko wrócić do niemal takiego samego poziomu jak wcześniej. Oznacza to, że algorytm reklamowy platformy żeruje na ludzkich słabościach, aby uzyskać więcej kliknięć, odsłon i większą efektywność – mówi nam Dominika Chachuła z Fundacji Panoptykon. I dodaje, że wiele mówi się o tym, jak targetowanie na Facebooku i innych platformach społecznościowych wpływało na wybory polityczne, dezinformację i demokrację. – A wciąż niewiele o tym, że może mieć też negatywny wpływ na zdrowie psychiczne czy destrukcyjne postawy np. osób uzależnionych od hazardu – dodaje.

Joanna wspomina, że w czasie badania nie spostrzegła, aby ilość niechcianych reklam na Facebooku była wyraźnie mniejsza. – Miałam poczucie, że cały czas je widzę. Jedynie czasem nieco rzadziej. To było takie falowanie – mówi.

To falowanie doskonale widać na wykresach z analizy danych reklamowych jej facebookowego konta. – W momencie, gdy użytkowniczka wyłączyła kategorię związaną z rodzicielstwem, zaczęła rosnąć liczba reklam związanych ze zdrowiem, a kiedy usunięto też zainteresowania nawiązujące do zdrowia, to ilość takich reklam delikatnie spadła, ale bardzo szybko zaczęła się podnosić, aby ostatecznie wrócić na niemal ten sam poziom – mówi Karolina Iwańska, prawniczka z Fundacji Panoptykon.

– Prawdopodobnie są za to odpowiedzialne algorytmy, które optymalizują targetowanie reklam. Systemy mają za zadanie wyselekcjonować wśród wszystkich osób spełniających kryteria reklamodawców te, które będą najbardziej skłonne kliknąć reklamę. Robią to w oparciu o analizę wcześniejszych zachowań użytkowników i osób do nich podobnych. A ponieważ Joanna wcześniej klikała w reklamy nawiązujące do zdrowia, to była idealnym celem kolejnych. To pokazuje, że algorytmiczna fiksacja na osiągnięciu „targetów” kampanii reklamowych nie bierze pod uwagę negatywnego wpływu tych reklam na użytkowników i ich wprost wyrażonych preferencji – dodaje. 

Wykresy przedstawiają modyfikacje ustawień dotyczących ograniczanych kategorii reklamowych. Fot. Fundacja Panoptykon

– Reklamy zdrowotne są dla mnie po prostu szkodliwe. Tym bardziej czułam się fatalnie, mocno sfrustrowana, kiedy okazało się, że narzędzia do ich ograniczania istnieją tylko w teorii, bo w praktyce jest to mocno iluzoryczne. Wychodziło na to, że jedyną drogą, aby się od nich uwolnić, jest likwidacja konta, ale nie mogę tego zrobić, bo wykorzystuję je zawodowo. Wciąż więc dostaję te reklamy, mam z nimi problem, bo trudno mi jest je ignorować, a jednocześnie to napędza mój lęk – mówi Joanna.

Logika algorytmu reklamowego na Facebooku

Joanna przy wsparciu Fundacji Panoptykon zwróciła się do Facebooka z wnioskiem o dostęp do danych, na podstawie których algorytm przypisuje jej tak wrażliwe zainteresowania, jak „onkologia” czy „hospicjum” i dopasował niechciane reklamy. Iwańska twierdzi jednak, że Facebook nie udzielił wystarczającej odpowiedzi.

Algorytm Facebooka wyciąga wnioski na nasz temat nie tylko z informacji, które sami mu podaliśmy. Fot. BlurryMe / Shutterstock.com

– Facebook targetuje reklamy w oparciu o dane wywnioskowane o użytkownikach. Jego algorytm wyciąga wnioski na temat naszych cech i zainteresowań nie tylko z informacji, które sami mu podaliśmy, ale także z naszej aktywności w serwisie i poza nim, monitorowanej przez narzędzia śledzące, które posiada ta platforma. Użytkownicy powinni mieć dostęp do tych danych i pełną kontrolę nad nimi, zwłaszcza że algorytmiczne obserwacje mogą prowadzić do ujawnienia słabości lub innych cech, których wykorzystania do personalizacji reklam użytkownicy by sobie nie życzyli. Nasze studium przypadku pokazuje, że jest zupełnie odwrotnie – mówi Karolina Iwańska. Dodaje, że choć usunięcie wrażliwych zainteresowań sprawiło, że reklamodawcy nie mogli ich już wprost wykorzystywać, to jednak nie zmieniło to doświadczenia Joanny. Nie miało bowiem wpływu na działanie samego algorytmu, którego zadaniem jest w końcu znalezienie osób podatnych na daną reklamę. – Zgodnie z prawem Facebook powinien uzyskać ich zgodę na wykorzystanie danych do targetowania reklam, szczególnie gdy mowa o danych wrażliwych np. dotyczących zdrowia – dodaje ekspertka.

Fundacja Panoptykon zapytała również Facebooka o to, jakie dane o Joannie wykorzystał, aby podsunąć jej konkretne reklamy. – Początkowo dostaliśmy automatycznie wygenerowaną odpowiedź. Później już osoba z zespołu ochrony prywatności Facebooka przesłała nam długiego maila, który jednak w dużej mierze zawierał skopiowane fragmenty polityki prywatności, a nie odnosił się do konkretnej sytuacji naszej użytkowniczki. Facebook stwierdził, że zainteresowania dotyczące zdrowia to nie to samo, co dane wrażliwe oraz że nie musi wyjaśniać, jak działa algorytm dobierający reklamy użytkownikom – dodaje.

Iwańska przypomina jednak, że zgodnie z art. 22 unijnego rozporządzenia o ochronie danych osobowych (RODO) w sytuacji, gdy algorytm podejmuje decyzje mające duży wpływ na użytkownika, ten ma prawo uzyskać wyjaśnienie logiki działania systemu.

– Facebook twierdzi, że przepis ten nie ma zastosowania, bo decyzje jego algorytmu nie mają istotnego wpływu na Joannę. Ona sama twierdzi jednak, że jest inaczej, bo niechciane reklamy oparte na wnioskach wyinterpretowanych na jej temat przez algorytm wzmacniają jej lęki i niekorzystnie wpływają na jej zdrowie psychiczne – mówi Iwańska i dodaje, że przepychanka na argumenty z Facebookiem może skończyć się skargą do Urzędu Ochrony Danych Osobowych. Według ekspertki Panoptykonu użytkowniczka powinna mieć możliwość zdecydowania, czy chce, żeby Facebook personalizował jej reklamy, a jeśli tak, to jakie informacje na jej temat mogą zostać wykorzystane w tym celu. – Facebook twierdzi jednak, że spersonalizowana reklama to nieodłączna część jego usługi i nie daje użytkownikom wyboru ani możliwości skorygowania tego, co o nich wywnioskował – dodaje Iwańska.

Fundacja Panoptykon twierdzi, że RODO nie daje użytkownikom platform internetowych. Fot. chainarong06 / Shutterstock.com

Podobny spór rozstrzygał pod koniec lipca CNPD, czyli urząd ochrony danych osobowych w Luksemburgu. Nałożył on na innego amerykańskiego giganta – firmę Amazon – rekordową karę w wysokości 746 mln euro za naruszenie RODO za niezgodne z prawem targetowanie reklam.

Amazon przekonywał, że reklama jest częścią świadczonej przez niego usługi e-commerce, ale urząd uznał, że firma nie może zmuszać użytkowników i użytkowniczek do akceptowania śledzącej reklamy w pakiecie z zakupami online.

– Jeśli decyzja luksemburskiego organu zostanie utrzymana (Amazon zapowiadał odwołanie – red.), to może mieć kapitalne znaczenie również dla procesu wytoczonego z takich samych powodów Facebookowi przez austriacką organizację NOYB – European Center for Digital Rights. Niedawno do Trybunału Sprawiedliwości Unii Europejskiej trafiło w tej sprawie pytanie prejudycjalne – mówi prawniczka.

– Póki co jednak nasz przypadek pokazuje, że RODO nie daje użytkownikom platform internetowych wystarczającej ochrony przed ich inwazyjnym systemem reklamowym. Szansą na zmianę tej sytuacji jest procedowany obecnie w UE Akt Usług Cyfrowych (DSA). W tej chwili wraz z innymi organizacjami praw cyfrowych z Europy staramy się przekonać polityków w Brukseli, żeby wreszcie zrobili z tą kwestią porządek i najlepiej zakazali albo przynajmniej ograniczyli wykorzystywanie danych osobowych do personalizowania reklam – podkreśla Iwańska.

Co na to Facebook?

Zapytaliśmy przedstawiciela Facebooka o eksperyment Fundacji Panoptykon i przyczyny nieskuteczności oferowanych przez platformę narzędzi do ograniczania niechcianych reklam. Biuro prasowe serwisu społecznościowego udzielając odpowiedzi nie odniosło się jednak do sytuacji konkretnej użytkowniczki, której dotyczyła analiza.

W ogólnym stanowisku podało, że Facebook oferuje „szereg różnych sposobów kontroli wyświetlanych przez serwis reklam”.

- Istnieje możliwość ukrycia wszystkich reklam pochodzących od konkretnego reklamodawcy, a także zdecydowania, czy powinniśmy personalizować reklamy wykorzystując dane pochodzące od partnerów. Ponadto każdy może edytować listę interesujących go tematów oraz blokować reklamy bazujące na listach klientów stworzonych przez reklamodawcę. W menu ustawień jasno komunikujemy użytkownikom, że usunięcie konkretnej kategorii zainteresowań nie zablokuje wszystkich reklam z powiązanych kategorii, dlatego oferujemy szereg innych metod dostosowywania swoich preferencji – poinformowało nas biuro prasowe Facebooka.

Biuro prasowe serwisu potwierdziło, że Facebook wykorzystuje informacje przekazane przez użytkowników, informacje na temat ich aktywności na platformie, a także pochodzące z innych stron, aplikacji czy sklepów, przekazane Facebookowi przez zewnętrzne podmioty. A także, że reklamodawcy mogą targetować reklamy opierając się na kategoriach takich jak wiek czy płeć, a także na działaniach podejmowanych przez użytkowników takich jak polubienie strony na Facebooku czy kliknięcie na reklamę. Jednak – według Facebooka - zainteresowania nie stanowią danych osobowych.

Biuro prasowe Facebooka przesłało nam również poradnik dotyczący tego, jak zarządzać reklamami oglądanymi na Facebooku. Wyjaśniło w nim, że menu „Preferencje reklamowe” umożliwia przeglądanie, dodawanie oraz usuwanie preferencji reklamowych opierających się między innymi na informacjach profilowych, działaniach na Facebooku oraz stronach internetowych i aplikacjach używanych poza Facebookiem. Na przykład, jeśli na liście preferencji znajduje się „kolarstwo”, Facebook może wyświetlić reklamę lokalnego sklepu rowerowego.

Zdjęcie tytułowe: DimaBerlin/Shitterstock.com