Tysiące głosów, ale nie od ludzi. Boty pogrzebały nowe przepisy
Sztuczna inteligencja zabiła przepisy o czystym powietrzu? W Kalifornii wybucha polityczna burza.

Projekt regulacji mających ograniczyć emisje z domowych urządzeń gazowych w Południowej Kalifornii został odrzucony po tym, jak do urzędników spłynęła fala ponad 20 tys. komentarzy. Problem w tym, że wielu z tych „obywateli” nigdy nie napisało żadnej wiadomości. Zrobiła to za nich sztuczna inteligencja.
20 tys. głosów sprzeciwu. Tylko że nie od ludzi
W czerwcu ubiegłego roku rada South Coast Air Quality Management District (SCAQMD) miała głosować nad przepisami, które stopniowo wypychałyby z rynku gazowe podgrzewacze wody i piece. Chodziło o ograniczenie emisji tlenków azotu, jednego z głównych składników smogu. Regulacje były przygotowywane przez dwa lata i miały realnie poprawić jakość powietrza w regionie.
Czytaj też:
Do urzędników zaczęły spływać tysiące wiadomości od mieszkańców, którzy rzekomo byli oburzeni planowanymi zmianami. W sumie ponad 20 tys. Jak wynika z dokumentów, które trafiły do Los Angeles Times, większość z nich została wygenerowana przez platformę CiviClick, reklamującą się jako „pierwsza i najlepsza AI do oddolnego rzecznictwa”.
Gdy pracownicy agencji zadzwonili do losowo wybranych nadawców część z nich była szczerze zaskoczona. Nie mieli pojęcia, że ich nazwiska widnieją pod oficjalnymi komentarzami. Trzech z ankietowanych stwierdziło, że nie wysyłało żadnych wiadomości i nie wiedziało o ich istnieniu. To wystarczyło, by w agencji zapaliły się wszystkie czerwone lampki.
Astroturfing w wersji 2.0
Astroturfing - czyli udawanie oddolnego ruchu społecznego - nie jest niczym nowym. Firmy i lobbyści od lat próbują tworzyć iluzję masowego poparcia lub sprzeciwu. Jednak AI sprawia, że ta praktyka staje się nieporównywalnie bardziej skuteczna.
Dawniej takie kampanie były łatwe do wykrycia. Wiadomości wyglądały jak kopiuj-wklej, a boty pisały dość topornie. Dziś generatywna AI potrafi tworzyć setki tysięcy unikalnych, wiarygodnych komentarzy, które trudno odróżnić od prawdziwych. Wystarczy baza kontaktów, odpowiedni budżet i platforma taka jak CiviClick, by stworzyć presję społeczną wyglądającą jak spontaniczny bunt mieszkańców.
Kampanię prowadził konsultant Matt Klink, który w oświadczeniu bronił działań jako „edukacyjnych”. Twierdził, że przepisy były zbyt kosztowne, a mieszkańcy nie zostali odpowiednio poinformowani. Nie odpowiedział jednak na pytania o finansowanie akcji.
W tle pojawiają się jednak podmioty, które mają oczywisty interes w utrzymaniu status quo: firmy energetyczne, stowarzyszenia właścicieli nieruchomości, organizacje biznesowe. Nie ma twardych dowodów, ale kontekst jest aż nadto wymowny.
To nie jest odosobniony przypadek
CiviClick miało być używane również w Karolinie Północnej, gdzie wspierało rozbudowę gazociągu, oraz w rejonie Zatoki San Francisco, gdzie podobną kampanię prowadzi platforma Speak4. Kalifornijski Bot Act z 2019 r. wymaga oznaczania botów, ale nie obejmuje AI generującej treści w imieniu ludzi. A to właśnie ta szara strefa staje się dziś najgroźniejsza.
Kalifornia to odległe miejsce, podobnie jak problemy jej mieszkańców. Tyle że to lekcja również i dla nas. I o tym jak łatwo można wpłynąć na procesy demokratyczne, jeśli dysponuje się odpowiednimi narzędziami. Dziś chodzi o piece gazowe. Jutro może chodzić o regulacje dotyczące AI, prywatności, prawa autorskiego, podatków dla Big Techu - albo czegokolwiek, co da się „zaspamować” opiniami obywateli, którzy nie istnieją. AI to narzędzie, które może służyć zarówno do tworzenia, jak i manipulacji. A im bardziej zaawansowane się staje, tym trudniej będzie odróżnić jedno od drugiego.







































