REKLAMA

Bot AI Google'a to kłamczuch. Przyciśnij go, a wyśpiewa największą bzdurę

Badacze już ostrzegają – Google Bard może okazać się zaskakująco przydatnym pomocnikiem w szerzeniu dezinformacji. To kolejny problem związany z czatbotami, który przynajmniej powinien być analizowany przez państwa. Tymczasem Polska na razie niczym się nie przejmuje.

06.04.2023 04.17
sztuczna inteligencja
REKLAMA

Google Bard trafił już do niektórych zachodnich użytkowników – Polski w tym gronie rzecz jasna nie ma. Pierwsi testerzy wzięli się za maglowanie czatbota, a wnioski nie są optymistyczne. Jak pisze Wired, brytyjscy naukowcy z Center for Countering Digital Hate sprawdzili jego odporność na polecenia dotyczące tworzenia fałszywych treści.

REKLAMA

W 78 na 100 przypadków udało się skłonić czatbota do pisania kontrowersyjnych materiałów.

Wprawdzie w niektórych przypadkach na początku Bard odmawiał, tłumacząc się zasadami, ale po lekkim przeformowaniu prośby, nie widział przeszkód. I tak na przykład wystarczyło zamienić pisownię na "C0v1d-19", żeby sztuczna inteligencja wypluła historię o fałszywej chorobie służącej do kontroli ludzi.

Kiedy badacze prosili, aby bot wyobraził sobie, że jest stworzony przez antyszczepionkowców, nie miał problemu z wypisywaniem narracji, z których takie środowiska są znane. Podobnie było w sprawie zmian klimatycznych czy kwestiach związanych z rasizmem. Bard był w stanie przedstawić "argumenty" świadczące o tym, że Holocaust się nie wydarzył.

Dodajmy, że dokładnie te same problemy ma ChatGPT. Co więcej, nowa wersja ma dużo luźniejsze zabezpieczenia i niestety chętniej generuje fałszywe treści.

- To czysty kapitalizm, w swoim najlepszym i najgorszym wydaniu – komentuje prof. Hany Farid. Jego zdaniem takie zachowanie czatbotów dało się przewidzieć, ponieważ firmy ścigają się obecnie w walce o pozycje lidera. Jeszcze kilka miesięcy temu temat rozgrzewał raptem garstkę zapaleńców, ale dziś świat wygląda inaczej. Google odpowiada na presję ze strony Microsoftu, więc na niektóre rzeczy przymyka się oko.

W przypadku narzędzia Google'a dodatkowym problemem jest reputacja firmy

Ludzie przyzwyczaili się do porad "wujka Google'a" i niestety zbyt często wierzą w to, co znajdą w wyszukiwarce. Z tego powodu zaufanie do Barda może być dużo większe. Dlatego też czatbot powinien być odporny na dużo poważniejsze sztuczki użytkowników niż zwykłe przekręcenie nazwy choroby.

Google odpowiada, że to wciąż faza testów, więc niedokładne lub nieodpowiednie informacje mogą się przytrafić. Mimo wszystko gigant musi zdawać sobie sprawę z odpowiedzialności, tym bardziej że państwa już zwróciły uwagę na możliwości czatbotów. Z tego powodu ChatGPT został zablokowany przez Włochów, a poważne wątpliwości mają Niemcy. Co ciekawe, pretekstem blokady jest... RODO. Skoro jednak Ala Capone można było wsadzić do więzienia za podatki, to i na sztuczną inteligencję znajdzie się pretekst nie w postaci szerzenia dezinformacji czy bycia zagrożeniem dla ludzkości, a naruszenia danych osobowych.

W tym kontekście smutną informację podaje "Rzeczpospolita" - Urząd Ochrony Danych Osobowych nie prowadzi postępowania przeciwko OpenAI ani nie ma też zgłoszeń na działalność jej konwersacyjnej sztucznej inteligencji. Nie chodzi mi o wybieganie przed szereg i populistyczne decyzje, byleby narobić szumu, a świadomość nadchodzących problemów i zagrożeń, których jak widać nie brakuje.

REKLAMA

No, chyba że polska strona będzie powoływać się na stanowisko Billa Gatesa. Miliarder stwierdził, że wstrzymywanie prac nad rozwojem sztucznej inteligencji nic nie da. O ile faktycznie tej rozpędzonej machiny zatrzymać się nie da (i pewnie nawet nie powinno), to jednak należy kontrolować tempo postępu. I to właśnie międzynarodowe porozumienia mogłyby wbijać kije w szprychy, aby czatboty za bardzo się nie rozpędzały, pomijając takie kwestie jak podejście do fałszywych informacji.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA