REKLAMA

Premier ma władzę, ale to ChatGPT wydaje opinie. Obywatele są wściekli

Premier Szwecji Ulf Kristersson zdradził, że sztuczna inteligencja pomaga mu w pracy. Informacja wzbudziła za Bałtykiem debatę o tym, jak daleko technologia powinna wchodzić w proces rządzenia krajem.

Premier Szwecji regularnie konsultuje się z czatbotami AI
REKLAMA

Czasem aż trudno uwierzyć, że nawet najbardziej wpływowi politycy w Europie żyją w wielu aspektach tak jak zwykli obywatele. Bywa, że marzą o spokojnym weekendzie przy grillu z kiełbasą, sami wieszają półkę w przedpokoju, kupują nowe spodnie, gdy w starych zrobi się dziura.

A czasem, jak się okazuje, korzystają z ChataGPT czy innych narzędzi AI, żeby upewnić się w swoich decyzjach. Tak właśnie pracuje premier Szwecji Ulf Kristersson, czym wzbudza niemałe kontrowersje.

REKLAMA

"Nie głosowaliśmy na ChataGPT". Szwedzi są wkurzeni na premiera

W rozmowie z dziennikiem Dagens Industri, premier Szwecji Ulf Kristersson przyznał, że regularnie konsultuje się z generatywną sztuczną inteligencją - zarówno z popularnym ChatGPT, jak i francuskim serwisem LeChat.

Używam tego dość często. Jeśli nie do niczego innego, to dla ‘second opinion’. Co zrobili inni? A może powinniśmy myśleć zupełnie odwrotnie? Tego typu pytania

Premier dodał, z AI korzystają również jego współpracownicy.

Wypowiedzi te szybko wywołały reakcję ekspertów oraz mediów. Dziennik Aftonbladet w swoim komentarzu oskarżył premiera o to, że "dał się porwać oligarchicznej psychozie na punkcie AI". Krytyczne stanowisko zajęła także prof. Simone Fischer-Hübner, badaczka informatyki z Uniwersytetu w Karlstad. Jej zdaniem osoby korzystające z narzędzi AI w pracy "muszą być bardzo ostrożne", bo - jak przypomina - modele językowe mogą halucynować, a dane wprowadzane do systemu mogą zostać wykorzystane w przyszłych wersjach usługi.

To problem, jeśli nawet przy zwykłym streszczeniu tekstu wprowadzamy [do czatbota AI] informacje wrażliwe

Sam Ulf Kristersson, za pośrednictwem rzecznika prasowego Toma Samuelssona, zapewnia, że nie przesyła do AI treści o znaczeniu bezpieczeństwa państwa, porównując swoje użycie czatbota do ścianki treningowej do odbijania piłki.

Jednak według prof. Virginii Dignum z Uniwersytetu w Umeå, ryzyko nie polega jedynie na błędnych odpowiedziach, ale także na rosnącym zaufaniu do technologii, która nie jest w stanie udzielać znaczących opinii politycznych.

Im częściej będzie z tego korzystał, nawet do prostych rzeczy, tym większe ryzyko nadmiernego polegania na systemie. To równia pochyła. Musimy wymagać, aby niezawodność była zagwarantowana. Nie głosowaliśmy na ChatGPT

Szwedzka debata wokół AI w polityce trwa, a przypadek Kristerssona pokazuje, że pytanie „czy można ufać sztucznej inteligencji w procesach decyzyjnych państwa?” przestaje być czysto teoretyczne – i dotyczy już najwyższych szczebli władzy.

Więcej na temat sztucznej inteligencji:

REKLAMA

Zdjęcie główne: Thaspol Sangsee / Shutterstock

REKLAMA
Najnowsze
Aktualizacja: 2025-08-06T06:12:00+02:00
Aktualizacja: 2025-08-06T06:01:00+02:00
Aktualizacja: 2025-08-05T20:48:53+02:00
Aktualizacja: 2025-08-05T20:05:31+02:00
Aktualizacja: 2025-08-05T19:18:22+02:00
Aktualizacja: 2025-08-05T18:55:27+02:00
Aktualizacja: 2025-08-05T18:37:56+02:00
Aktualizacja: 2025-08-05T16:37:30+02:00
Aktualizacja: 2025-08-05T15:15:24+02:00
Aktualizacja: 2025-08-05T12:18:41+02:00
Aktualizacja: 2025-08-05T10:32:45+02:00
Aktualizacja: 2025-08-05T08:32:04+02:00
Aktualizacja: 2025-08-05T07:20:54+02:00
Aktualizacja: 2025-08-05T07:00:00+02:00
Aktualizacja: 2025-08-05T06:36:15+02:00
REKLAMA
REKLAMA
REKLAMA