REKLAMA

Szef cyberobrony USA nakarmił ChatGPT tajnymi danymi. "Przypadkowo"

Szef cywilnej obrony cybernetycznej USA przypadkowo udostępnił wrażliwe dokumenty rządowe do publicznej wersji ChataGPT. Spowodowało to serię alarmów, wewnętrznych kontroli i politycznego oburzenia. To nie żart – Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych właśnie analizuje skalę problemu.

Dyrektor bezpieczeństwa cybernetycznego wysyła tajne dokumenty do ChataGPT.
REKLAMA

Madhu Gottumukkala – Dyrektor Agencji ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury (ang. CISA) – świeżo po objęciu stanowiska, w połowie lipca 2025 r. "przypadkowo" przesłał do ChataGPT dokumenty oznaczone jako tajne. Incydent wywołał skandal i rozpoczął audyt w departamencie.

Szef agencji cyberbezpieczeństwa, który pilnuje, by rządowe dane nie wyciekały, sam wrzuca wrażliwe pliki do publicznego narzędzia AI. Choć brzmi to jak kiepski dowcip, wydarzyło się naprawdę.

REKLAMA

Co gorsza, procedury mające zapobiegać takim wpadkom zostały wdrożone dopiero po fakcie. Okazuje się również, że nie był to jednorazowy błąd, lecz seria działań, które finalnie doprowadziły do wykrycia i eskalacji całej sprawy.

Mimo kilkukrotnych ostrzeżeń, szef bezpieczeństwa ciągle udostępniał wrażliwe dane

Szczegóły kompromitują Gottumukkala w znaczący sposób. Mimo że uzyskał specjalne pozwolenie na korzystanie z komercyjnych narzędzi AI, wielokrotnie otrzymywał ostrzeżenia przed upublicznianiem wrażliwych danych.

Nie powstrzymało go to jednak przed przesłaniem dokumentów kontraktowych CISA do ChataGPT. Systemy bezpieczeństwa zareagowały dopiero po fakcie.

Departament przeprowadza kontrolę, by ustalić, czy doszło do nieautoryzowanego dostępu. Incydent miał miejsce niedługo po tym, jak Gottumukkala objął stanowisko w maju 2025 r. - to właśnie wtedy pojawiły się pierwsze sygnały alarmowe.

Media branżowe i eksperci bezpieczeństwa nie kryją zdumienia: jeżeli szef agencji nie rozumie ryzyka korzystania z publicznych modeli językowych, to kto ma je rozumieć?

Więcej o cyberbezpieczeństwie przeczytasz na łamach serwisu Spider'sWeb:

Cała sytuacja mocno pachnie ironią. Instytucja chroniąca infrastrukturę krytyczną sama staje się źródłem potencjalnego wycieku. To pokazuje, że kompetencja urzędników Trumpa jest równie wyrafinowana, co słoń w składzie porcelany.

Korzystanie z ChataGPT to poważne zagrożenie dla poufnych danych

Dobitnie obrazuje również, że to nie technologia jest winna, a ludzie i procedury. Kiedy zawodzą ci, którzy powinni być wzorem, pozostaje nam jedynie pytanie: czy następnym krokiem będzie szkolenie z obsługi ChataGPT dla całego kierownictwa?

REKLAMA

W świecie, gdzie narzędzia sztucznej inteligencji są tak powszechne, że każdy może z nich skorzystać, bezpieczeństwo zaczyna się z pracy u podstaw. Zwykły zdrowy rozsądek i jasne zasady jak widać nie wystarczają.

Skoro nawet szef agencji nie potrafi ich przestrzegać, my sami powinniśmy się trzy razy się zastanowić, zanim skorzystamy z modelu sztucznej inteligencji w pracy.

REKLAMA
Najnowsze
Aktualizacja: 2026-01-29T14:56:14+01:00
Aktualizacja: 2026-01-29T14:22:55+01:00
Aktualizacja: 2026-01-29T12:59:38+01:00
Aktualizacja: 2026-01-29T12:30:52+01:00
Aktualizacja: 2026-01-29T11:10:48+01:00
Aktualizacja: 2026-01-29T10:27:03+01:00
Aktualizacja: 2026-01-29T10:08:09+01:00
Aktualizacja: 2026-01-29T08:30:36+01:00
Aktualizacja: 2026-01-29T06:20:00+01:00
Aktualizacja: 2026-01-29T06:15:00+01:00
Aktualizacja: 2026-01-29T06:00:00+01:00
Aktualizacja: 2026-01-28T20:15:00+01:00
Aktualizacja: 2026-01-28T19:15:00+01:00
Aktualizacja: 2026-01-28T17:53:11+01:00
Aktualizacja: 2026-01-28T17:47:29+01:00
Aktualizacja: 2026-01-28T17:09:22+01:00
Aktualizacja: 2026-01-28T15:39:26+01:00
Aktualizacja: 2026-01-28T15:18:17+01:00
Aktualizacja: 2026-01-28T15:08:44+01:00
Aktualizacja: 2026-01-28T14:57:05+01:00
Aktualizacja: 2026-01-28T14:55:34+01:00
Aktualizacja: 2026-01-28T14:52:12+01:00
REKLAMA
REKLAMA
REKLAMA