Policja testuje dwa systemy AI. Oba przerażają mnie jako obywatela
Draft One (Axon) to narzędzie oparte na modelach GPT, analizujące nagrania z bodycamów i generujące raporty, z kolei Code Four to system analizujący audio z kamer i tworzący automatyczne raporty.

Wydawałoby się, że automatyzacja raportów policyjnych to idealny przykład zastosowania sztucznej inteligencji: mniej biurokracji, więcej czasu na realną pracę w terenie. Tymczasem Departament Policji w Heber City w stanie Utah przekonał się, że wdrażanie AI w krytycznych sektorach potrafi zaskoczyć. Testowany system wygenerował oficjalny raport, w którym stwierdził, że funkcjonariusz… został zamieniony w żabę.
Brzmi jak żart, ale to wydarzyło się naprawdę. I choć historia jest zabawna, to jej konsekwencje są bardzo poważne - zarówno dla służb porządkowych, jak i dla całej branży technologicznej, która coraz agresywniej wprowadza AI do procesów wymagających absolutnej precyzji.
Czytaj też:
Jak to możliwe, że AI zamieniła policjanta w żabę?
Jeden z funkcjonariuszy biorących udział w testach, sierżant Keel, opisał przebieg zdarzenia. Podczas symulowanego zatrzymania drogowego kamera nasobna nagrywała materiał, który następnie miał zostać automatycznie przetworzony przez system Draft One - narzędzie Axona oparte na modelach GPT.
Problem w tym, że w tle nagrania leciał film Disneya. Algorytm nieodróżniający dialogów z bajki od faktycznych wypowiedzi uczestników interwencji włączył fragmenty filmowego scenariusza do raportu. Efekt? Dokument pełen nonsensów, w tym wzmianka o rzekomej metamorfozie funkcjonariusza w płaza.
Raport wymagał gruntownej korekty zanim ktokolwiek mógł potraktować go poważnie. A jednak - i to jest w tej historii równie zaskakujące - sierżant Keel podkreśla, że mimo incydentu narzędzie oszczędza mu od sześciu do ośmiu godzin pracy tygodniowo. System jest prosty w obsłudze, szybki i w wielu przypadkach trafny. Tyle że w wielu to zdecydowanie za mało, gdy mówimy o dokumentach, które mogą trafić do sądu.
Policja testuje dwa systemy AI. I oba pokazują, jak trudne jest to zadanie
Heber City nie ograniczyło się do jednego narzędzia. Równolegle testowane są dwa systemy. Draft One (Axon) to narzędzie oparte na modelach GPT, analizujące nagrania z bodycamów i generujące raporty. To ono stworzyło słynny raport o żabie. Code Four to system stworzony przez dwóch 19‑letnich dropoutów z MIT, George’a Chenga i Dylana Nguyena. Również analizuje audio z kamer i tworzy automatyczne raporty.
To że policja testuje AI nie jest niczym zaskakującym. W Stanach Zjednoczonych trwa wyścig o to kto pierwszy zautomatyzuje najbardziej czasochłonne elementy pracy funkcjonariuszy. Ale incydent z Heber City pokazuje jak krucha jest ta technologia gdy zderzy się z chaotyczną, nieprzewidywalną rzeczywistością.
AI nie rozumie kontekstu. Nie wie, że dialog z bajki nie jest częścią interwencji. Nie potrafi odróżnić żartu od faktu, a przypadkowego dźwięku od kluczowego elementu zdarzenia. A to w pracy policji jest absolutnie fundamentalne. AI działa jak czarna skrzynka. Jeśli coś pójdzie nie tak trudno ustalić dlaczego. A w sektorze, w którym każdy błąd może mieć realne konsekwencje prawne, to niedopuszczalne.
Funkcjonariusze chcą automatyzacji. Chcą mniej papierologii. Chcą narzędzi, które realnie odciążają ich pracę. Tyle że technologia musi dorosnąć do odpowiedzialności, jaką niesie. AI wchodzi do systemów, które nie mogą sobie pozwolić na błędy. Policja. Ochrona zdrowia. Edukacja. Infrastruktura. Energetyka. Transport. W tych sektorach nie wystarczy, że system działa w większości przypadków. Musi działać zawsze. A jeśli nie działa - człowiek musi być w stanie to zauważyć, zrozumieć i naprawić.
Jeśli dziś AI zamienia policjanta w żabę, to jutro może błędnie opisać użycie siły, pomylić ofiarę ze sprawcą czy wygenerować raport, który wpłynie na wyrok sądowy. To realne ryzyka, które trzeba brać pod uwagę. Żaba z Heber City może być ostatnim zabawnym incydentem AI, o którym będziemy czytać z uśmiechem. Jeśli nie wyciągniemy wniosków, kolejne mogą już wcale nie być zabawne.







































