ChatGPT umie już fałszować dokumenty. "Nie będziemy ograniczać kreatywności użytkowników"
Nowy generator obrazów w ChatGPT doskonale sobie radzi w tworzeniu fałszywych paragonów. Wprawione oko prawdopodobnie będzie w stanie rozpoznać fałszywkę - ale i tak mamy nowy problem.

Najnowsza funkcja generowania obrazów wprowadzona przez OpenAI w modelu GPT-4o wywołuje zarówno zachwyt, jak i obawy. Szczególnie niepokojący jest fakt, że narzędzie to okazało się wyjątkowo skuteczne w tworzeniu realistycznych, fałszywych paragonów, co rodzi pytania o potencjalne nadużycia i oszustwa. Model potrafi generować hiperrealistyczne paragony restauracyjne z takimi szczegółami jak plamy po napojach czy pomięte krawędzie, co sprawia, że są one praktycznie nie do odróżnienia od prawdziwych.
Nowy generator obrazów ChatGPT oferuje użytkownikom szeroki zakres możliwości twórczych, od tworzenia infografik, memów i miniatur na YouTube, po hiperrealistyczne zdjęcia z niezwykłą ilością detali. Umożliwia również edycję już istniejących grafik, zachowując spójność niektórych elementów, co jest bardzo wygodne w procesie twórczym.
Czytaj też:
Fałszywe paragony - realizm i szczegóły
To, co wzbudziło szczególne zaniepokojenie, to zdolność nowego generatora do tworzenia niezwykle realistycznych paragonów restauracyjnych. Użytkownicy zaczęli eksperymentować z tą funkcją, tworząc fałszywe paragony z prawdziwych restauracji, które wyglądają niemal identycznie jak autentyczne.
Venture capitalista Deddy Das opublikował na platformie X (dawniej Twitter) sztuczny paragon ze steakhouse'u w San Francisco stworzony przez ChatGPT. Post szybko stał się wiralowy, a autor ostrzegał: Możesz używać 4o do generowania fałszywych paragonów. Istnieje zbyt wiele systemów weryfikacji w świecie rzeczywistym, które polegają na 'prawdziwych obrazach' jako dowodzie. Ta era dobiegła końca.
Co szczególnie niepokojące, wygenerowane paragony zawierają takie szczegóły jak zmarszczki papieru, realistyczny druk, a nawet plamy po jedzeniu czy napojach oraz drobne zabrudzenia, które nadają im dodatkowy realizm. W jednym z najbardziej przekonujących przykładów z Francji użytkownik LinkedIn opublikował wygenerowany przez AI paragon, który wyglądał na pomięty, z lokalnej sieci restauracji.

Niedoskonałości wygenerowanych paragonów
Mimo imponującego realizmu wygenerowane paragony zawierają czasem subtelne błędy, które mogą zdradzić ich sztuczne pochodzenie. Przykładowo TechCrunch zauważył, że podczas generowania fałszywego paragonu z Applebee's, suma na rachunku wyświetlała przecinek zamiast kropki dziesiętnej, a arytmetyka nie zgadzała się prawidłowo. Modele językowe wciąż mają problemy z podstawowymi obliczeniami matematycznymi, co nie jest zaskakujące.
Jednak takie niedoskonałości mogłyby być łatwo skorygowane przez oszustów przy użyciu narzędzi do edycji zdjęć lub poprzez zastosowanie bardziej precyzyjnych poleceń w generatorze.
Możliwe scenariusze oszustw. OpenAI nie zamierza interweniować
Najbardziej oczywistym scenariuszem jest wykorzystanie fałszywych paragonów do wyłudzania zwrotu kosztów za nieistniejące wydatki. Pracownik mógłby wygenerować fałszywy paragon z drogiej restauracji, a następnie złożyć wniosek o zwrot kosztów służbowego posiłku, który nigdy nie miał miejsca. Podobnie konsumenci mogliby próbować uzyskać zwrot pieniędzy od firm za produkty, których nigdy nie kupili.
W odpowiedzi na pytania dotyczące możliwości nadużyć, OpenAI broni swojej decyzji o udostępnieniu tej funkcji, przedstawiając argumenty za jej użytecznością w legalnych zastosowaniach.
Przedstawicielka OpenAI, Taya Christianson, poinformowała TechCrunch, że wszystkie obrazy tworzone za pośrednictwem ich platformy zawierają metadane wskazujące, że zostały wygenerowane przez ChatGPT. Christianson stwierdziła również, że OpenAI podejmuje działania przeciwko użytkownikom, którzy naruszają ich wytyczne dotyczące użytkowania, oraz że organizacja stale uczy się z praktycznych zastosowań i informacji zwrotnych od użytkowników.
Gdy TechCrunch zapytał, dlaczego ChatGPT w ogóle pozwala na generowanie paragonów i czy jest to zgodne z polityką OpenAI zakazującą oszustw, Christianson odpowiedziała, że celem OpenAI jest zapewnienie użytkownikom jak największej swobody twórczej. Zaznaczyła, że sztuczne paragony generowane przez AI mogą służyć celom innym niż oszustwa, takim jak edukacja ludzi w zakresie wiedzy finansowej oraz tworzenie oryginalnych dzieł sztuki lub reklam produktów. Tak, jasne. Oczywiście.
*Zdjęcie otwierające: Azulblue / Shutterstock