REKLAMA

Siadł do ChataGPT i zbudował sterowaną głosowo broń. OpenAI zareagowało, ale to była bezradność

Broń automatyczna sterowana głosowo dzięki ChatowiGPT to najbardziej amerykański garażowy projekt tego tygodnia.

Siadł do ChataGPT i zbudował sterowaną głosowo broń. OpenAI zareagowało, ale to była bezradność
REKLAMA

Jedną z największych obaw społeczeństwa globalnego jest wizja wojny, w której autonomicznie działające maszyny chwycą za broń i skierują ją ku ludziom. Czy taka wizja spełni się za naszego życia, trudno powiedzieć - no chyba, że zapytamy noblistę Geoffreya Hintona - ale całkiem realnym ryzykiem jest wykorzystanie czatbotów do tworzenia broni w mniejszej skali.

REKLAMA

"ChatGPT, atakuje nas z lewej". Viralowy projekt ukrócony przez OpenAI

STS_3D to inżynier i konstruktor, który zasłynął na TikToku budową różnego rodzaju maszyn i drukiem 3D interesujących projektów. Najnowszym dziełem STS_3D jest - nazywajmy rzeczy po imieniu - broń automatyczna sterowana przez ChatGPT.

Na demonstracyjnym nagraniu konstruktor ostrzega ChatGPT o kierunku, z którego zbliża się wróg, na co AI reaguje "strzałami". "Strzałami", gdyż maszyna posiada jedynie atrapę broni do celów demonstracyjnych. Po udanym "odparciu szturmu" ChatGPT stosunkowo entuzjastycznym głosem odpowiada "Jeśli potrzebujesz dalszej pomocy, daj mi znać".

Nie jest jasnym, w jaki sposób STS_3D udało się połączyć nietypową maszynę z ChatGPT. Z całą pewnością użył on API ChatGPT - oprogramowania-"pośrednika" pomiędzy interfejsem OpenAI, a docelowym interfejsem, w którym ma działać AI. Może być nim np. czat sklepie internetowym, a może być broń sterowana głosem. Jednak API ChatGPT nadal posiada odpowiednie zabezpieczenia, dzięki którym gdziekolwie użyjemy narzędzia, czatbot powinien wstrzymywać się od rozmów na nieakceptowalne społecznie tematy i działania w systemach, powiedzmy sobie, niepokojących.

Jak informuje serwis Futurism, wideo prezentujące "ChatGPT gun" dotarło także do OpenAI, które szybko zidentyfikowało konto STS_3D i je zbanowało.

Proaktywnie zidentyfikowaliśmy to naruszenie naszych zasad i powiadomiliśmy dewelopera o zaprzestaniu tej działalności przed otrzymaniem Twojego zapytania. [...] Zasady użytkowania OpenAI zabraniają korzystania z naszych usług w celu opracowywania lub używania broni lub automatyzacji niektórych systemów, które mogą mieć wpływ na bezpieczeństwo osobiste

- przekazał rzecznik OpenAI w wiadomości do redakcji serwisu Futurism.

Choć OpenAI cytuje tu zasady użytkowania wprost zabraniające zastosowania generatywnej AI do tworzenia broni, to te same zasady nie mają zastosowania w przypadku kontraktu, jaki OpenAI ma z armią amerykańską.

REKLAMA

Może zainteresować cię także:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA