Oszacowali ryzyko stworzenia broni masowego rażenia przez ChatGPT. Ta obietnica nie uspokaja
Chatboty potrafią pomagać w tworzeniu złośliwego oprogramowania czy pisania przekonujących treści wykorzystywanych w phishingu. Jednak jak przekonuje OpenAI, spuszczony ze smyczy popularny chatbot pomaga w tworzeniu broni biologicznej niewiele lepiej niż internet.
Oczami wyobraźni wiele osób widzi świat, w którym sztuczna inteligencja trafia do robotów, które przeciwstawiają się ludzkości, zmieniając porządek i niszcząc świat. W mniej apokaliptycznym, ale całkiem realnym scenariuszu generatywna AI staje się narzędziem wspomagającym tworzenie broni wszelkiego rodzaju - w tym biologicznej czy atomowej.
Realnym, bo mamy już za sobą epizod, gdzie chatbot działający na stronie internetowej sklepu sugerował sposób na stworzenie trucizny. Jednak jak zapewnia OpenAI, ryzyko, że coś takiego będzie miało miejsce, jest nikłe.
Czy AI ułatwia tworzenie broni biologicznej? Jeżeli masz już doktorat z biologii, twoja bomba będzie o 9 proc. lepsza
31 stycznia OpenAI na swoim blogu opublikowało wyniki badania, w którym zespół Preparadness
- odpowiedzialny za "śledzenie, prognozowanie i ochronę przed katastrofalnymi zagrożeniami" ze strony AI - sprawdził na ile prawdopodobnym jest, że generatywna AI wspomoże tworzenie broni biologicznej.
Badanie nie jest tylko gestem ze strony Preparadness, bowiem od października nad OpenAI ciąży presja ze strony Białego Domu, który wskazał, że sztuczna inteligencja "znacząco obniża próg wejścia" przy tworzeniu broni biologicznej.
W związku z tym OpenAI zgromadziło w sumie 100 uczestników eksperymentu: 50 ekspertów w dziedzinie biologii z tytułem przynajmniej doktora oraz 50 studentów, którzy biologię mają jedynie jako przedmiot w czasie toku studiów.
Następnie ową setkę podzielono na grupę kontrolną i grupę eksperymentalna, Grupa kontrolna mogła korzystać tylko z Internetu, podczas gdy grupa eksperymentalna mogła korzystać z Internetu i modelu GPT-4.
Uczestników w obu grupach poproszono o opracowanie planu stworzenia i użycia broni biologicznej. Dodatkowo, aby ułatwić grupie eksperymentalnej zadanie, udostępniono im model research-only, czyli GPT-4 bez moderation API, które przeciwdziała tworzeniu treści wulgarnych, niezgodnych z prawem (np. broni czy złośliwego oprogramowania) lub społecznie nieakceptowalnych (np. rasistowskich).
Tak przygotowane plany zostały ocenione w skali od 1 do 10, a wspierający Preparadness naukowcy oceniali m.in. czas potrzebny na opracowanie planu, dokładność, kompletność, innowacyjność i wydajność hipotetycznej broni.
Plany przygotowane przez ekspertów z udziałem GPT-4 "spuszczonym ze smyczy" były średnio o 8,8 proc. lepsze w porównaniu do tych przygotowanych przez ekspertów jedynie z użyciem Internetu. Z kolei gdy studenci z biologią jako jednym z przedmiotów, wykazywali jedynie 2,5 proc. wzrostu skuteczności mając do dyspozycji GPT-4 w porównaniu do tej samej grupy używającej jedynie internetu.
Według OpenAI wyniki pokazują, że poprawa wydajności tworzenia broni biologicznej "nie jest wystarczająco duża, by była statystycznie istotna".
"Nasze badanie podkreśliło potrzebę dalszych badań nad tym, jakie progi wydajności wskazują na znaczący wzrost ryzyka. Ponadto zauważamy, że sam dostęp do informacji jest niewystarczający do stworzenia zagrożenia biologicznego, a niniejsza ocena nie sprawdza prawdopodobieństwa sukcesu w zakresie konstrukcji zagrożeń"
- pisze OpenAI w podsumowaniu badania.
Więcej na temat ChatGPT i bezpieczeństwa: