Gigant szuka ekspertów od broni. Mają założyć chatbotowi kaganiec
Anthropic rekrutuje specjalistę od broni chemicznej i wysokich materiałów wybuchowych. Nowy pracownik będzie trzymał rękę na plusie i dbał o to, by chatbotowi nie wymsknął się przepis na brudną bombę.

Jednym z największych zagrożeń związanych z rozwojem generatywnej sztucznej inteligencji jest jej potencjał w instruktażu tworzenia broni. Dzięki odpowiedniemu opisaniu swojej prośby, osoby nie posiadające żadnej wiedzy i doświadczenia mogą w kilka minut otrzymać pomoc w konstrukcji niebezpiecznych - i potencjalnie śmiercionośnych - przedmiotów. Stąd powstała inicjatywa Anthropic, by zatrudnić eksperta od broni chemicznej i materiałów wybuchowych, który pomoże zdusić takie ryzyko w zarodku.
Anthropic zatrudni eksperta od broni. Bajońska suma w zamian za potężną wiedzę
Amerykańska firma rozwijająca modele sztucznej inteligencji opublikowała ofertę pracy na stanowisko "Kierownik ds. polityki w zakresie broni chemicznej i materiałów wybuchowych o dużej mocy". Nowy pracownik ma pomóc w opracowaniu zasad i mechanizmów bezpieczeństwa, które uniemożliwią systemom AI generowanie treści mogących zostać wykorzystanych do produkcji broni chemicznej lub konstruowania ładunków wybuchowych.
Według opisu stanowiska osoba zatrudniona przez Anthropic będzie odpowiedzialna za analizę zdolności modeli AI w zakresie wiedzy o chemii i materiałach wybuchowych oraz za projektowanie metod wykrywania potencjalnie niebezpiecznych zapytań użytkowników. W praktyce oznacza to m.in. tworzenie modeli zagrożeń, identyfikację potencjalnych ścieżek syntezy chemikaliów oraz opracowywanie systemów, które będą blokować generowanie instrukcji dotyczących produkcji niebezpiecznych substancji.
Firma oczekuje od kandydatów co najmniej kilkuletniego doświadczenia w obszarze obrony przed bronią chemiczną lub materiałami wybuchowymi. W ogłoszeniu wymieniono również znajomość tzw. radiologicznych urządzeń rozpraszających - czyli tzw. "brudnych bomb", które wykorzystują materiały radioaktywne rozrzucane za pomocą eksplozji.
Ekspert będzie także analizował zapytania użytkowników i reagował w sytuacjach, gdy model AI otrzyma pytania dotyczące potencjalnie niebezpiecznych zastosowań chemii czy materiałów wybuchowych.
Za dużą odpowiedzialnością idą także duże pieniądze
Według ogłoszenia roczne wynagrodzenie na tym stanowisku wynosi od 245 do 285 tys. dolarów brutto - lub jak kto woli, ok. 77 tys. zł brutto/mies. Kandydaci powinni posiadać co najmniej dyplom studiów wyższych w dziedzinie chemii, inżynierii chemicznej lub pokrewnej oraz doświadczenie w pracy z materiałami energetycznymi lub substancjami chemicznymi wykorzystywanymi w kontekście wojskowym.
Anthropic podkreśla, że celem stanowiska jest "zapobieganie katastrofalnemu nadużyciu" modeli AI. Nowy pracownik będzie współpracował z zespołami badawczymi i inżynierskimi przy tworzeniu zabezpieczeń oraz testowaniu granic wiedzy modeli w obszarach o potencjalnie podwójnym zastosowaniu. Anthropic nie jest jedyną firmą z branży sztucznej inteligencji, która zatrudnia ekspertów od zagrożeń związanych z bronią chemiczną czy biologiczną. Oferta podobnego stanowiska pojawiła się niedawno w biurze karier OpenAI.
Twórcy ChataGPT poszukuje badacza zajmującego się zagrożeniami biologicznymi i chemicznymi. Według ogłoszenia maksymalne wynagrodzenie na tym stanowisku może sięgać nawet 455 tys. dolarów rocznie.
Pojawiają się jednak wątpliwości
Dla twórców modeli generatywnej sztucznej inteligencji tego typu zagrania kadrowe stanowią odpowiedź na rosnące obawy, że systemy AI mogą ułatwiać dostęp do specjalistycznej wiedzy, która dotychczas była ograniczona do środowisk naukowych, wojskowych lub przemysłowych.
Jednak nie wszyscy eksperci są przekonani, że takie podejście jest bezpieczne. Część badaczy zwraca uwagę, że wprowadzanie do systemów AI szczegółowej wiedzy o broni chemicznej lub materiałach wybuchowych może samo w sobie tworzyć nowe ryzyka.
Niezależna badaczka Stephanie Hare w rozmowie z BBC zwróciła uwagę, że obecnie nie istnieją międzynarodowe regulacje dotyczące wykorzystania sztucznej inteligencji do przetwarzania informacji o tego typu broni. Jej zdaniem rozwój takich systemów odbywa się w dużej mierze poza formalnym nadzorem.
Zatrudnianie specjalistów od broni chemicznej i materiałów wybuchowych pokazuje jednak, jak poważnie firmy technologiczne traktują ryzyko związane z dostępem modeli AI do wrażliwej wiedzy. Rozwój generatywnej sztucznej inteligencji sprawia bowiem, że granica między narzędziem informacyjnym a potencjalnym źródłem niebezpiecznych instrukcji staje się coraz trudniejsza do utrzymania.
Więcej na temat sztucznej inteligencji (AI):



















