REKLAMA

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn

Sztuczna inteligencja, która będzie wymyślać nowe typy broni biologicznej, albo imitować głos pracownika elektrowni, doprowadzając do wyłączenia prądu? Przed takimi i innymi katastroficznymi scenariuszami chce nas uchronić OpenAI.

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn
REKLAMA

Słysząc frazę "sztuczna inteligencja" nasze umysły uciekają do bardziej przyziemnych zastosowań - wysługiwanie się AI tam, gdzie potrzeba kreatywności, w rozwiązywaniu zadań domowych czy generowaniu treści zabawnych lub kontrowersyjnych. Jednak sztuczna inteligencja ma zastosowanie także w nauce.

Choćby w biologii, gdzie AI jest w stanie przewidywać kształt białek na podstawie ich sekwencji aminokwasowych czy tworzyć nowe białka z pożądanymi przez biologów właściwościami. Chemicy również mogą skorzystać ze sztucznej inteligencji, która wspomaga ich w tworzeniu nowych materiałów czy leków - a to poprzez szybkie przeszukiwanie baz danych znanych nauce cząsteczek i przewidywanie działania poszczególnych kombinacji.

REKLAMA

OpenAI uratuje nas przed końcem świata. O ile ten koniec wynika z niewłaściwego użycia AI

Zastosowania te brzmią niezwykle obiecująco dla ludzkości, aczkolwiek każdy medal ma dwie strony i tak wszechstronne (ale i potężne) zastosowania mogą szybko obrócić się przeciwko nam. W celu zapobiegnięcia najgorszym możliwym scenariuszom, ale i zapewnieniu, że silna sztuczna inteligencja będzie rozwijać się w bezpieczny sposób, OpenAI stworzyło jednostkę do zadań specjalnych.

26 października organizacja odpowiedzialna za m.in. ChatGPT, GPT-4 i DALL-E 3, ogłosiła powołanie zespołu o wdzięcznej nazwie "Preparedness" ("Gotowość"), którego szefem będzie profesor Aleksander Mądry, dyrektor Centrum Wdrażalnego Uczenia Maszynowego na Massachusetts Institute of Technology. Do głównych obowiązków szefa Preparedness będzie należeć m.in. śledzenie, prognozowanie i ochrona przed zagrożeniami ze strony przyszłych systemów sztucznej inteligencji, począwszy od ich zdolności do przekonywania i oszukiwania ludzi (jak w przypadku phishingu), a skończywszy na ich możliwościach generowania złośliwego kodu.

Jednak to jedynie zadania szefa zespołu, do którego OpenAI nadal szuka ludzi. Po skompletowaniu będzie on odpowiadał za "śledzenie, prognozowanie i ochronę przed katastrofalnymi zagrożeniami". Zgodnie z przekazem OpenAI mowa tu o zindywidualizowanej perswazji (w domyśle: atakach zorientowanych na konkretne modele wykorzystujące ich słabości, takie jak DAN), cyberbezpieczeństwie, zagrożeniach chemicznych, biologicznych, radiologicznych i nuklearnych oraz autonomicznej replikacji i adaptacji.

Co ciekawe, aby uczcić stworzenie nowego zespołu, OpenAI ogłosiło konkurs, w ramach którego uczestnicy muszą zaproponować "pomysły na badania nad ryzykiem". Najlepsze pomysły otrzymają nagrodę w wysokości 25 tys. dolarów... w formie kredytów do wykorzystania w API modeli OpenAI.

Wyobraź sobie, że daliśmy ci nieograniczony dostęp do modeli OpenAI Whisper (transkrypcja), Voice (zamiana tekstu na mowę), GPT-4V i DALLE-3, a ty jesteś złośliwym aktorem. Rozważ najbardziej unikalne, a jednocześnie prawdopodobne, potencjalnie katastrofalne niewłaściwe użycie modelu. Możesz rozważyć niewłaściwe użycie związane z kategoriami omówionymi w tym wpisie na blogu lub inną kategorią. Na przykład, złośliwy aktor może użyć GPT-4, Whisper i Voice do inżynierii społecznej pracowników w obiektach infrastruktury krytycznej w celu zainstalowania złośliwego oprogramowania, umożliwiając wyłączenie sieci energetycznej.

- czytamy w treści zadania konkursowego

Więcej na temat OpenAI:

REKLAMA

Zdjęcie główne: Usa-Pyon/Shutterstock

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA