REKLAMA

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn

Sztuczna inteligencja, która będzie wymyślać nowe typy broni biologicznej, albo imitować głos pracownika elektrowni, doprowadzając do wyłączenia prądu? Przed takimi i innymi katastroficznymi scenariuszami chce nas uchronić OpenAI.

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn
REKLAMA

Słysząc frazę "sztuczna inteligencja" nasze umysły uciekają do bardziej przyziemnych zastosowań - wysługiwanie się AI tam, gdzie potrzeba kreatywności, w rozwiązywaniu zadań domowych czy generowaniu treści zabawnych lub kontrowersyjnych. Jednak sztuczna inteligencja ma zastosowanie także w nauce.

Choćby w biologii, gdzie AI jest w stanie przewidywać kształt białek na podstawie ich sekwencji aminokwasowych czy tworzyć nowe białka z pożądanymi przez biologów właściwościami. Chemicy również mogą skorzystać ze sztucznej inteligencji, która wspomaga ich w tworzeniu nowych materiałów czy leków - a to poprzez szybkie przeszukiwanie baz danych znanych nauce cząsteczek i przewidywanie działania poszczególnych kombinacji.

REKLAMA

OpenAI uratuje nas przed końcem świata. O ile ten koniec wynika z niewłaściwego użycia AI

Zastosowania te brzmią niezwykle obiecująco dla ludzkości, aczkolwiek każdy medal ma dwie strony i tak wszechstronne (ale i potężne) zastosowania mogą szybko obrócić się przeciwko nam. W celu zapobiegnięcia najgorszym możliwym scenariuszom, ale i zapewnieniu, że silna sztuczna inteligencja będzie rozwijać się w bezpieczny sposób, OpenAI stworzyło jednostkę do zadań specjalnych.

26 października organizacja odpowiedzialna za m.in. ChatGPT, GPT-4 i DALL-E 3, ogłosiła powołanie zespołu o wdzięcznej nazwie "Preparedness" ("Gotowość"), którego szefem będzie profesor Aleksander Mądry, dyrektor Centrum Wdrażalnego Uczenia Maszynowego na Massachusetts Institute of Technology. Do głównych obowiązków szefa Preparedness będzie należeć m.in. śledzenie, prognozowanie i ochrona przed zagrożeniami ze strony przyszłych systemów sztucznej inteligencji, począwszy od ich zdolności do przekonywania i oszukiwania ludzi (jak w przypadku phishingu), a skończywszy na ich możliwościach generowania złośliwego kodu.

Jednak to jedynie zadania szefa zespołu, do którego OpenAI nadal szuka ludzi. Po skompletowaniu będzie on odpowiadał za "śledzenie, prognozowanie i ochronę przed katastrofalnymi zagrożeniami". Zgodnie z przekazem OpenAI mowa tu o zindywidualizowanej perswazji (w domyśle: atakach zorientowanych na konkretne modele wykorzystujące ich słabości, takie jak DAN), cyberbezpieczeństwie, zagrożeniach chemicznych, biologicznych, radiologicznych i nuklearnych oraz autonomicznej replikacji i adaptacji.

Co ciekawe, aby uczcić stworzenie nowego zespołu, OpenAI ogłosiło konkurs, w ramach którego uczestnicy muszą zaproponować "pomysły na badania nad ryzykiem". Najlepsze pomysły otrzymają nagrodę w wysokości 25 tys. dolarów... w formie kredytów do wykorzystania w API modeli OpenAI.

Wyobraź sobie, że daliśmy ci nieograniczony dostęp do modeli OpenAI Whisper (transkrypcja), Voice (zamiana tekstu na mowę), GPT-4V i DALLE-3, a ty jesteś złośliwym aktorem. Rozważ najbardziej unikalne, a jednocześnie prawdopodobne, potencjalnie katastrofalne niewłaściwe użycie modelu. Możesz rozważyć niewłaściwe użycie związane z kategoriami omówionymi w tym wpisie na blogu lub inną kategorią. Na przykład, złośliwy aktor może użyć GPT-4, Whisper i Voice do inżynierii społecznej pracowników w obiektach infrastruktury krytycznej w celu zainstalowania złośliwego oprogramowania, umożliwiając wyłączenie sieci energetycznej.

Więcej na temat OpenAI:

Zdjęcie główne: Usa-Pyon/Shutterstock

REKLAMA
Najnowsze
Aktualizacja: 2025-07-10T16:52:19+02:00
Aktualizacja: 2025-07-10T16:33:32+02:00
Aktualizacja: 2025-07-10T16:12:59+02:00
Aktualizacja: 2025-07-10T15:48:53+02:00
Aktualizacja: 2025-07-10T13:41:31+02:00
Aktualizacja: 2025-07-10T12:18:46+02:00
Aktualizacja: 2025-07-10T12:08:04+02:00
Aktualizacja: 2025-07-10T10:42:51+02:00
Aktualizacja: 2025-07-10T09:53:17+02:00
Aktualizacja: 2025-07-10T08:11:11+02:00
Aktualizacja: 2025-07-10T07:00:00+02:00
Aktualizacja: 2025-07-10T06:24:13+02:00
Aktualizacja: 2025-07-10T06:22:00+02:00
Aktualizacja: 2025-07-10T06:11:00+02:00
Aktualizacja: 2025-07-10T06:00:00+02:00
Aktualizacja: 2025-07-09T19:42:40+02:00
Aktualizacja: 2025-07-09T17:28:43+02:00
Aktualizacja: 2025-07-09T16:00:00+02:00
Aktualizacja: 2025-07-09T16:00:00+02:00
Aktualizacja: 2025-07-09T16:00:00+02:00
Aktualizacja: 2025-07-09T16:00:00+02:00
Aktualizacja: 2025-07-09T15:31:29+02:00
Aktualizacja: 2025-07-09T13:45:19+02:00
REKLAMA
REKLAMA
REKLAMA