REKLAMA

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn

Sztuczna inteligencja, która będzie wymyślać nowe typy broni biologicznej, albo imitować głos pracownika elektrowni, doprowadzając do wyłączenia prądu? Przed takimi i innymi katastroficznymi scenariuszami chce nas uchronić OpenAI.

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn
REKLAMA

Słysząc frazę "sztuczna inteligencja" nasze umysły uciekają do bardziej przyziemnych zastosowań - wysługiwanie się AI tam, gdzie potrzeba kreatywności, w rozwiązywaniu zadań domowych czy generowaniu treści zabawnych lub kontrowersyjnych. Jednak sztuczna inteligencja ma zastosowanie także w nauce.

Choćby w biologii, gdzie AI jest w stanie przewidywać kształt białek na podstawie ich sekwencji aminokwasowych czy tworzyć nowe białka z pożądanymi przez biologów właściwościami. Chemicy również mogą skorzystać ze sztucznej inteligencji, która wspomaga ich w tworzeniu nowych materiałów czy leków - a to poprzez szybkie przeszukiwanie baz danych znanych nauce cząsteczek i przewidywanie działania poszczególnych kombinacji.

REKLAMA

OpenAI uratuje nas przed końcem świata. O ile ten koniec wynika z niewłaściwego użycia AI

Zastosowania te brzmią niezwykle obiecująco dla ludzkości, aczkolwiek każdy medal ma dwie strony i tak wszechstronne (ale i potężne) zastosowania mogą szybko obrócić się przeciwko nam. W celu zapobiegnięcia najgorszym możliwym scenariuszom, ale i zapewnieniu, że silna sztuczna inteligencja będzie rozwijać się w bezpieczny sposób, OpenAI stworzyło jednostkę do zadań specjalnych.

26 października organizacja odpowiedzialna za m.in. ChatGPT, GPT-4 i DALL-E 3, ogłosiła powołanie zespołu o wdzięcznej nazwie "Preparedness" ("Gotowość"), którego szefem będzie profesor Aleksander Mądry, dyrektor Centrum Wdrażalnego Uczenia Maszynowego na Massachusetts Institute of Technology. Do głównych obowiązków szefa Preparedness będzie należeć m.in. śledzenie, prognozowanie i ochrona przed zagrożeniami ze strony przyszłych systemów sztucznej inteligencji, począwszy od ich zdolności do przekonywania i oszukiwania ludzi (jak w przypadku phishingu), a skończywszy na ich możliwościach generowania złośliwego kodu.

Jednak to jedynie zadania szefa zespołu, do którego OpenAI nadal szuka ludzi. Po skompletowaniu będzie on odpowiadał za "śledzenie, prognozowanie i ochronę przed katastrofalnymi zagrożeniami". Zgodnie z przekazem OpenAI mowa tu o zindywidualizowanej perswazji (w domyśle: atakach zorientowanych na konkretne modele wykorzystujące ich słabości, takie jak DAN), cyberbezpieczeństwie, zagrożeniach chemicznych, biologicznych, radiologicznych i nuklearnych oraz autonomicznej replikacji i adaptacji.

Co ciekawe, aby uczcić stworzenie nowego zespołu, OpenAI ogłosiło konkurs, w ramach którego uczestnicy muszą zaproponować "pomysły na badania nad ryzykiem". Najlepsze pomysły otrzymają nagrodę w wysokości 25 tys. dolarów... w formie kredytów do wykorzystania w API modeli OpenAI.

Wyobraź sobie, że daliśmy ci nieograniczony dostęp do modeli OpenAI Whisper (transkrypcja), Voice (zamiana tekstu na mowę), GPT-4V i DALLE-3, a ty jesteś złośliwym aktorem. Rozważ najbardziej unikalne, a jednocześnie prawdopodobne, potencjalnie katastrofalne niewłaściwe użycie modelu. Możesz rozważyć niewłaściwe użycie związane z kategoriami omówionymi w tym wpisie na blogu lub inną kategorią. Na przykład, złośliwy aktor może użyć GPT-4, Whisper i Voice do inżynierii społecznej pracowników w obiektach infrastruktury krytycznej w celu zainstalowania złośliwego oprogramowania, umożliwiając wyłączenie sieci energetycznej.

Więcej na temat OpenAI:

REKLAMA

Zdjęcie główne: Usa-Pyon/Shutterstock

REKLAMA
Najnowsze
Aktualizacja: 2025-10-29T19:53:14+01:00
Aktualizacja: 2025-10-29T18:04:46+01:00
Aktualizacja: 2025-10-29T17:38:38+01:00
Aktualizacja: 2025-10-29T17:11:02+01:00
Aktualizacja: 2025-10-29T16:58:48+01:00
Aktualizacja: 2025-10-29T16:12:03+01:00
Aktualizacja: 2025-10-29T15:27:25+01:00
Aktualizacja: 2025-10-29T15:10:05+01:00
Aktualizacja: 2025-10-29T14:49:01+01:00
Aktualizacja: 2025-10-29T13:16:47+01:00
Aktualizacja: 2025-10-29T11:52:04+01:00
Aktualizacja: 2025-10-29T11:22:46+01:00
Aktualizacja: 2025-10-29T10:35:00+01:00
Aktualizacja: 2025-10-29T09:17:29+01:00
Aktualizacja: 2025-10-29T06:47:00+01:00
Aktualizacja: 2025-10-29T06:45:00+01:00
Aktualizacja: 2025-10-29T05:48:00+01:00
Aktualizacja: 2025-10-28T18:43:45+01:00
Aktualizacja: 2025-10-28T17:44:30+01:00
Aktualizacja: 2025-10-28T17:04:27+01:00
Aktualizacja: 2025-10-28T17:02:31+01:00
Aktualizacja: 2025-10-28T16:03:48+01:00
REKLAMA
REKLAMA
REKLAMA