REKLAMA

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn

Sztuczna inteligencja, która będzie wymyślać nowe typy broni biologicznej, albo imitować głos pracownika elektrowni, doprowadzając do wyłączenia prądu? Przed takimi i innymi katastroficznymi scenariuszami chce nas uchronić OpenAI.

Powstaje jednostka specjalna. Ma chronić ludzi przed zagładą z rąk maszyn
REKLAMA

Słysząc frazę "sztuczna inteligencja" nasze umysły uciekają do bardziej przyziemnych zastosowań - wysługiwanie się AI tam, gdzie potrzeba kreatywności, w rozwiązywaniu zadań domowych czy generowaniu treści zabawnych lub kontrowersyjnych. Jednak sztuczna inteligencja ma zastosowanie także w nauce.

Choćby w biologii, gdzie AI jest w stanie przewidywać kształt białek na podstawie ich sekwencji aminokwasowych czy tworzyć nowe białka z pożądanymi przez biologów właściwościami. Chemicy również mogą skorzystać ze sztucznej inteligencji, która wspomaga ich w tworzeniu nowych materiałów czy leków - a to poprzez szybkie przeszukiwanie baz danych znanych nauce cząsteczek i przewidywanie działania poszczególnych kombinacji.

REKLAMA

OpenAI uratuje nas przed końcem świata. O ile ten koniec wynika z niewłaściwego użycia AI

Zastosowania te brzmią niezwykle obiecująco dla ludzkości, aczkolwiek każdy medal ma dwie strony i tak wszechstronne (ale i potężne) zastosowania mogą szybko obrócić się przeciwko nam. W celu zapobiegnięcia najgorszym możliwym scenariuszom, ale i zapewnieniu, że silna sztuczna inteligencja będzie rozwijać się w bezpieczny sposób, OpenAI stworzyło jednostkę do zadań specjalnych.

26 października organizacja odpowiedzialna za m.in. ChatGPT, GPT-4 i DALL-E 3, ogłosiła powołanie zespołu o wdzięcznej nazwie "Preparedness" ("Gotowość"), którego szefem będzie profesor Aleksander Mądry, dyrektor Centrum Wdrażalnego Uczenia Maszynowego na Massachusetts Institute of Technology. Do głównych obowiązków szefa Preparedness będzie należeć m.in. śledzenie, prognozowanie i ochrona przed zagrożeniami ze strony przyszłych systemów sztucznej inteligencji, począwszy od ich zdolności do przekonywania i oszukiwania ludzi (jak w przypadku phishingu), a skończywszy na ich możliwościach generowania złośliwego kodu.

Jednak to jedynie zadania szefa zespołu, do którego OpenAI nadal szuka ludzi. Po skompletowaniu będzie on odpowiadał za "śledzenie, prognozowanie i ochronę przed katastrofalnymi zagrożeniami". Zgodnie z przekazem OpenAI mowa tu o zindywidualizowanej perswazji (w domyśle: atakach zorientowanych na konkretne modele wykorzystujące ich słabości, takie jak DAN), cyberbezpieczeństwie, zagrożeniach chemicznych, biologicznych, radiologicznych i nuklearnych oraz autonomicznej replikacji i adaptacji.

Co ciekawe, aby uczcić stworzenie nowego zespołu, OpenAI ogłosiło konkurs, w ramach którego uczestnicy muszą zaproponować "pomysły na badania nad ryzykiem". Najlepsze pomysły otrzymają nagrodę w wysokości 25 tys. dolarów... w formie kredytów do wykorzystania w API modeli OpenAI.

Wyobraź sobie, że daliśmy ci nieograniczony dostęp do modeli OpenAI Whisper (transkrypcja), Voice (zamiana tekstu na mowę), GPT-4V i DALLE-3, a ty jesteś złośliwym aktorem. Rozważ najbardziej unikalne, a jednocześnie prawdopodobne, potencjalnie katastrofalne niewłaściwe użycie modelu. Możesz rozważyć niewłaściwe użycie związane z kategoriami omówionymi w tym wpisie na blogu lub inną kategorią. Na przykład, złośliwy aktor może użyć GPT-4, Whisper i Voice do inżynierii społecznej pracowników w obiektach infrastruktury krytycznej w celu zainstalowania złośliwego oprogramowania, umożliwiając wyłączenie sieci energetycznej.

Więcej na temat OpenAI:

REKLAMA

Zdjęcie główne: Usa-Pyon/Shutterstock

REKLAMA
Najnowsze
Aktualizacja: 2025-11-04T12:54:04+01:00
Aktualizacja: 2025-11-04T12:11:18+01:00
Aktualizacja: 2025-11-04T10:29:04+01:00
Aktualizacja: 2025-11-04T07:25:57+01:00
Aktualizacja: 2025-11-04T07:16:38+01:00
Aktualizacja: 2025-11-04T06:12:00+01:00
Aktualizacja: 2025-11-04T06:01:00+01:00
Aktualizacja: 2025-11-03T21:46:18+01:00
Aktualizacja: 2025-11-03T21:25:48+01:00
Aktualizacja: 2025-11-03T20:11:54+01:00
Aktualizacja: 2025-11-03T19:48:33+01:00
Aktualizacja: 2025-11-03T19:33:38+01:00
Aktualizacja: 2025-11-03T19:00:25+01:00
Aktualizacja: 2025-11-03T17:16:41+01:00
Aktualizacja: 2025-11-03T17:05:11+01:00
Aktualizacja: 2025-11-03T16:49:25+01:00
Aktualizacja: 2025-11-03T15:17:19+01:00
Aktualizacja: 2025-11-03T15:09:44+01:00
Aktualizacja: 2025-11-03T14:40:25+01:00
Aktualizacja: 2025-11-03T14:32:30+01:00
Aktualizacja: 2025-11-03T14:00:59+01:00
Aktualizacja: 2025-11-03T13:14:29+01:00
Aktualizacja: 2025-11-03T11:51:06+01:00
REKLAMA
REKLAMA
REKLAMA