REKLAMA

Stworzyli 6 przykazań sztucznej inteligencji. Musi je spełnić, żeby była bezpieczna dla ludzi i świata

Następne kilka lat upłynie nam pod znakiem wyścigu zbrojeń sztucznej inteligencji. Nie tylko prześcigania się korporacji w tym, kto ma mniej halucynacji i więcej parametrów, ale całą ludzkość czeka maraton z serią wyzwań, którym musimy podołać, by zapewnić bezpieczeństwo działania i korzystania z SI. Międzynarodowa grupa naukowców publikuje listę sześciu wyzwań, których ukończenie doprowadzi nas do - w założeniu - bezpiecznego dla ludzi i SI świata.

30.03.2023 05.23
Stworzyli 6 przykazań sztucznej inteligencji. Musi je spełnić, żeby była bezpieczna dla ludzi i świata
REKLAMA

Powszechna obecność sztucznej inteligencji w przestrzeni cyfrowej i przede wszystkim modeli, które mogą tworzyć treści niczym człowiek, wywołuje skrajnie różne emocje. Z jednej strony mamy grupę entuzjastów, którzy w SI widzą przyszłość i pomimo jej relatywnie ograniczonych zdolności (gdyż SI nie myśli, a halucyjnuje) nie boją się powierzać jej wielu zadań. Po drugiej stronie barykady stoi grupa, która wyraża swój sceptycyzm, a nierzadko również zaniepokojenie obecnymi zmianami i rozwojem SI.

Pomost pomiędzy obiema grupami stanowią badacze sztucznej inteligencji, którzy z jednej strony wymieniają liczne przykłady tego, jak sztuczna inteligencja wpłynęła pozytywnie na otaczającą nas rzeczywistość. Jednocześnie postulują oni, że nie powinniśmy spoczywać na laurach, a wraz z ogromnym skokiem technologicznym idzie również wiele wyzwań i duża odpowiedzialność.

REKLAMA

Międzynarodowa grupa badaczy sztucznej inteligencji i uczenia maszynowego pod przewodnictwem doktor Ozlem Garibay z Uniwersytetu Centralnej Florydy nie jest tu wyjątkiem. W 47 stronicowej publikacji 26 naukowców z całego świata w czasie trwających 20 miesięcy badań zdefiniowała i opisała sześć wyzwań, które tak instytucje badawcze, jak i firmy oraz koncerny muszą podjąć by tworzone przez nich modele (oraz oprogramowanie je wykorzystujące) było bezpieczne.

Po pierwsze: dobrostan człowieka

Pierwszym postulatem badaczy jest zorientowanie działania sztucznej inteligencji na dobrostan człowieka. Jak piszą naukowcy, ze względu na brak "ludzkich wartości, zdrowego rozsądku oraz etyki" sztuczna inteligencja działa w sposób, który może prowadzić do znacznego pogorszenia ludzkiego samopoczucia. Złe samopoczucie może być tak efektem nadludzkich możliwości SI (np. tego, z jaką łatwością sztuczna inteligencja pokonuje ludzi - i nie tylko, w szachy), jak i efektem tego, że SI nie myśli, a więc nie jest w stanie "przefiltrować" uprzedzeń czy oczywistych błędów.

Naukowcy zauważają również, że istotny wpływ na dobrostan w interakcji z SI ma zaufanie do technologii. Społeczeństwo, które nie wie, w jaki właściwie sposób działa sztuczna inteligencja ma tendencje do przesadnego zaufania - lub wręcz przeciwnie, do przesadnej antypatii wobec treści wygenerowanych przez dany model. Biorąc pod uwagę te i inne czynniki, zespół Garibay apeluje o postawienie ludzkiego dobrostanu w centrum zainteresowania przyszłych interakcji sztuczna inteligencja-człowiek.

Po drugie: odpowiedzialność

Odpowiedzialność to termin, który stale przewija się w świecie sztucznej inteligencji. Rozważa się ją tak w kontekście tego, do czego wykorzystujemy SI, jak i tego jak projektowane i trenowane są modele. Międzynarodowy zespół postuluje praktykowanie projektowania, rozwijania i wdrażania SI z dobrymi intencjami. Według nich należy rozważyć nie tylko odpowiedzialność techniczną, ale również interakcję w kontekście prawnym i etycznym. Technologia musi być rozpatrywana nie tylko pod kątem jej skuteczności, ale także w kontekście jej wykorzystania.

Wraz z wprowadzeniem zaawansowanych metod uczenia maszynowego coraz ważniejsze staje się zrozumienie, w jaki sposób została podjęta decyzja i kto jest za nią odpowiedzialny.

- piszą badacze

Po trzecie: prywatność

Prywatność to temat rzeka, który powraca jak bumerang przy każdym dyskursie o technologii - zwłaszcza przy mediach społecznościowych. Jednak jest on niezwykle ważny także przy sztucznej inteligencji, bowiem SI nie istnieje bez danych. A czym są dane?

Naukowcy opisują je jako "abstrakcja podstawowych bloków konstrukcyjnych, które składają się na sposób, w jaki postrzegamy świat". Te bloki to prozaiczne wartości: kolory, kształty, tekstury, odległości, czas. O ile wąskie SI, zorientowane na jeden cel, np. odsłonienie rolet przy danym natężeniu światła posługują się danymi powszechnie dostępnymi, obiektywnymi, o tyle SI w zastosowaniach bardziej rozległych (tu choćby modele text-to-image takie jak Midjourney czy modele językowe takie jak ChatGPT) korzystają z danych o ludziach i przez ludzi stworzonych. Artykułów prasowych, książek, ilustracji i fotografii publikowanych w internecie.

Dane o ludziach fundamentalnie wpływają zarówno na ludzi, o których dane są zbierane, jak i na ludzi w systemie, w którym AI zostanie wdrożona.

Dlatego też trzecie wyzwanie dotyczy szeroko pojętej prywatności i zaadresowania takich praw jak prawo do bycia pozostawionym w spokoju, prawo do ograniczenia dostępu do siebie, prawo do tajemnicy, prawo do kontroli nad informacjami osobistymi, prawo do osobowości (ochrona osobowości, indywidualności i godności) czy prawo do intymności.

Po czwarte: ramy projektu

Sztuczna inteligencja może być niezwykle prosta i zorientowana na jeden cel, ale w przypadku większych modeli, o szerokim i wielozadaniowym charakterze wyzwaniem jest nie tylko prywatność danych, ale i ramy projektu.

Dla przykładu, GPT-4, najnowszy model sztucznej inteligencji OpenAI pomimo swych rozmiarów i wpływu, jaki ma na świat SI (i nie tylko) nie ma w pełni upublicznionej dokumentacji, a co za tym idzie, nie jesteśmy w stanie w pełni ocenić ryzyka, związanego z korzystaniem z modelu. Z kolei GPT-3 wytrenowany na danych pochodzących z forum 4chan jest... cóż, modelem, z którym nie chciałbyś rozmawiać.

Zespół Garibay chce, aby każdy model SI działał w ramach jasno określonych ram. Nie tylko ze względu na sam dobrostan człowieka, z którym SI wchodzi w interakcje, ale także ze względu na możliwości ocenienia ryzyka związanego z korzystaniem z modelu. Ramy projektowe mają zakładać troskę o potrzeby, wartości i pragnienia różnych grup kulturowych oraz interesariuszy. Proces tworzenia, treningu i dostrajania SI ma być skupiony na dobrostanie człowieka, a finalny produkt - model sztucznej inteligencji, ma być zorientowany na wzmacnianie i usprawnianie działania człowieka. Modele, w których nie da się określić ryzyka, powinny mieć ograniczony lub nadzorowany dostęp.

Po piąte: zarządzanie i niezależny nadzór

SI w ciągu zaledwie roku zdążyło dosłownie zmienić świat. Premiera Barda Google oraz Bing Microsoftu wpłynęła na akcje obu gigantów na giełdzie, ChatGPT zaczął być namiętnie wykorzystywany przez uczniów w szkołach, a premier Rumunii zatrudnił wirtualnego asystenta, który będzie go informował o potrzebach społeczeństwa. Z każdym kolejnym wydarzeniem lub zjawiskiem, SI pełni w naszych życiach coraz większą rolę.

Biorąc pod uwagę stale rosnącą współzależność na linii sztuczna inteligencja-człowiek-środowisko, naukowcy jako piąte wyzwanie wymieniają ustanowienie organów zarządzania i niezależnego nadzoru. Organy te nadzorowałyby cały okres życia sztucznej inteligencji: od pomysłu, poprzez rozwój i wdrożenie w życie. Organy odpowiednio oznaczałyby różne modele SI oraz sędziowały w sprawach związanych ze sztuczną inteligencją i podmiotami życia społecznego.

REKLAMA

Po szóste: interakcje człowiek-sztuczna inteligencja

W zastosowaniach SI możemy dosłownie przebierać i każdy znajdzie coś dla siebie: generowanie tekstu, wykrywanie treści na obrazkach, odpowiadanie na pytania, generowanie obrazów, rozpoznawanie osób na zdjęciach, analizowanie danych. Ta mnogość możliwości wykorzystania to nie tylko zmartwienie dla osób starających się nie tylko o wpasowanie SI do norm prawnych i etycznych, ale także dla pracowników bojących się wyparcia z rynku pracy przez modele, które zrobią to samo szybciej, taniej, a może i lepiej. Jednocześnie istnieją osoby, które w swej pracy wspomagają się SI i choć same nie mogą być zastąpione, to współcześnie SI stanowi dla nich niezastąpioną pomoc.

Według przytoczonych przez naukowców badań strach ma wielkie oczy i do zastąpienia ludzi tanią, sztuczną siłą roboczą jeszcze daleko. Mimo to już teraz wymieniają oni wyzwanie ustanowienia ścisłej hierarchii dla interakcji człowiek-sztuczna inteligencja: to człowiek ma stać ponad sztuczną inteligencją. Sztuczna inteligencja musi być tworzona z poszanowaniem dla kognitywnych zdolności człowieka, uwzględniać ich emocje, interakcje społeczne, pomysły, planowanie i interakcje z obiektami. Jednocześnie we wszystkich sytuacjach to człowiek ma stać ponad SI, kontrolować zachowanie i tworzone przez model treści, jak i brać za nie odpowiedzialność.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA