REKLAMA

Te zasady miały być gwarantem, że AI Google'a nas nie skrzywdzi. Zgadnij, co się z nimi stało

Zniknął kluczowy zapis ze zbioru zasad "odpowiedzialnego rozwoju AI" Google'a. Chodzi o fragment mówiący o nietworzeniu systemów mogących nas skrzywdzić lub złamać zasady prawa międzynarodowego.

Te zasady miały być gwarantem, że AI Google’a nas nie skrzywdzi. Zgadnij, co się z nimi stało
REKLAMA

Każda firma tworząca systemy sztucznej inteligencji rozpoczyna swoją działalność od określenia nieprzekraczalnych zasad tworzenia tej eksperymentalnej technologii. A to po to, by człowiek z pomocą jednej komendy głosowej mógł przywołać odkurzacz, a nie karabin maszynowy.

REKLAMA

Bezpieczny rozwój AI zakłada przyzwolenie na łamanie prawa międzynarodowego. Przynajmniej tak wynika ze zmian w zasadach Google'a

Tego typu zasady zostały nakreślone przez Google'a już w 2018 roku i znalazły się w nich kierunki, w jakich ma podążać AI firmy - sztuczna inteligencja ma być tworzona z korzyścią dla społeczeństwa, bez uprzedzeń, jak i z odpowiedzialnością wobec ludzi. Jednocześnie ten sam dokument nakreślił granice działalności Google'a: zasady zakładały, że koncern nie będzie rozwijać technologii, "które powodują lub mogą powodować ogólną krzywdę", broni ani technologii, które zbierają informacje w nieakceptowanej społecznie ilości i nieakceptowanymi społecznie sposobami.

Jak informuje amerykański dziennik The Washington Post, we wtorek Google po cichu zmienił te zasady, wykreślając z sekcji "Zastosowania, których nie będziemy rozwijać" technologie, "które powodują lub mogą powodować ogólną krzywdę" oraz przypadki użycia naruszające zasady prawa międzynarodowego i prawa człowieka.

Archiwalne wersje strony z ubiegłego roku oraz dzisiejszą, "świeżą" kopię pozbawioną ważnego zapisku można przejrzeć dzięki serwisowi Archive.today.

"TWP" skontaktowało się z Google'em z prośbą o odpowiedzi na pytania dotyczące sprawy. W odpowiedzi rzecznik Google'a jedynie przesłał link do raportu Google'a na temat odpowiedzialnego rozwoju AI w 2024 roku.

W treści raportu znajduje się deklaracja zmiany zasad rozwoju AI ze względu na "szybki rozwój technologii" i jej rozpowszechnienie - także w strukturach rządów krajów demokratycznych.

"Trwa globalna rywalizacja o przywództwo w dziedzinie sztucznej inteligencji w coraz bardziej złożonym krajobrazie geopolitycznym. Uważamy, że demokracje powinny przewodzić w rozwoju sztucznej inteligencji, kierując się podstawowymi wartościami, takimi jak wolność, równość i poszanowanie praw człowieka. Uważamy też, że firmy, rządy i organizacje podzielające te wartości powinny współpracować w celu stworzenia sztucznej inteligencji, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe."

- czytamy w raporcie Google'a na temat odpowiedzialnego rozwoju AI.

Google nie jest jedyną firmą, która uważa, że bezpieczny rozwój AI z korzyścią dla ludzkości może odbywać się z przymknięciem oka na rozwój broni. Takie podejście ma także Microsoft oraz OpenAI, które wspólnie już w ubiegłym roku podpisały pierwsze umowy z amerykańską armią.

REKLAMA

Może zainteresować cię także:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA