Te zasady miały być gwarantem, że AI Google'a nas nie skrzywdzi. Zgadnij, co się z nimi stało
Zniknął kluczowy zapis ze zbioru zasad "odpowiedzialnego rozwoju AI" Google'a. Chodzi o fragment mówiący o nietworzeniu systemów mogących nas skrzywdzić lub złamać zasady prawa międzynarodowego.
Każda firma tworząca systemy sztucznej inteligencji rozpoczyna swoją działalność od określenia nieprzekraczalnych zasad tworzenia tej eksperymentalnej technologii. A to po to, by człowiek z pomocą jednej komendy głosowej mógł przywołać odkurzacz, a nie karabin maszynowy.
Bezpieczny rozwój AI zakłada przyzwolenie na łamanie prawa międzynarodowego. Przynajmniej tak wynika ze zmian w zasadach Google'a
Tego typu zasady zostały nakreślone przez Google'a już w 2018 roku i znalazły się w nich kierunki, w jakich ma podążać AI firmy - sztuczna inteligencja ma być tworzona z korzyścią dla społeczeństwa, bez uprzedzeń, jak i z odpowiedzialnością wobec ludzi. Jednocześnie ten sam dokument nakreślił granice działalności Google'a: zasady zakładały, że koncern nie będzie rozwijać technologii, "które powodują lub mogą powodować ogólną krzywdę", broni ani technologii, które zbierają informacje w nieakceptowanej społecznie ilości i nieakceptowanymi społecznie sposobami.
Jak informuje amerykański dziennik The Washington Post, we wtorek Google po cichu zmienił te zasady, wykreślając z sekcji "Zastosowania, których nie będziemy rozwijać" technologie, "które powodują lub mogą powodować ogólną krzywdę" oraz przypadki użycia naruszające zasady prawa międzynarodowego i prawa człowieka.
Archiwalne wersje strony z ubiegłego roku oraz dzisiejszą, "świeżą" kopię pozbawioną ważnego zapisku można przejrzeć dzięki serwisowi Archive.today.
"TWP" skontaktowało się z Google'em z prośbą o odpowiedzi na pytania dotyczące sprawy. W odpowiedzi rzecznik Google'a jedynie przesłał link do raportu Google'a na temat odpowiedzialnego rozwoju AI w 2024 roku.
W treści raportu znajduje się deklaracja zmiany zasad rozwoju AI ze względu na "szybki rozwój technologii" i jej rozpowszechnienie - także w strukturach rządów krajów demokratycznych.
"Trwa globalna rywalizacja o przywództwo w dziedzinie sztucznej inteligencji w coraz bardziej złożonym krajobrazie geopolitycznym. Uważamy, że demokracje powinny przewodzić w rozwoju sztucznej inteligencji, kierując się podstawowymi wartościami, takimi jak wolność, równość i poszanowanie praw człowieka. Uważamy też, że firmy, rządy i organizacje podzielające te wartości powinny współpracować w celu stworzenia sztucznej inteligencji, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe."
- czytamy w raporcie Google'a na temat odpowiedzialnego rozwoju AI.
Google nie jest jedyną firmą, która uważa, że bezpieczny rozwój AI z korzyścią dla ludzkości może odbywać się z przymknięciem oka na rozwój broni. Takie podejście ma także Microsoft oraz OpenAI, które wspólnie już w ubiegłym roku podpisały pierwsze umowy z amerykańską armią.
Może zainteresować cię także: