Noblista mówi, dlaczego AI może wysadzić ludzkość z siodła. "Liczą się tylko zyski"
Geoffrey Hinton twierdzi, że najwięksi gracze technologiczni kierują się rachunkiem zysków, a nie bezpieczeństwem użytkowników i długofalową wizją przyszłości ludzkości.

Geoffrey Hinton, jeden z pionierów badań nad sztuczną inteligencją i laureat Nagrody Nobla, ponownie zabrał głos w debacie o kierunku rozwoju AI. Naukowiec, znany w mediach jako "ojciec chrzestny sztucznej inteligencji", ostrzega, że najwięksi gracze w branży nie myślą o długofalowych konsekwencjach technologii, koncentrując się głównie na krótkoterminowych celach biznesowych.
Zdaniem ojca chrzestnego AI, Dolina Krzemowa ignoruje przyszłość ludzkości
Według Hintona właściciele firm technologicznych kierują się przede wszystkim rachunkiem zysków, a nie pytaniem o to, jak AI wpłynie na ludzkość w perspektywie dziesięcioleci. Z kolei sami badacze - jak podkreśla uczony - skupiają się na rozwiązywaniu bieżących problemów, które ich ciekawią, zamiast patrzeć na szerszy obraz.
W rozmowie z magazynem Fortune Hinton wyjaśnił, że twórców AI zajmują dziś praktyczne zadania, takie jak trenowanie modeli do rozpoznawania obrazów czy generowania wiarygodnych filmów. Jego zdaniem właśnie te krótkoterminowe ambicje napędzają obecnie rozwój sztucznej inteligencji, zamiast refleksji nad tym, jak w przyszłości może ona wpłynąć na społeczeństwo.
Dla właścicieli firm motorem badań są krótkoterminowe zyski. [...] Mamy raczej mniejsze cele, takie jak: jak to osiągnąć? Albo: jak sprawić, by komputer potrafił rozpoznawać obiekty na obrazach? Jak sprawić, by komputer potrafił generować przekonujące filmy? [...] Naukowcy są zainteresowani rozwiązywaniem problemów, które wzbudzają ich ciekawość. Nie zaczynamy od tego samego celu, jakim jest odpowiedź na pytanie: jaka będzie przyszłość ludzkości?
Hinton od lat ostrzega, że AI rozwijana bez odpowiednich zabezpieczeń może wymknąć się spod kontroli. W jego ocenie istnieje od 10 do 20 proc. szans, że w ciągu kilku dekad ludzkość zginie w wyniku pojawienia się superinteligentnych systemów. To ryzyko - jak mówi - stale rośnie, bo rozwój technologii jest szybszy, niż sam przewidywał jeszcze kilka lat temu.
Naukowiec wskazuje na dwa podstawowe zagrożenia. Pierwsze to nadużycia ze strony "złych aktorów", już dziś widoczne w rosnącej liczbie deepfejków czy cyberataków. Drugie jest znacznie poważniejsze - to możliwość, że sama sztuczna inteligencja stanie się niezależnym podmiotem, dążącym do przetrwania i kontroli.
Hinton uważa, że aby uniknąć katastrofy, firmy muszą zmienić podejście i traktować AI nie jako narzędzie całkowicie podległe człowiekowi, lecz jako byt, który może potrzebować innych mechanizmów kontroli. W wywiadach posługiwał się obrazowym porównaniem: superinteligentne AI mogłoby przejąć rolę "matki", a ludzie - "dzieci", które wymagają ochrony.
Przypomnijmy, że w grudniu ubiegłego roku Hinton w rozmowie z BBC podnosił już kwestię ryzyka "apokalipsy AI". Wówczas podkreślał, że tempo rozwoju technologii jest znacznie szybsze, niż zakładały wcześniejsze prognozy, a powierzenie jej całkowicie w ręce wielkich koncernów może okazać się dla ludzkości śmiertelnie groźne.
Więcej na temat sztucznej inteligencji: