Dyrektor Microsoftu rozmawiał z papieżem o sztucznej inteligencji. Znaleźli wspólny język
Brad Smith, główny prawnik Microsoftu, spotkał się na prywatnej audiencji z papieżem Franciszkiem. Panowie rozmawiali o wymiarze etycznym rozwoju sztucznej inteligencji, a jest o czym dyskutować.
Sztuczna inteligencja to nie jest sprawa tylko firm technologicznych i tego, jaki algorytm będzie najlepszy. To sprawa nas wszystkich – prawodawców, użytkowników, prawników i papieży. Rozwój technologii zmienia obraz świata, który znamy. Rozwój AI może go przekształcić jeszcze bardziej. To szansa i zagrożenie.
Papież zdaje sobie sprawę z wagi problemu i zmian, które łączą się z jej rozwojem.
Choć papież Franciszek sam przyznaje, że technologia nie jest jego mocną stroną, nie znaczy to, że nie zdaje sobie sprawy z jej znaczenia. Właśnie technologię papież uczynił centralnym zagadnieniem tegorocznego Dnia Komunikacji. Jak mówił, ogłaszając temat tegorocznych rozważań, media społecznościowe mogą być wspaniałym dopełnieniem spotkań twarzą w twarz i działać jako platformy do dzielenia się doświadczeniami, ale mają też swoją mroczną stronę, która ułatwia rozrywanie tkanki społecznej, sianie agresji i podejrzliwości.
Papież zaapelował, żeby w dyskusji o nowych technologiach nie zapominać o człowieku, któremu ma ona służyć i społeczeństwie, w którym on żyje. Żeby zachęcić do zainteresowania się stykiem etyki i technologii młodych naukowców na całym świecie, Papieska Akademia Życia z Microsoftem ogłosiły, że ufundują nagrodę za najlepszą pracę doktorską, która będzie poruszała tematykę sztucznej inteligencji w służbie ludzkiego życia.
Regulować, nie ignorować.
W wywiadzie dla włoskiego dziennika L'Osservatore Romano Brad Smith po raz kolejny zaapelował o uregulowanie wykorzystania sztucznej inteligencji. Rozwój nowej technologii powinien iść w parze z rozwojem przepisów, które sankcjonują jej wykorzystanie. Nie można po prostu zamknąć oczu na zmiany, które wpłyną na życie milionów. Nie wystarczy optymistyczna nadzieja, że w ostatecznym rozrachunku jakoś to będzie.
Część przyszłych problemów już teraz widoczna jest goły okiem. Sztuczną inteligencję uczy się, karmiąc ją jak największą liczbą istotnych danych, co tworzy napięcie między chęcią posiadania materiałów poglądowych dla algorytmów a ochroną danych użytkowników.
Wykorzystanie istniejących baz danych i odwzorowanie rzeczywistości może utrwalać istniejące nierówności i umacniać status quo, które niekoniecznie powinno być utrwalane.
Do tego dochodzą liczne wątpliwości i problemy związane z odpowiedzialnością za ewentualne błędy popełniane przez sztuczną inteligencję. To zagadnienie, które powraca za każdym razem, gdy głośno jest o wypadku autonomicznego samochodu, ale jest tylko jednym z wielu przykładów, nad którymi trzeba pochylić się już teraz.
Przyszłość jest zawsze niedoszacowana i przeszacowana zarazem. Nie przewidzimy wszystkich efektów rozwoju technologicznego, bo to niemożliwe, ale dyskusji o nich nie powinniśmy zostawiać tylko w rękach wielkich technologicznych korporacji. Uczestniczyć w niej muszą etycy, naukowcy, politycy i najwyraźniej papieże.