Będą nas nawiedzać cyfrowe duchy zmarłych bliskich. Przerażająca wizja (?) przyszłości
Wyobraź sobie świat, w którym możesz porozmawiać ze zmarłym bliskim. Sztuczna inteligencja analizuje ich zdjęcia, nagrania i teksty, tworząc realistyczną symulację, z którą możesz wchodzić w interakcje. To wizja "cyfrowego życia pozagrobowego", która staje się coraz bardziej realna dzięki rozwojowi technologii AI.
Jednak badacze z Uniwersytetu Cambridge ostrzegają, że ta nowa branża może nieść ze sobą poważne zagrożenia dla zdrowia psychicznego. W artykule opublikowanym w czasopiśmie Philosophy and Technology naukowcy apelują o wprowadzenie rygorystycznych protokołów bezpieczeństwa w projektowaniu technologii cyfrowego życia pozagrobowego, aby zapobiec wyrządzaniu szkód społecznych i psychicznych żyjącym.
Ożywić zmarłą bliską osobę
Deadboty lub Griefboty to chatboty oparte na sztucznej inteligencji, które symulują wzorce językowe i cechy osobowości zmarłych, wykorzystując pozostawione przez nich cyfrowe ślady. Niektóre firmy już oferują takie usługi, zapewniając zupełnie nowy rodzaj "pośmiertnych kontaktów".
Więcej o sztucznej inteligencji przeczytasz na Spider`s Web:
Badacze twierdzą, że nawet ci, którzy początkowo pocieszają się po utracie bliskiej osoby kontaktami z cyfrowym zmarłym, mogą zostać wyczerpani psychicznie codziennymi interakcjami, które stają się "przytłaczającym ciężarem emocjonalnym".
Szybki postęp w dziedzinie generatywnej sztucznej inteligencji oznacza, że prawie każdy, kto ma dostęp do Internetu i podstawową wiedzę, może ożywić zmarłą bliską osobę. Ten obszar sztucznej inteligencji to etyczne pole minowe. Ważne jest, aby nadać priorytet godności zmarłego i zadbać o to, aby nie została ona naruszona
- powiedziała dr Katarzyna Nowaczyk-Basińska, współautorka badania i badaczka w Leverhulme Center for the Future of Intelligence w Cambridge (LCFI).
Dodaje ona, że dana osoba może zostawić symulację sztucznej inteligencji jako prezent pożegnalny dla bliskich, którzy nie są przygotowani na przepracowanie swojego żalu w ten sposób. Prawa zarówno dawców danych, jak i osób wchodzących w interakcję z cyfrowymi zmarłymi AI powinny być w równym stopniu chronione.
Tu mówi (zmarła) babcia
Istnieją już platformy umożliwiające za niewielką opłatą odtwarzanie zmarłych za pomocą sztucznej inteligencji. Wśród nich jest Project January, w ramach którego na początku wykorzystywano modele GPT, oraz aplikacje, takie jak HereAfter. Podobne usługi zaczęły pojawiać się także w Chinach.
Jednym z potencjalnych scenariuszy przedstawionych w artykule jest "MaNana": usługa sztucznej inteligencji umożliwiająca tworzenie bota symulującego zmarłych dziadków.
W hipotetycznym scenariuszu dorosły wnuk, który początkowo jest pod wrażeniem i podbudowany technologią, zaczyna otrzymywać reklamy po zakończeniu płatnego okresu próbnego. Na przykład chatbot od zamówień w firmach dostarczających jedzenie zaczyna mówić głosem i stylem zmarłej babci.
Dzięki takim symulacjom ludzie mogą wytworzyć silne więzi emocjonalne, co uczyni ich szczególnie podatnymi na manipulację. Należy rozważyć metody, a nawet rytuały wycofywania martwych botów z godności. Może to oznaczać na przykład formę cyfrowego pogrzebu lub inny rodzaj ceremonii, w zależności od kontekstu społecznego
- powiedział współautor dr Tomasz Hollanek, z LCFI w Cambridge.
Jego zdaniem powinny powstać przepisy zapobiegające wykorzystywaniu botów zmarłych w sposób pozbawiony szacunku, na przykład do celów reklamowych lub aktywnej obecności w mediach społecznościowych.
Cyfrowe nawiedzanie
Jednym z głównych zagrożeń jest możliwość "cyfrowego nawiedzania". AI, która nie jest odpowiednio zaprojektowana, może tworzyć symulacje zmarłych, które są nierealistyczne, a nawet traumatyczne dla tych, którzy z nimi wchodzą w interakcje.
Wyobraź sobie rozmowę z chatbotem, który ucieleśnia zmarłego bliskiego, ale mówi i zachowuje się w sposób zupełnie niepodobny do tej osoby za życia. Takie doświadczenie może pogłębić żal i utrudnić proces żałoby.
Druzgoczący efekt
Kolejnym problemem jest kwestia kontroli nad cyfrowym wizerunkiem zmarłego. Kto decyduje o tym, jak dana osoba jest przedstawiana w symulacji? Czy rodzina ma pełną kontrolę nad danymi i sposobem ich wykorzystania? Brak przejrzystości i kontroli może prowadzić do nadużyć i krzywdzenia zmarłych.
Badacze przedstawili to w scenariuszu z fikcyjną firmą o nazwie Stay. Przedstawia starszą osobę, która potajemnie angażuje się w stworzenie swojego bota i płaci za dwudziestoletnią subskrypcję w nadziei, że pocieszy to jej dorosłe dzieci i umożliwi w przyszłości wnukom bliższe jej poznanie.
Usługa rozpoczyna się po śmierci. Kończy się to wyczerpaniem emocjonalnym i poczuciem winy dzieci z powodu losu bota. Jednak zawieszenie bota naruszyłoby warunki umowy podpisanej przez rodzica. Tak więc maile cały czas przychodzą, a chatbot działa.
Ważne jest, aby cyfrowe usługi związane z życiem pozagrobowym uwzględniały prawa i zgodę nie tylko tych, które odtwarzają, ale także tych, którzy będą musieli wchodzić w interakcję z symulacjami. Usługi te wiążą się z ryzykiem spowodowania ogromnego cierpienia u ludzi, jeśli staną się ofiarami niechcianych cyfrowych nawiedzeń spowodowanych niepokojąco dokładnymi rekonstrukcjami AI osób, które utraciły. Potencjalny efekt psychologiczny, szczególnie w i tak już trudnym momencie, może być druzgocący
– stwierdziła Hollanek.