REKLAMA

Będą nas nawiedzać cyfrowe duchy zmarłych bliskich. Przerażająca wizja (?) przyszłości

Wyobraź sobie świat, w którym możesz porozmawiać ze zmarłym bliskim. Sztuczna inteligencja analizuje ich zdjęcia, nagrania i teksty, tworząc realistyczną symulację, z którą możesz wchodzić w interakcje. To wizja "cyfrowego życia pozagrobowego", która staje się coraz bardziej realna dzięki rozwojowi technologii AI.

Będą nas nawiedzać cyfrowe duchy zmarłych bliskich. Przerażająca wizja (?) przyszłości
REKLAMA

Jednak badacze z Uniwersytetu Cambridge ostrzegają, że ta nowa branża może nieść ze sobą poważne zagrożenia dla zdrowia psychicznego. W artykule opublikowanym w czasopiśmie Philosophy and Technology naukowcy apelują o wprowadzenie rygorystycznych protokołów bezpieczeństwa w projektowaniu technologii cyfrowego życia pozagrobowego, aby zapobiec wyrządzaniu szkód społecznych i psychicznych żyjącym.

REKLAMA

Ożywić zmarłą bliską osobę

Deadboty lub Griefboty to chatboty oparte na sztucznej inteligencji, które symulują wzorce językowe i cechy osobowości zmarłych, wykorzystując pozostawione przez nich cyfrowe ślady. Niektóre firmy już oferują takie usługi, zapewniając zupełnie nowy rodzaj "pośmiertnych kontaktów".

Więcej o sztucznej inteligencji przeczytasz na Spider`s Web:

Badacze twierdzą, że nawet ci, którzy początkowo pocieszają się po utracie bliskiej osoby kontaktami z cyfrowym zmarłym, mogą zostać wyczerpani psychicznie codziennymi interakcjami, które stają się "przytłaczającym ciężarem emocjonalnym".

Szybki postęp w dziedzinie generatywnej sztucznej inteligencji oznacza, że ​​prawie każdy, kto ma dostęp do Internetu i podstawową wiedzę, może ożywić zmarłą bliską osobę. Ten obszar sztucznej inteligencji to etyczne pole minowe. Ważne jest, aby nadać priorytet godności zmarłego i zadbać o to, aby nie została ona naruszona

- powiedziała dr Katarzyna Nowaczyk-Basińska, współautorka badania i badaczka w Leverhulme Center for the Future of Intelligence w Cambridge (LCFI).

Dodaje ona, że dana osoba może zostawić symulację sztucznej inteligencji jako prezent pożegnalny dla bliskich, którzy nie są przygotowani na przepracowanie swojego żalu w ten sposób. Prawa zarówno dawców danych, jak i osób wchodzących w interakcję z cyfrowymi zmarłymi AI powinny być w równym stopniu chronione.

Tu mówi (zmarła) babcia

Istnieją już platformy umożliwiające za niewielką opłatą odtwarzanie zmarłych za pomocą sztucznej inteligencji. Wśród nich jest Project January, w ramach którego na początku wykorzystywano modele GPT, oraz aplikacje, takie jak HereAfter. Podobne usługi zaczęły pojawiać się także w Chinach.

Jednym z potencjalnych scenariuszy przedstawionych w artykule jest "MaNana": usługa sztucznej inteligencji umożliwiająca tworzenie bota symulującego zmarłych dziadków. 

W hipotetycznym scenariuszu dorosły wnuk, który początkowo jest pod wrażeniem i podbudowany technologią, zaczyna otrzymywać reklamy po zakończeniu płatnego okresu próbnego. Na przykład chatbot od zamówień w firmach dostarczających jedzenie zaczyna mówić głosem i stylem zmarłej babci.

Dzięki takim symulacjom ludzie mogą wytworzyć silne więzi emocjonalne, co uczyni ich szczególnie podatnymi na manipulację. Należy rozważyć metody, a nawet rytuały wycofywania martwych botów z godności. Może to oznaczać na przykład formę cyfrowego pogrzebu lub inny rodzaj ceremonii, w zależności od kontekstu społecznego

- powiedział współautor dr Tomasz Hollanek, z LCFI w Cambridge.

Jego zdaniem powinny powstać przepisy zapobiegające wykorzystywaniu botów zmarłych w sposób pozbawiony szacunku, na przykład do celów reklamowych lub aktywnej obecności w mediach społecznościowych.

Cyfrowe nawiedzanie

Jednym z głównych zagrożeń jest możliwość "cyfrowego nawiedzania". AI, która nie jest odpowiednio zaprojektowana, może tworzyć symulacje zmarłych, które są nierealistyczne, a nawet traumatyczne dla tych, którzy z nimi wchodzą w interakcje.

Wyobraź sobie rozmowę z chatbotem, który ucieleśnia zmarłego bliskiego, ale mówi i zachowuje się w sposób zupełnie niepodobny do tej osoby za życia. Takie doświadczenie może pogłębić żal i utrudnić proces żałoby.

Druzgoczący efekt

Kolejnym problemem jest kwestia kontroli nad cyfrowym wizerunkiem zmarłego. Kto decyduje o tym, jak dana osoba jest przedstawiana w symulacji? Czy rodzina ma pełną kontrolę nad danymi i sposobem ich wykorzystania? Brak przejrzystości i kontroli może prowadzić do nadużyć i krzywdzenia zmarłych.

Badacze przedstawili to w scenariuszu z fikcyjną firmą o nazwie Stay. Przedstawia starszą osobę, która potajemnie angażuje się w stworzenie swojego bota i płaci za dwudziestoletnią subskrypcję w nadziei, że pocieszy to jej dorosłe dzieci i umożliwi w przyszłości wnukom bliższe jej poznanie.

REKLAMA

Usługa rozpoczyna się po śmierci. Kończy się to wyczerpaniem emocjonalnym i poczuciem winy dzieci z powodu losu bota. Jednak zawieszenie bota naruszyłoby warunki umowy podpisanej przez rodzica. Tak więc maile cały czas przychodzą, a chatbot działa.

Ważne jest, aby cyfrowe usługi związane z życiem pozagrobowym uwzględniały prawa i zgodę nie tylko tych, które odtwarzają, ale także tych, którzy będą musieli wchodzić w interakcję z symulacjami. Usługi te wiążą się z ryzykiem spowodowania ogromnego cierpienia u ludzi, jeśli staną się ofiarami niechcianych cyfrowych nawiedzeń spowodowanych niepokojąco dokładnymi rekonstrukcjami AI osób, które utraciły. Potencjalny efekt psychologiczny, szczególnie w i tak już trudnym momencie, może być druzgocący

– stwierdziła Hollanek.
REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA