Tak technologia zmienia najciekawszy zawód świata

Czy klasyczne dziennikarstwo musi umrzeć? Czy algorytm zastąpi redaktora? Sztuczna inteligencja zmienia branżę kreatywną i siłą rzeczy wpływa także na dziennikarstwo. W książce "DZIENNIK(AI)RSTWO" prof. Jan Kreft nie pozostawia złudzeń: dziennikarstwo algorytmiczne burzy fundamenty modeli biznesowych i zarządzania mediami, rozmywa tożsamości i role zawodowe, przynosi kres idei dziennikarstwa.

Tak technologia zmienia najciekawszy zawód świata

Dla praktyków i studentów dziennikarstwa to pozycja obowiązkowa, ale i dla tych, którzy są "wyłącznie" odbiorcami mediów także lektura godna uwagi. Na przykładzie jednej profesji widać, jak AI zmienia reguły gry. I to na całym świecie, w tym samym momencie.

"DZIENNIK(AI)RSTWO. Jak sztuczna inteligencja zmieniła najciekawszą profesję na świecie" (wydana przez Towarzystwo Autorów i Wydawców Prac Naukowych Universitas) to opowieść o rzeczywistości, w której chatboty przestają być jedynie "służalczymi kretynami", a maszyny "płynnych bzdur" coraz częściej wchodzą w role dotąd zarezerwowane dla ludzi. To refleksja nad końcem hegemonii klasycznego dziennikarstwa i pytanie o miejsce dla kreatywności oraz wiarygodności w epoce algorytmów. Autor przygląda się stereotypom na temat dezinformacji, a także procesom, w których dziennikarze są zastępowani lub wspierani przez technologie.

To również opowieść o autorytecie algorytmu, szkoleniu AI na treściach nieodróżnialnych od tych tworzonych przez ludzi, o wtargnięciu "obcych" do jednej z najbardziej fascynujących profesji. Kreft nie stroni od analizy teorii ludowych i spiskowych, jak również stawia pytanie, czym właściwie jest "prawda" w wydaniu sztucznej inteligencji. I wreszcie – jaką przyszłość ma zawód dziennikarza w Polsce i na świecie? Czy opór wobec algorytmizacji ma jeszcze sens?

Tylko w magazynie Spider's Web+ przedpremierowy fragment książki "DZIENNIK(AI)RSTWO. Jak sztuczna inteligencja zmieniła najciekawszą profesję na świecie" prof. Jana Krefta.

Dziewiątego maja 2023 roku rozdano kolejne Nagrody Pulitzera. Wśród nagrodzonych zwracał uwagę artykuł Mony Chalabi z “The New York Timesa” poświęcony bogactwu Jeffa Bezosa. Zaskakiwały zabiegi autorki podjęte w celu zrozumienia źródeł fortuny i wkładu Bezosa w społeczny dobrostan (Chalabi 2023). Warto wspomnieć o tym artykule, ponieważ na początku ubiegłej dekady szef firmy Narrative Science, odpowiadającej za miliony automatycznie powstałych tekstów, zapowiedział, że w ciągu kilku lat firma ta dostanie Nagrodę Pulitzera. Nie dostała. 

Autor tych słów był zbyt dużym optymistą, choć to akurat zrozumiała postawa w tym środowisku. Pulitzer dla Chalabi także nie był ukłonem w stronę sztucznej inteligencji, ale materiał ten miał z nią istotne związki. W 2015 roku Tyler Vigen w książce “Spurious correlations” przedstawił ponad 30 tysięcy korelacji zidentyfikowanych z dużych zbiorów danych. 

Na przykład wydatki Stanów Zjednoczonych na naukę, zdobywanie przestrzeni kosmicznej i technologię z zadziwiającą precyzją korelowały z liczbą samobójstw przez powieszenie i uduszenie w dekadzie 1999–2009. W tej samej dekadzie liczba osób, które utonęły, wpadając do basenu, korelowała z liczbą filmów, w których wystąpił Nicolas Cage. Czy to oznacza, że określone wydatki na naukę powodują, że jacyś ludzie popełniają samobójstwa, a inni toną w basenie po obejrzeniu filmu z amerykańskim aktorem? 

Naturalnie nie ma takich związków i nie ma logicznego argumentu, aby sądzić, że tak jest. To przykłady “potopu” tak zwanych fałszywych korelacji (zob. na przykład: Calude, Longo 2017). 

Rzecz w tym, że, jak proponuje John Aziz (2015): “Jeśli uważasz, że jedna rzecz jest powodowana przez inną, i masz dane, które pokazują, że te dwie rzeczy są powiązane, to aby przedstawić wiarygodny dowód, musisz wyjaśnić, dlaczego są one powiązane, i wskazać teorię, która daje weryfikowalne przewidywania dotyczące związku między tymi dwiema rzeczami”. 

Przykład artykułu z “The New York Timesa” jest intrygujący, ponieważ zrozumiale dla każdego czytelnika ilustruje niemal abstrakcyjne bogactwo. Chciałoby się wręcz powiedzieć – kreatywnie i… charakterystycznie dla maszyn, które na masową skalę mogą identyfikować korelacje. 

Artykuł Chalabi to w istocie szukanie zdumiewających związków, które pobudzają wyobraźnię i ukazują problem z różnych perspektyw oraz, co może istotniejsze, przyczynek do dyskusji o związkach między korelacjami a kreatywnością. A dyskusja ta obfituje w ważne aspekty. Przede wszystkim można się spodziewać, że generatywna sztuczna inteligencja wykroczy poza wspieranie kreatywności i stanie się producentem kreatywnych wyników, czyli wejdzie w obszar uważany za wyłączną domenę człowieka.

Czy algorytmy "mają nosa"?

I prawdopodobnie nie dostrzeżemy tego momentu. Nie oznacza to, że takie dziennikarstwo będzie popularne w najbliższym czasie. Choć bowiem narzędzia sztucznej inteligencji są coraz chętniej stosowane w mediach, to na razie pojawiło się zaskakująco niewiele produktów dokładnie dostosowanych do indywidualnych potrzeb, które wspierały kreatywne myślenie dziennikarzy. A mówiąc dosadniej, żaden z systemów powstałych w ostatniej dekadzie nie wspierał ludzkiego twórczego myślenia w odkrywaniu nowych perspektyw w informacjach, choć chatboty z generatywną sztuczną inteligencją zdają się ważną nowością. 

Start-upy, takie jak Loyal.ai, oferują dostęp do asystentów, którzy zapewniają świeże spojrzenie na wiadomości, ale nie przedstawiono jeszcze dowodów ich wsparcia dla dziennikarskiego twórczego myślenia. Podobnie ma się rzecz na przykład z aplikacjami Canva, Squibler, LivingWriter czy z innymi rozwiązaniami, jak StoryCreate (narzędzie edycji opracowane w celu kierowania kreatywnymi przepływami pracy użytkowników), powstałymi w tak zwanych branżach kreatywnych. 

Dostępnych jest zaś stosunkowo wiele narzędzi pomagających dziennikarzom i użytkownikom w epizodach kreatywności eksploracyjnej, kombinacyjnej i transformacyjnej. Podobnie jak w wypadku moderowania, także rezultaty działania sztucznej inteligencji przy tworzeniu treści są odbierane jako dalekie od oczekiwanej doskonałości. A mówiąc konkretniej, bywają oceniane jako uproszczone i pozbawione kreatywności oraz niespełniające głównych ideałów zawodowych, takich jak kontrola i występowanie w imieniu obywateli. 

Algorytmom ma brakować istotnych ludzkich cech, dlatego są “złymi dziennikarzami”. “Nie mają nosa” do nowej informacji, nie wiedzą, jak analizować informację i jakie są nowe konteksty, nie są krytyczne, nie wykrywają oczywistych błędów, nie potrafią przekazać atmosfery i emocji, wczuć się w klimat czy utrzymać więzi z ludźmi, nie są elastyczne (Olsen 2021). 

Brakuje im także umiejętności analizowania informacji i dostrzegania nowych, zaskakujących odniesień. Takim ocenom, ferowanym przez redaktorów i reporterów oraz programistów, towarzyszy jednocześnie uznanie, że w wypadku algorytmicznej produkcji mają do czynienia z “dziennikarstwem”. 

Jest to jednak (zwykle) dziennikarstwo niskiej jakości, ponieważ, ich zdaniem, programowanie nie opiera się na dziennikarskich zasadach i ocenach. Jest zatem jedynie "wystarczająco dobre", czyli – jak zapowiadał ponad dekadę temu Matt Carlson (2014) – spełniające minimalne oczekiwania związane z tworzeniem wiadomości, nawet jeśli automaty dostarczają jasnych i dokładnych informacji. 

Dla rozważań teoretycznych nie jest bez znaczenia, że oznaczenie artefaktu technologicznego jako "inteligentny" przyczynia się do debat na temat implikacji dla wysiłków twórczych. Gdy zaciera się granica między naukami społecznymi i “obliczeniowymi”, a kreatywność pozostaje głęboko podatna na kontekst, można skłaniać się ku idei kreatywności sztucznej inteligencji. 

Jeśli rozgraniczać sztuczną inteligencję i kreatywność jako dwa różne wymiary, to każdy można oceniać oddzielnie, pojawia się więc kwestia pomiaru i oceny kreatywności jako wymiaru oddzielnego od inteligencji. Jest to jednak jeden z najbardziej kontrowersyjnych i zniechęcających problemów. Ogólnie rzecz biorąc, wydaje się dziś, że granice ludzkiej kreatywności ograniczają sztuczną inteligencję, ponieważ konieczne jest definiowanie procesów, które jedynie naśladują ludzkie uprzedzenia dotyczące kreatywności.

Ponadto istnieje ograniczenie w dążeniu do samodzielnej generatywnej sztucznej inteligencji, są bowiem wymagane rozwiązania pozwalające na generowanie nowej treści, a jednocześnie dostosowane do istniejących norm. By rozsupłać ten węzeł, należałoby na nowo zdefiniować relacje człowieka oraz maszyny i w miejsce podporządkowanej relacji sztucznej inteligencji jako narzędzia – albo jako samodzielnego generatora kreatywnych treści – należałoby dostrzec potencjał partnerstwa, a na to chyba jeszcze dziennikarstwo nie jest gotowe. 

Na razie chodzi zatem o wzajemne kompensowanie ograniczeń i odrzucenie wewnętrznej sprzeczności, zwłaszcza gdy próbujemy maszynom przypisać cechy antropocentryczne, takie jak kreatywność lub inteligencja. Kreatywność definiuje się jako zdolność do tworzenia pracy, która jest zarówno nowatorska (oryginalna, nieoczekiwana), jak i odpowiednia (użyteczna, dostosowująca się do ograniczeń zadania).

Możliwość, że tak rozumiana kreatywność może być udziałem maszyny, była historycznie uznawana za niepojętą. I w istocie tak było – do czasu, gdy postępy uczenia maszynowego pozwoliły maszynom odkrywać nową wiedzę i tworzyć artefakty w procesie "uczenia się" i płynnego korygowania optymalizacji, wyszukiwania, interakcji i analiz. To wówczas pojawiła się idea tak zwanej kreatywności obliczeniowej (zob. na przykład: Majid al-Rifaie 2016) i, co więcej, bywa, że dzieła maszyn są oceniane lepiej od powstałych za sprawą wyłącznie ludzi. 

Dziś wiemy, że na odbiór dzieł sztucznej inteligencji wpływa wiele czynników, w tym przede wszystkim tak zwana przejrzystość obecności algorytmicznej, czyli ujawnianie zaangażowania algorytmu. Gdy jest ona potwierdzana, ludzie zazwyczaj reagują niechęcią wobec algorytmicznych decyzji (prac).

Taka "awersja do algorytmów" (Dietvorst i in. 2015) jest obecna w wielu dziedzinach – obszerny ich przegląd zamieścił Jason Burton (2019), zastanawiając się, czy wykonalne jest wspólne podejmowanie decyzji przez człowieka i maszynę. 

Współpraca ta dotyczy na przykład fikcji, a także na przykład pisania wierszy (zob. na przykład: Köbis, Mossink 2021) i komponowania muzyki (Hong i in. 2022). Wspomnianą awersję tłumaczy się na różne sposoby. Na przykład ludzie szybciej tracą zaufanie do prognoz algorytmicznych niż do ludzkich, gdy popełniają ten sam błąd (Dietvorst i in. 2015). Preferencja ta jest szczególnie wyraźna, gdy ludzie wiedzą, że to algorytmy się mylą, w porównaniu z sytuacją, kiedy wiedzą, że to człowiek popełnia błąd. Błędy człowieka są ponadto uznawane za losowe, a błędy maszyny – za systemowe. Społeczny odbiór "inwazji" sztucznej inteligencji zależy nie tylko od oceny jakości wygenerowanej automatycznie treści, ale także od tego, że gdy ludzie oceniają produkt, biorą pod uwagę również cechy producenta (to tak zwany błąd tożsamości). 

W praktyce ocena kreatywności produktu medialnego może zatem być niższa, gdy jego twórca nie spełnia stereotypowych oczekiwań dotyczących kreatywności, a takich sytuacji jest wiele. Na przykład produkty tworzone przez mężczyzn są oceniane jako bardziej kreatywne niż tworzone przez kobiety (Luksyte i in. 2018), a ludzie starsi mają być… za starzy, by być kreatywni (Oh i in. 2023). 

Wspomniane także przy okazji omawiania zjawiska "Doliny Niesamowitości" uprzedzenia dotyczą i sztucznej inteligencji. W wypadku dzieł sztuki preferencje mogą nie być uwarunkowane rzeczywistym autorstwem, ale tym, kogo dana osoba uważa za autora (tak zwane autorstwo atrybucyjne) (zob. na przykład: Ragot i in. 2020). 

Jeszcze innym czynnikiem jest ujawniona w wielu badaniach nadmierna pewność siebie i systematyczne przecenianie własnych zdolności, ujawniające się w wielu dziedzinach (słynny efekt Dunninga-Krugera).

Takie przecenianie występuje częściowo dlatego, że osoby niekompetentne nie tylko wyciągają błędne wnioski i podejmują niefortunne decyzje, ale ich niekompetencja pozbawia te osoby metapoznawczej zdolności do ich zrozumienia. Nie potrafią przy tym rozpoznać własnej niekompetencji (Dunning i in. 2003). W odniesieniu do stosowania sztucznej inteligencji zwykle najbardziej pomocnej w sytuacjach, w których użytkownicy nie dysponują wiedzą na dany temat, okazuje się na przykład, że osoby o niższych kwalifikacjach mogą utrzymywać poczucie złudnej wyższości, co może sugerować, że użytkownicy, którzy szczególnie powinni korzystać z systemów sztucznej inteligencji, mogą być najmniej skłonni do akceptacji jej prac (Schaffer i in. 2019). 

Co jest "przyjemniejsze do czytania"?

"Bardziej wiarygodne" versus "zdecydowanie gorsze" – to opinie użytkowników o treściach sztucznej inteligencji. Już na początkowym etapie wdrażania sztucznej inteligencji w dziennikarstwie była ona porównywana z twórczością człowieka i nadal przybywa prac naukowych zaświadczających, że algorytmiczna twórczość nie odbiega, przynajmniej pod względem kilku czynników, od twórczości człowieka, chociaż istnieją sfery, w których wykazuje ograniczenia.

Uogólniając, odbiorcy mają trudności z odróżnieniem tekstów napisanych maszynowo od tekstów napisanych przez ludzi. Różnice pojawiają się w momencie ujawnienia atrybucji. Świadomość, że tekst został (rzekomo) napisany przez maszynę, wpływa na to, jak jednostki postrzegają na przykład jego wiarygodność.

W kwestii szczególnie istotnej w mediach, dotyczącej bowiem tworzenia treści medialnej, badanie przeprowadzone jeszcze w 2014 roku, gdy powszechne były proste szablony, wykazało, że jedyną statystycznie istotną różnicą między tym, jak odbiorcy postrzegają teksty informacyjne tworzone automatycznie i pisane przez człowieka, było to, że te drugie są “przyjemniejsze do czytania” (Clerwall 2013). Wątek przewagi obiektywizmu i domniemanej sprawiedliwości algorytmicznych osądów przewija się w wielu badaniach, w ich konkluzjach pojawia się zaś sugestia, że ludzie powinni preferować sztuczną inteligencję i jej decyzje. 

Wnioski z badań na ten temat są także dalej przedstawiane przy okazji rozważań o prawdzie i obiektywizmie sztucznej inteligencji w mediach, już jednak w tym miejscu należy podkreślić, że osądy algorytmiczne mają być lepsze od osądów ludzkich pod względem dokładności i mocy predykcyjnej, wyniki algorytmów – bardziej obiektywne, wiarygodne i wolne od ideologii, decyzje sztucznej inteligencji – co najmniej tak samo przydatne i sprawiedliwe, jak decyzje podejmowane przez ludzi. Szczególnie często wątek obiektywizmu maszyn pojawia się w sytuacji, gdy jest porównywany odbiór moderacji algorytmicznej i podejmowanej przez człowieka. To ludzie mają być wówczas stronniczy, a nie algorytmy (Myers West 2018), co nie znaczy jednak, że osąd maszynowy ma być preferowany we wszystkich okolicznościach. 

Najlepszym rozwiązaniem wydaje się zatem algorytmiczne moderowanie połączone z moderowaniem człowieka oraz transparentność decyzji moderacji (Jhaver i in. 2019).

Co intrygujące, pojawiły się także badania sugerujące, że w opinii odbiorców teksty pisane przez człowieka są znacznie gorsze niż pisane maszynowo, i to w każdym aspekcie. Wykazano (zob. Jung i in. 2017) między innymi, że w Korei Południowej czytelnicy preferowali teksty, o których wiedzieli, że są pisane maszynowo. 

Dysproporcja między ocenami pracy człowieka i algorytmu jest niwelowana, gdy porównuje się odbiór informacji przypisywanych dziennikarzom i sztucznej inteligencji. Opublikowane w 2020 roku wyniki obszernych badań nie wykazały żadnej różnicy w postrzeganiu wiarygodności wiadomości, za to niewielką przewagę jakości i ogromną przewagę pod względem czytelności miały wiadomości pisane przez ludzi. Badania te przeprowadzono jednak na kilka lat przed przełomem chatbotów generatywnej sztucznej inteligencji, poza tym – niezależnie od źródła informacji – uczestnicy wystawili wyższe oceny wiarygodności, jakości i czytelności wówczas, gdy powiedziano im, że czytają artykuł napisany przez ludzi, co potwierdzało tak zwaną heurystykę autorytetu i przeczyło dobrze ugruntowanej w nauce heurystyce maszyny (maszyny są bezpieczniejsze i bardziej godne zaufania niż ludzie) (Sundar 2008). 

Co więcej, stawiało to organizacje medialne przed etycznym dylematem, czy na pewno należy ujawniać automatyczne generowanie treści. Dylemat ten jest ciągle obecny, dlatego więc w tym samym ważnym, choć już wiekowym, badaniu rzetelnie podano źródło artykułów – wówczas automatyzowane wiadomości były postrzegane jako bardziej wiarygodne i wyższej jakości niż ich odpowiedniki napisane przez ludzi. 

Reasumując, gdy artykuły są podobnej jakości – zwykle dotyczy to prostych informacji – wówczas organizacje informacyjne nie muszą zbytnio się martwić, że czytelnicy mogą postrzegać zautomatyzowane wiadomości jako mniej wiarygodne lub, ogólniej, jako niższej jakości niż wiadomości pisane przez ludzi (Graefe, Bohlken 2020). Gdy jednak badania dotyczyły bardziej wyrafinowanych i złożonych treści, czyli na przykład zawierających całościową kontekstualizację, wówczas się okazywało, że odbiorcy mieli problem z ustaleniem autorstwa (człowiek czy maszyna) (Henestrosa i in. 2023). 

Logika rynku

Sztuczna inteligencja jako autor była również postrzegana jako mniej funkcjonalna, gdy zadanie obejmowało intuicję, afekt lub empatię. Badania nie wykazały jednak różnic w ocenach wiarygodności (zob. na przykład: Jang i in. 2021; Wölker, Powell 2021). Niejednoznaczne były także wyniki badań, w których manipulowano autorstwem: albo wskazywano wówczas brak różnic w wiarygodności (van der Kaa, Krahmer 2014), albo postrzegano treść sztucznej inteligencji jako bardziej wiarygodną i obiektywną (Wu 2020). Ważnym czynnikiem zaufania odbiorców okazało się także medium wykorzystujące sztuczną inteligencję. W wypadku organizacji medialnej, której wiadomości cieszyły się większym zaufaniem, wykorzystanie maszyn piszących wiadomości zwiększyło postrzeganą obiektywność wiadomości. Na przykład w amerykańskich badaniach wiadomości rzekomo publikowane przez Fox News cieszyły się mniejszym zaufaniem uczestników niż publikowane w “The New York Timesie” (Liu, Wei 2019).

W takich niejednoznacznych społecznych ocenach pobrzmiewa problem konfrontacji sprzecznych logik – logiki profesjonalnego dziennikarstwa, określającej ideały jakościowe grupy zawodowej, z logiką rynkową. Zgodnie z logiką profesjonalizmu praca jest dobrem i profesjonaliści czerpią satysfakcję z dobrego jej wykonywania. Gdy zanika profesjonalna kontrola nad wykonywaną pracą, a tak dzieje się z dziennikarstwem pod presją zmian technologicznych i ekonomicznych, wówczas jest podważany także status zawodowy dziennikarzy. Menedżerowie mediów działający w zgodzie z logiką menedżeryzmu, przyjmującą, że władza leży w gestii organizacji, a nie różnych grup w jej ramach, wykorzystują technologię jako narzędzie wprowadzania zmian, kierując się przede wszystkim maksymalizacją dochodów organizacji informacyjnej i bogactwem akcjonariuszy. Kwestionują tym samym profesjonalną kontrolę dziennikarzy nad ich pracą – i przychodzi to tym łatwiej, im częściej dziennikarze postrzegają rozwój technologiczny jako nieuniknioną bezosobową siłę. Konsekwencje są jednak głębsze. 

Otóż w dziennikarstwie przez lata dominującą logiką zawodową była koncepcja odpowiedzialności społecznej. Według tej logiki głównym celem zawodu dziennikarza jest dostarczanie istotnych informacji, które są jak najbardziej zbliżone do prawdy, i pociąganie do odpowiedzialności osób u władzy (Kovach, Rosenstiel 2021). 

Dlatego dziennikarstwo miało być bezstronne, neutralne, obiektywne i uczciwe, a dziennikarze – niezależni. Dziennikarze powinni wyjaśniać skomplikowane kwestie przystępnym językiem, czyli wykorzystywać profesjonalną wiedzę na temat swojego zawodu, unikając schematyczności i technik manipulacyjnych przyciągających uwagę. Liczyły się także jakościowe aspekty ich pracy, takie jak aktualność, szybkość oraz wysoka moralność i fundamenty etyczne. Pamiętając, że zakłócający potencjał dziennikarstwa algorytmicznego występuje na początkowym, wysoce niedoskonałym etapie jego rozwoju, trzeba podkreślić, że polega na oferowaniu przede wszystkim tego, co nie mieści się w ramach zawodowej logiki profesjonalizmu, a co jest bliższe logice rynkowej i przedsiębiorczej logice programistów, deweloperów, menedżerów projektów, grafików, analityków danych, zgodnie z którą kryzys dziennikarstwa ma przede wszystkim technologiczne podłoże, a normatywne i demokratyczne cele dziennikarstwa są albo przeszacowane, albo nie tak istotne, i to osiąganie celu rynkowego dzięki innowacyjności i rozwojowi technologicznemu jest podstawową receptą na problemy sektora. Ma to swoje konsekwencje. 

Z ogólniejszej perspektywy cały ten problem polega na czymś tak fundamentalnym, jak zerwanie społecznej umowy. Otóż przez dekady w zamian za dostęp do wiedzy i dziennikarską służbę społeczeństwo nadawało zawodowi dziennikarza przywileje, takie jak autonomia, szczególna ochrona prawna i, ewentualnie, wsparcie finansowe. Dominacja logiki rynkowej i menedżeryzmu destabilizuje ten układ. 

Dziennikarze, którzy muszą udowadniać pracą swoją wartość, nie są w stanie osiągać zawodowego celu i tracą jurysdykcję własnej profesji nad produkcją informacji (przyjdzie o tym jeszcze wspomnieć przy okazji omawiania erozji granic dziennikarstwa). Gdy jednocześnie nie wierzą, że algorytmy i sztuczna inteligencja nie mogą dostarczać informacji o dużej wartości publicznej, ale akceptują masową produkcję algorytmicznej treści, wtedy oznacza to zgodę na zaniedbywanie przez dziennikarstwo wypełniania zobowiązań społecznych i – pośrednio – abdykację z pozycji strażników dominacji dziennikarskiej profesjonalnej logiki. Kiedy zatem dziennikarze nie mogą wcielać w życie dziennikarskich wartości, a rynkowa logika i menedżeryzm definiują, czym jest dziennikarstwo, wówczas dochodzi do jego redefiniowania i – nie bez racji – mówimy wtedy o “końcu dziennikarstwa, jakie znamy”. Tęsknota za lepszą jakością dziennikarstwa? 

Arystotelesowska koncepcja rzemiosł

Ponieważ algorytmizacja mediów jest traktowana jako nieunikniony proces, kluczem do przyszłości mediów wydaje się podążanie kilkoma zbieżnymi szlakami. Przede wszystkim jest to szlak technologiczny, czyli poprawa jakości twórczości algorytmicznej sztucznej inteligencji, w zgodzie z zawodową wiarą w prymat „głębi” publikacji nad szybkością jej powstawania, oraz materiałów śledczych i analitycznych nad zgodnością treści z faktami, dokładnością, obiektywnością i szybkością.

Słowem, gdy tylko dziennikarze znajdą czas (dzięki wdrażaniu sztucznej inteligencji), wówczas będą mogli zająć się wreszcie tym, co – podobno, ponieważ wcale nie jest to takie oczywiste – uważają za ważne, czyli tworzeniem materiałów wysokiej jakości. Wówczas także odzyskają mandat społeczny, choć w sposób zapośredniczony i zależny, ponieważ zbudowany na zasobach organizacji pozamedialnych. 

Oznacza to jednak, że w konkurencji ze sztuczną inteligencją – i to jest drugi szlak – również dziennikarze powinni zadbać o jakość wyższą już nie tylko od jakości dzieł "zwykłych" użytkowników, ale także maszyny (Nielsen 2016), i skoncentrować się na tych cechach, które są skorelowane z ludzkimi zdolnościami poznawczymi, czyli na przykład krytyczną postawą, zrozumieniem ludzkich interakcji, kontekstualizacją i dostrzeganiem nieoczywistych powiązań. Powinni także nie traktować wysokiej jakości jedynie jako argumentu w obronie własnego statusu. Dla swojego komfortu mogą traktować na przykład dziennikarstwo obliczeniowe jako sztukę retoryczną i sięgać po Arystotelesowską koncepcję rzemiosł, dostrzegać w dziennikarstwie działalność, która zależy od pewnego rodzaju techné – głębokiego zrozumienia przyczynowości leżącej u podstaw praktyki (Karlsen, Stavelin 2014). 

Warto także dodać, że nie brakuje naukowych dowodów, że ewolucja cyfryzacji dziennikarstwa – a komputery są używane przez dziennikarzy od połowy XX wieku – jest kontynuacją tradycyjnego dziennikarstwa, a dziennikarz programista (lub dziennikarz współpracujący z programistą) łączy umiejętności dziennikarskie z umiejętnościami zawodów informatycznych i posiłkuje się w swojej pracy (często nieświadomie) „metodą naukową”. Praktyka pracy dziennikarzy obliczeniowych przypomina bowiem pracę badaczy, a metoda naukowa jest nadal jedynym dobrym sposobem wymyślonym przez ludzkość, aby poradzić sobie z jej uprzedzeniami, myśleniem życzeniowym i percepcyjnymi klapkami na oczach (Meyer 2002). 

W dążeniu do wyższej jakości dziennikarze mogą także przy okazji porzucić autodestrukcyjną w tych konkurencyjnych okolicznościach “produkcję” dyktowaną logiką clickbaitu, nawet jeśli oznaczałoby to dla organizacji medialnej (redakcji) trudne decyzje kadrowe. Jeszcze raz potwierdza się bowiem, że sztuczna inteligencja w pierwszej kolejności zastąpi tych, którzy wykonują najbardziej prymitywną, banalną i powtarzalną część zadań. Można jednak przypuszczać, że ten zwrot w zarządzaniu mediami jest mało prawdopodobny choćby dlatego, że z kosztowej perspektywy łatwiej "zatrudnić sztuczną inteligencję" niż zwolnić dziennikarzy bądź zatrudnić dziennikarzy o większych od clickbaitowych umiejętnościach. A jeszcze trudniej zmienić dziennikarskie nawyki tworzenia treści niskiej jakości. Bez względu na te uwagi zapewnienie (a nawet jedynie dążenie) dziennikarstwa wyższej jakości jest odpowiednią strategią, przynajmniej w przejściowym okresie (nieuchronnego?) wzrostu medialnych kompetencji sztucznej inteligencji. 

Ochronią nas wartości?

Jak “wdrukować w kod” dziennikarskie wartości?

Po latach używania komputerów w dziennikarstwie i kilkudziesięciu miesiącach od debiutu nowej generacji chatbotów generatywnej sztucznej inteligencji głównym tematem dyskusji jest koegzystencja dwóch światów – dziennikarskiego i informatycznego – i kreacja nowych unikatowych zasobów umiejętności, obejmujących wiedzę dziennikarską i wiedzę techniczną, czyli – w interpretacji Pierre’a Bourdieu – nowy kapitał kulturowy. 

Chodzi o powstanie “abstrakcyjnego kapitału”, w którym dziennikarstwo jest postrzegane zarówno jako jednorazowe przedsięwzięcie, jak i jako proces, który można dekonstruować w sposób abstrakcyjny, zbliżony do programowania komputerowego (Danzon-Chambaud, Cornia 2024). Choć bowiem sztuczna inteligencja w dziennikarstwie staje się normą, to aktualne pozostaje ogólne pytanie, jak z nią połączyć ludzi w tworzeniu informacji, by osiągnąć równowagę między oczekiwaniami wzrostu wydajności a zachowaniem odpowiedniej jakości i odpowiedzialności, przy czym nie chodzi jedynie o tradycyjnie rozumianą odpowiedzialność dziennikarską, ale także odpowiedzialność za kod. 

W jakim stopniu dziennikarskie wartości mają być “wdrukowane w kod” i w jakim stopniu osadzone w kodzie wartości wzmacniają jedne ideologie i marginalizują inne. Odkrywanie w mediach fundamentalnej roli programistów prowadzi bowiem do wniosku, że w istocie kod tłumaczy idee na dyrektywy napisane w języku, który mogą rozumieć maszyny. 

Nie jest on jednak neutralny i nie służy jedynie celom funkcjonalnym, ale kształtuje epistemologiczne twierdzenia dziennikarzy i wpływa na sposób, w jaki odbiorcy je postrzegają. Kod jest bowiem bytem społeczno-technicznym, jest obiektem wiedzy umożliwiającym tłumaczenie idei w obie strony między człowiekiem i maszyną, a sam proces kodowania jest aktem komunikacji (Celiński 2018), choć są to procesy niedoskonałe – na przykład kodowanie często zawodzi, gdy chodzi o interpretację ironii i niuansów, procesy nieustannie ponawiane, i niekiedy, jak w wypadku platform open source, możliwe do prześledzenia, choć w zasadzie kod jest nie tylko nieuchwytny i ulotny, ale także niewybaczający błędów (Marino 2018). 

Ma także znakomicie rozbudowany kontekst – języki programowania, infrastruktury technologiczne i zarządzanie kodem są nie tylko skoncentrowane w ograniczonej grupie krajów o rozwiniętym przemyśle i sektorze nowych technologii, lecz mogą one również sprawować kontrolę nad globalnym dostępem do technologii. Wszystko to oznacza, że integracja umiejętności obliczeniowych w mediach zmienia naturę dziennikarstwa, jednocześnie jest zaś nasycona złożonymi wpływami. Kwestie te są tym bardziej istotne, że większość narzędzi sztucznej inteligencji jest opracowywana przez tak zwane strony trzecie, niezwiązane bezpośrednio z dziennikarstwem, co pociąga za sobą nie tylko ryzyko rozbieżności wartości między narzędziami a wartościami dziennikarzy (Komatsu i in. 2020), ale także – jeśli narzędzia te zostaną błędnie użyte – szkodliwe skutki dla sfery publicznej. 

Problem dotyczy  wartości tak zwanego dziennikarstwa hybrydowego, a ściślej mówiąc, różnic między wartościami reprezentowanymi przez dziennikarzy i przez inżynierów czy programistów, różnic w rozumieniu, jak wplatać potencjalnie destrukcyjną innowację w dziennikarską rutynę, aby zapewnić jej odpowiedzialność (Bucher 2018). To ważny problem, ponieważ sami projektanci systemów informatycznych przyznawali jeszcze niedawno, że nie sposób odtworzyć unikatowej mieszanki, oczywistych w medialnym środowisku, dziennikarskiego przeczucia, instynktu i kreatywności (Gutierrez Lopez i in. 2023). 

Dlatego dziennikarze powinni odgrywać nie tylko większą rolę w kształtowaniu projektowania technologii, ale także przyjmować nowe role redakcyjne, aby zachować kontrolę, własność i władzę oraz status społeczny, na przykład przy podejmowaniu złożonych "ludzkich" decyzji redakcyjnych, gdy “redaktorzy sztucznej inteligencji” wykonują rutynowe zadania związane z badaniami i syntezą (Gutierrez Lopez 2023).

I tak się dzieje, przynajmniej w najlepszych redakcjach, w których dziennikarze współpracują z programistami, analitykami danych i specjalistami user experience od projektu koncepcyjnego po etap wdrożenia. 

Osiągany tam konsensus polega zazwyczaj na tym, że w podejmowaniu złożonych decyzji w dziennikarstwie jest potrzebny ludzki osąd, a przy projektowaniu narzędzi sztucznej inteligencji należy nadać priorytet wartościom dziennikarskim. Aby narzędzia sztucznej inteligencji mogły zostać w pełni zaakceptowane jako narzędzia redakcyjne, muszą być zgodne z praktykami zawodowymi i wartościami dziennikarstwa. To o tyle ważna kwestia, że deficyty leżą także po stronie inżynierów nowych technologii, tymczasem przez ostatnie dekady inżynierska strona mediów była traktowana priorytetowo, choć w zgodnej opinii menedżerów ankietowanych, na przykład przez LinkedIn, dla organizacji ważniejsze są umiejętności miękkie niż wysoce techniczne umiejętności związane ze sztuczną inteligencją (LinkedIn 2023). 

Na przykład z badania "Jobs for the Future" wynika, że 78 procent ankietowanych z dziesięciu zawodów, w których jest zatrudnionych najwięcej pracowników, sklasyfikowało umiejętności i zadania charakterystyczne dla człowieka jako "ważne" lub "bardzo ważne". Były to budowanie relacji międzyludzkich, negocjacje między stronami oraz kierowanie i motywowanie zespołów. Co więcej, 96 procent obecnych umiejętności inżyniera oprogramowania, czyli głównie biegłość w językach programowania, może ostatecznie zostać… zastąpiona przez sztuczną inteligencję. 

Mówiąc kolokwialnie, to jeden z powodów, dla których dziennikarze mogą i powinni dostrzegać w specjalistach sztucznej inteligencji raczej partnerów w ramach wspólnoty losu niż jedynie posłańców złej wieści. Wypada jednak przy tym dodać, że o ile wykorzystanie technologii w dziennikarstwie nie jest samo w sobie nowe, o tyle zmienił się zakres, w jakim rozwój technologiczny wpływa na praktyki dziennikarskie i dziennikarze, instytucjonalizując technologię, stają się coraz zależni od technologicznych aktorów (Lewis i in. 2016). Ich praca nie jest po prostu wzbogacona przez rozwój technologiczny, ale misternie z nią spleciona. A to rodzi kolejne konsekwencje. Na początkowym etapie koegzystencji programiści byli traktowani przez dziennikarzy z rezerwą, jako technolodzy o niezrozumiałych umiejętnościach. Z kolei inżynierowie oprogramowania mieli trudności ze zrozumieniem, gdzie dokładnie ich praca wpisuje się w praktykę dziennikarską (Royal, Kosterich 2024). 

Po latach, gdy powstają kanały informacyjne całkowicie tworzone przez sztuczną inteligencję, takie jak NewsGPT, to programiści decydują o treściach informacyjnych i prezentowanych przez nie wartościach. W konsekwencji ciążą na nich zarzuty produkcji treści zgodnych z wartościami liderów firm technologicznych i ich środowisk oraz zarzuty cyfrowej hegemonii, ze wszelkimi tego stanu konsekwencjami, takimi jak stronniczość i pomijanie marginalizowanych głosów. Mnożą się więc apele o przejrzystość kodu i "wdrukowanie" dziennikarskich wartości, zwłaszcza tych łatwiejszych do implementacji, takich jak aktualność, i o prace nad bardziej złożonymi kwestiami, takimi jak służba społecznemu interesowi. Logika kompromisów w moderacji treści. 

Ponieważ badania moderacji treści zazwyczaj priorytetowo traktują reprezentowanie jednej grupy interesariuszy lub społeczności w danym typie kontekstu, sugerowana jest także logika kompromisów w projektowaniu omawianej już po części moderacji treści w zgodzie z klasyczną definicją Jamesa Grimmelmanna (2015), że moderacja to mechanizm ułatwiający współpracę i zapobiegający nadużyciom. Taka holistyczna moderacja automatów i ludzi działałaby inaczej w różnych okolicznościach (Jiang i in. 2023). Tymczasem brakuje jej jednak zrozumienia niuansów w indywidualnych sytuacjach (Jhaver i in. 2019) i jest zawodna, gdy chatboty dominują w interakcji (Jiang i in. 2019). 

Nie rozwijając tego arcyważnego wątku, w istotnym stopniu wpływającego na postawy wobec sztucznej inteligencji w mediach, wypada jedynie wspomnieć, że należy on do najgłębiej badanych i obfituje w coraz nowsze ustalenia (Gillespie i in. 2023). Na razie większość osób obawia się, że jeśli firmy wdrożą chatboty i zaangażują je w konwersacje z użytkownikami, to mogą one nie zrozumieć kontekstu oraz pogorszyć doświadczenie związane z łączeniem się z innymi ludźmi (Wihbey, Morrow 2023). 

Hybrydowość jest przyszłością mediów

Na zakończenie części poświęconej możliwościom sztucznej inteligencji w dziennikarstwie należy skupić się na kwestii ogólniejszej natury, a mianowicie na tak zwanej nowej logice mediów (Kreft 2016). Na początek trzeba podkreślić, że koncepcja logiki mediów jest tyle holistyczna, co problematyczna, ale może dobrze służyć zrozumieniu ewolucji całego systemu mediów i poszczególnych jego składników. Jest holistyczna, ponieważ po uzupełnieniu pierwotnej koncepcji Roberta Snow i Davida Altheide’a (1979), tłumaczy, w jaki sposób założenia, normy i widoczne artefakty mediów, takie jak szablony, formaty, gatunki i narracje, przeniknęły do innych obszarów życia społecznego, ekonomicznego, kulturowego i politycznego (Chadwick 2017). Zwodnicza, gdyż – jak się okazuje, o czym za chwilę – nie jest nigdy zakończoną koncepcją i powinna być uzupełniana o nowych ważnych aktorów. 

W wersji "klasycznej" logika mediów to: […] forma komunikacji oraz proces, za pomocą którego media przekazują i komunikują informacje. Podstawową zasadą jest to, że wydarzenia, akcje i występy aktorów odzwierciedlają technologie informacyjne, określone media i formaty rządzące komunikacją. […] Logika mediów odnosi się do założeń i procesów konstruowania przekazów w ramach danego medium (Altheide 2014, s. 22). W wersji lakonicznej logika mediów to "reguły gry poszczególnych mediów, czyli określone normy, zasady i procesy, które kierują sposobem wytwarzania treści, rozpowszechniania informacji i korzystania z różnych mediów" (Klinger, Svensson 2018). 

Dobry powód do aktualizacji definicyjnej daje jednak erozja władzy przypisywanej tradycyjnym mediom instytucjonalnym. Gdy bowiem krajobraz medialny staje się polifoniczny, to obecność nowych aktorów domaga się nowych logik. Zaproponowane przez Andrew Chadwicka (2017) hybrydowe logiki medialne to na przykład konsekwencja tego, że wpływ mediów nie jest już jednokierunkowy i społeczeństwo jest kształtowane przez bardziej złożone interakcje między konkurującymi i nakładającymi się logikami medialnymi. Zmienił się układ sił w tworzeniu informacji i jak nigdy wcześniej jest pod niewielkim wpływem aktorów tradycyjnie działających w ramach systemu medialnego. W złożonym procesie ewolucji mediów informacyjnych algorytmy i sztuczna inteligencja osądzają i podejmują decyzje (Diakopoulos 2019). 

Nawiasem mówiąc, tak rozumiana "hybrydowość" wpisuje się w obszerny katalog zjawisk opisywanych tym modnym, ale i pożytecznym terminem. W ogólniejszej perspektywie ilustruje on zacieranie się tożsamości i stał się cechą definiującą obecne systemy medialne. Przejawia się zaś przede wszystkim destabilizacją statusu instytucjonalnego dziennikarstwa. Jeszcze w ubiegłej dekadzie, gdy Ansgard Heinrich (2011) opisywała dziennikarstwo jako sieć z różnymi organizacjami informacyjnymi jako węzły, miała na myśli przede wszystkim ich miejsce w nowej sieci mediów społecznościowych, w której oprócz dziennikarzy treści medialne tworzyli różni inni aktorzy instytucjonalni i indywidualni. 

Christopher William Anderson (2013) pisał wówczas, że dziennikarstwo "nie działo się" już wyłącznie w redakcjach i stało się częścią ekosystemu, w którym użytkownicy, aktywiści i politycy współtworzą wiadomości, a dziennikarze podążają nietypowymi ścieżkami kariery, wchodząc do i wychodząc z organizacji informacyjnych, kierowani finansami lub wizjami przedsiębiorczości. Współczesna hybrydyczność dziennikarstwa to dominujący udział w tych procesach kolejnych aktorów: sztucznej inteligencji, algorytmów i platform tworzących własne ekosystemy. 

We wszystkich odsłonach tej nowej logiki mediów jest obecny problem ludzkiej i nie-ludzkiej sprawczości i odpowiedzialności. Jeśli przyjąć, że algorytmy są w dużym stopniu zależne od aktorów ludzkich (a tak jest na początkowym, projektowym etapie, na którym obliczenia i uzyskiwane wyniki są w mniejszym stopniu zależne od interwencji człowieka), powstaje pytanie o odpowiedzialność za błędne, niezamierzone skutki ich działania.

Przyjmując, że same algorytmy nie mogą być pociągane do odpowiedzialności, ponieważ prawdopodobnie nie mają żadnych intencji i brakuje im refleksyjnego oraz wartościującego elementu sprawczości, to w konfiguracjach władzy należy zwrócić uwagę na programistów i projektantów algorytmów platform, to oni bowiem są odpowiedzialni za stworzone przez siebie algorytmy, a przynajmniej ponoszą moralną odpowiedzialność za skutki ich obecności w mediach. 

A to oznacza że, Google i inne firmy nie mogą ukrywać się za algorytmem, gdy na przykład wykazuje on tendencję do promowania rasistowskich wyników, ponieważ “algorytm Google” to nic innego, jak Google i wybory dokonywane przez firmę i jej pracowników (Klinger, Svensson 2018). Warto się jednak przez chwilę zastanowić, czy i – ewentualnie – w jakim stopniu algorytmy mają sprawczość oraz czy można rozróżnić algorytmy jako aktorów od algorytmów jako działań, gdyby bowiem miały sprawczość “same w sobie”, czyli niezależną od działalności człowieka, przeczyłoby to roli logiki mediów, a przy okazji zasadzie, że są kodowane zgodnie z ludzkimi intencjami. Innymi słowy, założenie, że algorytmy zmieniają logikę mediów, może wydawać się błędne, podobnie jak to, że podejmują racjonalne decyzje w imieniu ludzi, ale bez ludzkich uprzedzeń – wszak nie są „racjonalne” i wolne, choćby ze względu na etap wprowadzania danych i projektowania, instrukcje, kryteria i wstępny wybór wyników. Wciąż także można osiągnąć jedynie “wąską sztuczną inteligencję” (na ogólną przyjdzie zapewne czas niebawem), która choć potężna, może przecież odtworzyć styl dziennikarza i artysty oraz rozpoznaje obraz i pytania w języku naturalnym, to jest daleka od zastąpienia człowieka w wielu ludzkich zadaniach. Algorytmy wciąż więc "ucieleśniają" i replikują społeczne wartości oraz są zakorzenione w ludzkich i rynkowych (instytucjonalnych) intencjach. To ludzie je przede wszystkim instruują, by odpowiadały celom dziennikarskim, komercyjnym i technologicznych. 

Są to zatem złożone, nieustannie korygowane i dostrajane systemy, a nie – przynajmniej w większości wypadków – autonomiczne “czarne skrzynki”, choć akurat ta (już falsyfikowana), ale wpływowa metafora dobrze nadal służy poznaniu mechanizmów, w które są uwikłane, i jest obecna w innych częściach niniejszych rozważań. 

Ponieważ logika mediów dotyczy także sprawczości – zasady oraz normy i procesy zarówno wpływają na zaangażowanych aktorów, jak i pozostają pod ich wpływem – w wypadku algorytmów sprawczość ta jest więc pochodną zaangażowania ludzi i technologii. Jak wspomniano, to programiści i inżynierowie oprogramowania, ich środowisko, kultura oraz społeczne i organizacyjne uwarunkowania formułują problemy do rozwiązania. Na dalszym etapie wyniki są bardziej pochodną danych i ich filtrowania, sortowania czy klasyfikacji. 

Są jednak składową dwóch tych agencji, zatem algorytm nie może wyjść poza ludzką agencję (dotyczy to także algorytmów samouczących się). Ta w większym stopniu opiera się na problematyzacji (rozpoznawaniu niejednoznacznych sytuacji), charakteryzacji (typizacji), rozważaniu (opcji), decyzji i wykonaniu. Innymi słowy, algorytmy są pozbawione “inteligencji refleksyjnej” i intencji, a to oznacza, że nie można ich pociągać do odpowiedzialności za wyniki. Algorytmiczne “intencje” dotyczą przeszłości, ale nie są w stanie poradzić sobie z “nieoczekiwanym” i jedynie w ograniczonym stopniu mogą przewidywać przyszłość.