SW+

Pomoże internautom czy może zalegalizuje dezinformację? Lex Trump w Polsce

Pomoże internautom czy może zalegalizuje dezinformację? Lex Trump w Polsce

Po co nam w Polsce Lex Trump? – pytamy Sebastiana Kaletę, wiceministra sprawiedliwości i autora ustawy o wolności słowa, która, jak przekonuje rząd, ma walczyć z cenzurą serwisów społecznościowych. Taką właśnie, jaka dotknęła Donalda Trumpa. Tyle że nie będzie chronić przed dezinformacją i nie zmusi Big Techów do walki z mową nienawiści.

Ministerstwo Sprawiedliwości już dwa razy chwaliło się projektem nowego prawa, które ma zrobić porządek z tym, jak serwisy społecznościowe blokują użytkowników i ich treści. Raz w połowie grudnia, drugi raz tuż po tym gdy opinią publiczną właściwie całego świata wstrząsnęły decyzje Facebooka, Twittera i kilku innych cyfrowych platform, które zbanowały wtedy jeszcze urzędującego prezydenta USA Donalda Trumpa. Blokady zostały nałożone tuż po tym, gdy protestujący nieuznający wyborczej porażki Trumpa wdarli się na Kapitol. Platformy oficjalnie tłumaczyły bany mową nienawiści i wezwaniami do przemocy, jakie Trump kierował za pomocą swoich kont.

Polski resort kierowany przez Zbigniewa Ziobrę poczuł się wywołany do tablicy i ogłosił, że w Polsce będzie prawo, które nie dopuści do takiego łamania wolności słowa. I rzeczywiście, prawnicy i analitycy o arbitralnych decyzjach – często opartych o niejawne działania algorytmów – platform cyfrowych mówią „prywatna cenzura” i podkreślają konieczność uregulowania tej kwestii. Ale takiego uregulowania, by poprawiła się też odpowiedzialności Big Techów za treści nielegalne i niebezpieczne.

Projekt ustawy o wolności słowa, który przedstawiło Ministerstwo Sprawiedliwości – czy raczej obiecało przedstawić, bo wciąż nie został w całości oficjalnie ujawniony – nie reguluje jednak całości tych problemów. Ustawa, którą czytało SW+ i która już wyciekła nieoficjalnymi kanałami, nie pozostawia złudzenia: jej celem jest zadbanie o wolność słowa, ale bez refleksji nad jej granicami i negatywnym wpływem mediów społecznościowych na społeczeństwo.

Przede wszystkim jednak konstrukcje prawne zawarte w nowych przepisach grożą tym, że „wolność słowa” może okazać się wolnością tylko tego słowa, które będzie podobać się obecnemu rządowi. I to nawet jeżeli PiS nie wygrałby następnych wyborów.

Rada Wolności Słowa vs. Big Tech

Ustawa przewiduje, że serwisy społecznościowe mające powyżej 1 mln polskich użytkowników, którzy rocznie składają powyżej 100 skarg na usuwane treści, podporządkowane mają być nowym zasadom gry. Mają mieć swojego polskiego przedstawiciela (od jednego do trzech podmiotów), który będzie odpowiedzialny za kontakty z polską administracją. Użytkownik, któremu zablokowanoby treść lub konto, ma mieć możliwość odwołania się od tej decyzji do pracowników danej platformy. Pracowników, bo dziś rzeczywiście często takie odwołania z automatu trafiają pod ocenę algorytmu. Administratorzy odpowiedzialni za blokowanie treści mają być obowiązkowo co pół roku szkoleni (nie wiadomo, na czyj koszt) pod nadzorem MS ze znajomości polskiego prawa i linii orzeczniczej w podobnych sprawach.

Jeżeli serwis po takiej reklamacji jednak nie zdejmie bana, internauta będzie miał prawo do odwołania się do pięcioosobowej Rady Wolności Słowa. To zupełnie nowe ciało ma być powoływane przez Sejm wielkością kwalifikowaną (czyli trzy piąte Sejmu). Ale jeżeli w pierwszym głosowaniu nie udałoby się danego kandydata powołać, wystarczająca będzie już zwykła większość. Rada ma być od strony praktycznej obsługiwana przez Urząd Komunikacji Elektronicznej, który od czasu likwidacji Ministerstwa Cyfryzacji podlega bezpośrednio pod KPRM.

Co więcej, RWS ma mieć sześcioletnią kadencję. Czyli jeżeli byłaby powołana w tym lub w przyszłym roku, to jej działanie obejmie też praktycznie całą przyszłą kadencję sejmową. I to nie zależnie od tego, jaki będzie przyszły kształt sceny politycznej.

Dezinformacja niekoniecznie

Resort sprawiedliwości nie widzi za to powodów, by te bardziej wyśrubowane zasady działania platform cyfrowych rozciągnąć także na ich odpowiedzialność za treści, jakie się na nich ukazują. Jak zauważają w swojej analizie Krzysztof Izdebski z Fundacji ePaństwo i Patryk Wachowiec z Fundacji FOR, w ustawie pojawia się definicja „dezinformacji” rozumianej jako „fałszywa lub wprowadzająca w błąd informacja, wytworzona, zaprezentowana i rozpowszechniona dla zysku lub naruszenia interesu publicznego” i zrównuje ją z innymi „treściami o charakterze bezprawnym”, jakimi są „treści naruszające dobra osobiste”, „treści o charakterze przestępnym” oraz „treści, które naruszają dobre obyczaje”. Jednak „terminy te albo nie są zdefiniowane, albo odwołują się do nieostrych pojęć”. – Może to rodzić obawy, że zamysłem projektodawców może być zapewnienie ochrony prawnej tylko tym treściom, które mieszczą się w aksjologii władzy – piszą prawnicy.

Co więcej, jako czyn o charakterze przestępczym nie pojawia się w tym projekcie prawa art. 191a kodeksu karnego, czyli „utrwalenie wizerunku nagiej osoby przy użyciu podstępu”, a jest to coraz poważniejsze zjawisko. Tylko w latach 2018-2019 policja wszczęła niemal 900 takich postępowań.

O to, jaki jest cel nowego prawa, jak ma być ono wdrażane i jak duża będzie skala spraw, które mogą trafić do Rady Wolności Słowa, pytamy Sebastiana Kaletę, wiceministra sprawiedliwości. – Szacujemy, że takich spraw będzie od kilkuset do dwóch tysięcy rocznie – mówi autor nowej ustawy.

Fot. Kancelaria Sejmu / Rafał Zambrzycki

Sylwia Czubkowska: Po co nam w Polsce Lex Trump?
Sebastian Kaleta*: To nie jest Lex Trump. To raczej Freedom Act. Od kilkunastu miesięcy mamy coraz więcej sytuacji, w których w wątpliwych okolicznościach właściciele dużych mediów społecznościowych – szczególnie Facebooka oraz YouTube’a – usuwają treści, które są prezentowaniem pewnego spektrum poglądów. Poglądów mieszczących się w ramach prawa do wyrażania własnej opinii i w zgodzie z polskim prawem. Rodzi to poważne wątpliwości, czy w debacie publicznej media społecznościowe jako prywatne firmy nie mają za dużej władzy. Pierwszy raz projekt ustawy o Wolności Słowa pokazaliśmy w grudniu, a do zablokowania wtedy jeszcze urzędującego prezydenta Donalda Trumpa doszło później. Choć rzeczywiście po wyborach w USA serwisy zaczęły Trumpowi ograniczać zasięgi, to jednak cała sprawa nabrała większej, globalnej istotności właśnie po styczniowych banach nałożonych na Trumpa. My zaś prace nad ustawą rozpoczęliśmy ponad rok temu. 

Tyle że w poprzednim roku mówiło się coraz więcej nie o problemie cenzury i banów w mediach społecznościowych, tylko o braku odpowiedzialności tych platform za niebezpieczne treści w nich rozprzestrzeniane. Mamy globalną infodemię dezinformacji i to takiej, która może mieć realny wpływ na nasze bezpieczeństwo. Rozprzestrzeniane są treści antyszczepionkowe, straszące 5G, podważające istnienie pandemii. A ustawa jakby tego nie zauważała. Dlaczego broni tylko przed cenzurą, a nie także przed dezinformacją? 

Dyskusja o dezinformacji trwa dłużej. W Europie co najmniej od czasów wygranej Emmanuela Macrona we Francji i wdrożonej po nich w 2018 roku ustawie o zwalczaniu fake newsów w przestrzeni publicznej. Te francuskie prawo zresztą wzorowano na niemieckiej ustawie o egzekwowaniu prawa w sieci.

W naszej ocenie doszło do pewnego rodzaju zafiksowania na idei kasowania treści. Mówienie o mowie nienawiści – a jest to pojęcie bardzo płynne i subiektywne – jako uniwersalnej podstawie do usuwania treści jest według nas po prostu niebezpieczne.

Szczególnie, że decydentem w tych kwestiach stają się prywatne firmy. Jednocześnie Komisja Europejska już od 2016 roku współpracuje z platformami cyfrowymi, by one same dobrowolnie wdrażały skuteczną walkę z dezinformacją. Więc od lat cała dyskusja skupiła się tylko na tym, by usuwać, usuwać, usuwać. 

Jednak okazuje się, że często dochodzi do przypadków, w których pod płaszczykiem usuwania treści dezinformacynej czy tzw. mowy nienawiści usuwa się treści kompletnie legalne. I to już jest granica cenzury. My sobie zdajemy sprawę z tego, że ochrony wolności słowa nie można prowadzić w oderwaniu od walki z dezinformacją.

Ale w Ministerstwie Sprawiedliwości uznaliśmy jednak, że większe niebezpieczeństwo dla przyszłości jakości debaty publicznej rodzi kwestia ochrony przed cenzurą.

Z wyłączeniem oczywiście kwestii związanych z terroryzmem i pornografii dziecięcej. Tu wszyscy są zgodni, że takie treści muszą być szybko i sprawnie usuwane. 

Ostatnie lata raz za razem dowodzą nam, że fizyczne, poważne zagrożenie pociągają za sobą raczej te nie wykasowane odpowiednio szybko, a niebezpieczne treści. I nie chodzi już nawet tylko o styczniowy atak na Kapitol. Dwa lata temu skandal wywołała transmisja na żywo na Facebooku ataku na meczet Christchurch w Nowej Zelandii. Władze tego państwa oskarżyły serwis Zuckerberga, że nie wystarczająco szybko zablokował streaming pokazujący morderstwa...

Protesty Black Lives Matter i płonące miasta amerykańskie…

No nie, jednak czymś innym są relacje z protestów...

Zawsze mówimy, że to jest inna sytuacja. 

Mówimy o sytuacjach, gdy niekontrolowane treści prowadzą do tragedii. Jak choćby wtedy, gdy mowa nienawiści na Facebooku spowodowała ataki, właściwie ludobójstwo na Rohindżach w Mjanmie. O dramatycznej historii sprzed kilku dni, gdy 10-letnia Włoszka popełniła samobójstwo w ramach wyzwania” na TikToku. W tym ostatnim przypadku Włochy wręcz zdecydowały o częściowej blokadzie, czyli cenzurze tego serwisu. Więc rozumiejąc wagę wolności słowa, to nie jest dziś jedyne i bezwarunkowe dobro. A w ustawie, którą przygotował resort, nie widzę zrównoważenia tych wartości. Ona zresztą nazywa się ustawą o wolności słowa”, a nie choćby ustawą o ochronie słowa czy ochronie użytkowników serwisów społecznościowych. 

W naszym rozumieniu ta wolność oczywiście jest ograniczona naruszeniem prawa. Miesza się bardzo często zdarzenia, które są oczywistym zagrożeniem, jak tragedię we Włoszech czy ataki na Rohindżów, ze zdarzeniami często natury politycznej. Mamy w Polsce to wielkie szczęście, że aż tak drastyczne sytuacje się nie zdarzały. Choć ostatnio podczas protestów były nawoływania do przejęcia budynków rządowych i nikt ich nie blokował. Pytanie, czy gdyby były podobne głosy ze strony drugiej strony politycznej, to nie spotkałyby się z reakcją ze strony mediów społecznościowych. Śmiem twierdzić, że tak.

Dziś wielkie korporacje przyznają sobie prawo do tego, by w dojrzałych demokracjach w sprawach kluczowych politycznie stawać się cenzorem i stosować podwójne standardy. Istotą tej ustawy jest, by nad tego typu decyzjami czuwały organy państwa. To, co proponujemy, służy temu, by nie było arbitralności przy kreowaniu emocji społecznych przez media społecznościowe, by prywatne firmy nie wpływały na nastroje w czasie trudnych kryzysów politycznych.

Mamy ten komfort, że możemy najpierw zabezpieczyć podstawowe kwestie związane z prawami obywatelskimi, a potem dopiero zadbać o bezpieczeństwo.

Ministerstwo próbowało oszacować, jak duża może być skala spraw, które potencjalnie mogą trafić do Rady Wolności Słowa, czyli instytucji odwoławczej od blokad?

Analizowaliśmy raporty, które są udostępniane choćby przez Facebooka czy Google. Ale też co ważne, będzie ograniczona kognicja RWS tylko do usuniętych treści, a nie do tych, które nie zostały na czyjś wniosek usunięty.

Szacujemy, że w efekcie takich spraw będzie od kilkuset do dwóch tysięcy rocznie. Choć oczywiście rozwój mediów społecznościowych może powodować ich wzrost. 

Czy aby na pewno nie jest do niedoszacowane? Przecież nie mówimy tylko o mediach społecznościowych, ale w ogóle platformach cyfrowych. To może być i Spotify, i Wykop, gdzie także może okazać się, że są usuwane umieszczane przez użytkowników treści. Kolejna nowa platforma, która na pewno będzie generowała coraz większe problemy, to już wspomniany TikTok. Wraz z rosnącą migracją ze wschodu rośnie też popularność u nas rosyjskiego VKontakte.

Ustawa definiuje jako portal społecznościowy platformę, na której można umieszczać treści samodzielnie, która ma milion polskich użytkowników i która miała dotychczas rocznie przynajmniej 100 skarg dotyczących usuwanych treści. Kwalifikując kolejny portal, będziemy to brać pod uwagę i oczywiście może być to rosnąca lista.

Ale w większości przypadków to nie są jakieś szczególnie skomplikowane sprawy, ich ocena przez ekspertów zamknie się w kilku dniach. Chyba że mamy do czynienia z dużymi operacjami dezinformacyjnymi. Ale zakładamy też, że platformy cyfrowe rozumiejąc wagę tej sprawy, zechcą z nami współpracowaćm by dopracować takie procedury. 

Jeżeli do Rady nie będą trafiały skargi na usunięcie treści, która potencjalnie jest szkodliwa lub łamie prawo, to gdzie z tym problemem będzie można się zwrócić?

Już dzisiaj polskie prawo pozwala na reakcję w takich sprawach. Mamy prokuraturę, mamy sądy, mamy procedury odpowiedzialności karnej, które każdego z nas obowiązują. Problem polega na tym, że system, w którym działają polskie organy, nie daje im możliwości skutecznej procesowej reakcji. Prawo w Polsce już jest tylko nieegzekwowalne. Dziś tylko od dobrej woli mediów społecznościowych zależy, czy zareagują na wnioski od służby. Ustawa, która proponujemy, ale także projekt unijnego rozporządzenia Digital Service Act, nad którym właśnie trwają prace, przewidują, że tego typu postępowania byłyby kierowane bezpośrednio do przedstawicieli platform w danym kraju.

Mimo wszystko nie ma pan obaw, czy pięcioosobowa rada faktycznie podołać tym obowiązkom?

To tylko organ, każdy organ ma swoją obsługę administracyjną. W tym przypadku ma ją zapewniać Urząd Komunikacji Elektronicznej.

A UKE już o tym wie i się cieszy z nowych obowiązków? Bo UKE ma w najbliższym czasie sporo trudnych zadań na głowie: aukcję 5G, dopiero co weszło w życie nowe prawo telekomunikacyjne. 

Rozmawialiśmy już o tym z prezesem UKE. Bardziej racjonalne niż tworzenie nowego organu czy zatrudnianie całego zespołu jest wykorzystanie już istniejącej, doświadczonej instytucji. 

A dlaczego nie np. Krajowa Rada Radiofonii i Telewizji? Mediom społecznościowym bliżej do mediów niż do dostawców usług telekomunikacyjnych.

Tyle że KRRiT jest organem konstytucyjnym, więc zmiana jej obowiązków zawsze obarczona byłaby dyskusją o konstytucyjnością takich rozwiązań. Wymagałaby nowelizacji konstytucji.

Nadal jednak zastanawia mnie, czy Rada Wolności Słowa choćby ze wsparciem operacyjnym UKE podoła wszystkim sprawom, jakie do niej mogą trafić. Szczególnie, że nie wszystkie muszą być tylko o politycznej tematyce. To może być istna puszka Pandory. Przecież ogromna rzesza blokad z YouTube czy Instagrama to bany na influencerów, jakieś wojenki między nimi. Wystarczy duża grupa fanów, którzy kolegialnie zgłaszają jakąś treść, by algorytm uznał ją za łamiącą regulamin. I choćby powodem były wyzwiska czy groźby, to i tak blokowani krzyczą o cenzurze.

Tu poruszamy bardzo ważny problem: algorytmy. Rzeczywiście jest tak, że najczęściej to automaty pod wpływem dużej ilości zgłoszeń decydują o blokadach lub ograniczeniu zasięgu. Na ten problem też chcielibyśmy mieć wpływ. Ustawa wprowadza procedurę, zobowiązująca platformy do jednoznacznego wskazywania, co łamie a co nie łamie standardów. Mają być też prawne ramy do procedur odwoławczych od decyzji serwisów.

Oczywiście Facebook i Twitter dziś już mają takie procedury, ale one wciąż są ich własną wewnętrzną praktyką. Co więcej, chcemy zobowiązać, by to nie algorytm, a człowiek – pracownik platformy – musiał zareagować na reklamację zablokowanego użytkownika. I ci pracownicy, moderatorzy mają być zobowiązani do tego, by raz na pół roku przechodzić szkolenia z orzecznictwa dotyczącego takich naruszeń.

Co ma być elementem tych szkoleń?

Ich zakres chcemy szczegółowo uregulować odrębnym rozporządzeniem. Na pewno powinny być one prowadzone w języku polskim, bo też oceniane treści są w większości w tym języku. Kluczowe jest by człowiek, do którego trafia reklamacja, miał faktycznie wiedzę i możliwości, by ją obiektywnie rozpatrzyć. Dopiero gdy moderator nie zdecyduje się na odblokowanie zaskarżonej treści, uruchamiana ma być możliwość skargi do Rady Wolności Słowa.

Mam jednak wrażenie, że w całej tej dyskusji ginie spora grupa spraw, które też dotyczą treści w internecie, ochrony użytkowników i prawa do wolności słowa. Przecież to nie są tylko kwestie polityczne i sprawy związane z mową nienawiści. Przykładem jest choćby tzw. porn revenge, czyli udostępnianie zdjęć czy filmów o treści seksualnej w ramach zemsty czy dla zarobku bez zgody sportretowanych. Samo to działanie jest oczywiście penalizowane w polskim prawie, ale już proces dotarcia do platform, jak choćby potentata na rynku e-porno kanadyjskiego PornHuba, jest niezwykle trudny. PornHub też broni się przed blokadami, mówiąc o wolności słowa. Jak pomóc w takich sytuacjach? 

Ustawa jako bezprawne treści kwalifikuje też te naruszające dobra osobiste. W tym zakresie platformy mają już dziś obowiązki i możemy wnioskować o zablokowanie pewnych treści poprzez zabezpieczenie w ramach powództwa o ochronę dóbr osobistych. Ale wiemy, że to jest skomplikowane i stąd instytucja pozwu ślepego. Powód, którego dobra osobiste zostaną naruszone przez nieznaną mu osobę, będzie mógł złożyć pozew o ochronę dóbr osobistych bez wskazania w danych pozwanego.

Wystarczy podać adres internetowy, zasób danych internetowych, na którym zostały opublikowane obraźliwe treści, daty i godziny publikacji oraz nazwy profilu lub loginu użytkownika.

Jeśli sąd oceni, że coś jest na rzeczy, w ciągu 7 dni może nakazać zabezpieczenie. Ale zdajemy sobie sprawę, że to prawo nie będzie egzekwowane, dopóki nie będzie w Polsce punktów kontaktowych z wielkimi platformami cyfrowymi. Dlatego naciskamy, by był obowiązek powołania przedstawicieli krajowych i by brak ich powołania był obarczony karami finansowymi. 

Z Facebookiem i Google w Polsce jest już nieźle, są wypracowane kanały współpracy. Twitter jednak już jest trudniejszy, ma podobno jednego mitycznego przedstawiciela na całą Unię. A co z innymi platformami? Z Chin, Rosji, Kanady… Jak je zmusić do powołania polskich przedstawicieli?

To, że widzimy w tym problem, pokazuje, jak te wielkie korporacje – nie tylko w Polsce – wymknęły nam się spod regulacji.

Nie sposób jest oczywiście wszystkie problemy z tym związane rozwiązać za jednym zamachem. Dlatego skupiamy się na tych fundamentalnych.

Dodatkowo przecież trwają wspomniane prace unijne nad DSA, a zgodnie z założeniami tego rozporządzenia kwestie regulacji nielegalnych treści na platformach pozostają w gestii państw członkowskich. Więc my po prostu już pracujemy nad naszymi przepisami. Tak, jak swoje mają Niemcy, Francja, prace trwają na Węgrzech. Siłą Unii ma zaś być wspólna egzekucja przepisów dotyczących platform cyfrowych. Choćby tych związanych z opodatkowaniem Big Techu.

Procedura odwoławcza, skarga do rady, przekazanie materiałów, wydanie decyzji – wszystko to razem, zgodnie z ustawą, może zająć do 18 dni od blokady. To w mediach społecznościowych tak długi okres, że nawet po wygranej i przywróceniu zablokowanej treści nikt jej prawie nie zobaczy. 

Nie mamy lepszego pomysłu na taką procedurę. Organy państwa muszą działać w ramach ściśle określonych procedur, zaproponowane terminy, biorąc pod uwagę konieczne do podjęcia czynności, w mojej opinii są i tak bardzo krótkie.

Rozpatrywany był i to jeszcze kilka tygodni temu wariant sądowy z powołaniem specjalnego dedykowanego tym sprawom sądem. Jednak to rozwiązanie mogłoby trwać jeszcze dłużej.

Gdyby zaś zamiast moderatorów od razu w mediach społecznościowych działali urzędnicy, to byłoby wysoce kosztowne. W mojej ocenie już sam fakt, że taka procedura będzie obowiązywała, spowoduje, że moderatorzy platform będą skrupulatniej przykładać się do reklamacji.

A jak zadośćuczynić takiej blokadzie? Czy treści przywrócone będą specjalnie oflagowywane? Czy odblokowanie treści będzie miało wpływ na algorytm oceniający danego użytkownika i tym samym pokazujący jego treści szerszej lub węższej grupie odbiorców? Takich praktycznych pytań jest wiele i na nie ustawa nie odpowiada.

Zdaję sobie sprawę z tego, że spektrum problemów jest bardzo duże. Choćby czy sam fakt zgłoszenia nie powinien być oflagowywany? Bo przecież samo zgłoszenie może być złośliwe i oczywiście bezzasadne. Na takie pytania chcielibyśmy uzyskać odpowiedzi podczas konsultacji społecznych. Można by oczywiście próbować złapać te wszystkie problemy na raz.

Ale jednak uznaliśmy, że wolimy to robić krok po kroku, szczególnie, że niektóre kwestie jak choćby odpowiedzialność za stosowanie algorytmów też są właśnie w analizach w Unii Europejskiej. My póki co zapisaliśmy generalną zasadę, że użytkownik blokowany decyzją algorytmu powinien być w jasny sposób poinformowany o powodzie tej blokady i mieć jasne ramy odwoławcze. 

Kogo wyobraża pan sobie jako członka Rady Wolności Słowa? Ustawa ogranicza skład do osób z wykształceniem prawniczym lub z kompetencjami z dziedziny mediów i nowych technologii. Kandydata musi też poprzeć trzy piąte Sejmu. Już pojawiły się żarty, że jedynym kandydatem, który zebrałby takie poparcie, jest Adam Małysz. 

Sam fakt, jak duże jest zainteresowanie tym tematem, jak wiele on emocji budzi, pokazuje, że jest to naprawdę ważna sprawa. Z tego powodu bardzo ostrożnie podeszliśmy do kompetencji tej rady i stąd wymóg większości kwalifikowanej. W przyszłości przyjdzie nam pomyśleć nad regulatorem wszystkich aspektów funkcjonowania Big Tech, bo i samo DSA wskazuje konieczność powołania takiej instytucji czy funkcji. 

Ale wracając do pytania – kto powinien być w tej radzie?

Jak wskazujemy w przepisach, wariantowo osoba z wykształceniem prawniczym lub doświadczeniem związane z nowymi technologiami. To doświadczenie polega na rozumieniu komunikacji w internecie, memów, gifów – tego wszystkiego, co może całkiem zmieniać odbiór treści. Ale powinny to być też osoby, które potrafią zweryfikować informacje...

A jeżeli do rady trafiłby Adam Bodnar? Spełnia te warunki. Byłby krzyk i oburzenie, że to lewak i będzie na pewno działał na niekorzyść prawicy. 

I tu mamy sedno wskazania, dlaczego członkowie rady mają być wybierani większością kwalifikowaną. Chodzi o kandydatury, które budzą jak najmniej kontrowersji. Każda zawsze będzie jakieś budziła, ale jednak można znaleźć takie, których dotychczasowa działalność nie budzi skrajnych takich emocji. 

Z naszej rozmowy wnoszę, że ta ustawa to obietnica początku regulacji Big Tech w Polsce. A nie stanie się przypadkiem tak, że jak już będzie ten polityczny problem z banami załatwiony, to regulacje dotyczące odpowiedzialności za treści, opodatkowania, jawności algorytmów nie będą politycznie aż tak pilne, więc niech tym się Unia zajmuje?

Tak, to wstęp. Nie mam najmniejszej wątpliwości, że za kilka lat będziemy operować w zupełnie innej rzeczywistości prawnej, jeżeli chodzi o Big Tech. Może i te przepisy powstaną później, ale na pewno powstaną. Podobnie jak regulacje dotyczące rynku e-reklamy, praw użytkowników do treści, czyli interoperacyjności serwisów, uregulowanie współpracy organów ścigania, ustalenie kwestii jurysdykcji wobec platform cyfrowych. 

Podczas prac nad ustawą nie było konsultacji z platformami. Dużo czasu na nie przeznaczy ministerstwo?

Na razie czekamy na wpisanie projektu do wykazu prac KPRM i wtedy zaczną się konsultacje. Uważam, że krótkie terminy mobilizują do wytężonej pracy. 

Rada Wolności Mediów ma mieć sześcioletnią kadencję. Dlaczego tak długa kadencja?

Im dłuższa kadencja danego organu, tym większą niezależnością mogą się cieszyć jego członkowie. Szczególnie, że będą się zajmowali bardzo wrażliwą tematyką związaną z prawami człowieka. 

Biorąc pod uwagę czas na konsultacje społeczne, to jak dużo jeszcze jest kwestii do szczegółowego wyjaśniania? Doliczając zaproponowane w ustawie półroczne vacatio legis, może się okazać, że to prawo wejdzie w życie pod koniec 2021 roku, a może nawet w 2022. Czyli obecny Sejm wybrałby radę też od razu na całą kolejną kadencję sejmową, kiedy może być już inna scena polityczna.

Tak, kadencja Rady skończyłaby się w 2028 roku. Jednak jeżeli jej członkowie mieliby świadomość, że swoje obowiązki wypełniają niezależnie od sytuacji politycznej, to w pełni samodzielnie podejmowaliby decyzje.

Dziś jest tak, że w mediach społecznościowych każdy może o każdym wszystko napisać i można każde kłamstwo anonimo rozpropagować. Podam przykład z ostatnich dni. Na Facebooku ktoś zamieścił grafikę ze zdjęciami polityków Solidarnej Polski twierdzącą, że się poza kolejnością zaszczepiliśmy na COVID-19. Co jest oczywistym kłamstwem. Wpis ten na prywatnym profilu był udostępniony ponad 2 tys. razy, więc on jeden – nie mówiąc już o jego screenach – mógł wygenerować nawet milion zasięgów. I jak z tym walczyć?

Do Rady Wolności Słowa się z tym nie zgłosicie.

Nie. Możemy tak jak każdy skierować powództwo o ochronę dóbr osobistych. Proponujemy jednak, aby przepisy ograniczające fake newsy obowiązywały w czasie kampanii wyborczej, aby były wtedy prostsze procedury – zresztą wzorowane na prawie francuskim – pozwalające w przyspieszonej procedurze sądowej kwestionować takie fejkowe treści w mediach społecznościowych.

Sebastian Kaleta – sekretarz stanu w Ministerstwie Sprawiedliwości i przewodniczący komisji ds. reprywatyzacji nieruchomości warszawskich. Poseł na Sejm wybrany z Warszawy. Od 2019 roku członek Solidarnej Polski. 

Podobał się materiał? Polub i udostępnij go na Facebooku. Dzięki!