Czat jest dziki, bywa zły i ma bardzo ostre kły. Regulacje to konieczność

Nawet twórca ChataGPT nie ma wątpliwości: sztuczna inteligencja musi być uregulowana prawnie. Dziś działa w dzikim środowisku, nagina prawo i stwarza ryzyko dla ludzi. – Systemowo bardzo trudno będzie to ogarnąć – mówi dr prawa Paula Skrzypecka.

19.05.2023 05.49
Sztuczna inteligencja, ChatGPT, Sam Altman i regulacje prawne

Środowe przesłuchanie przed amerykańskim kongresem Sama Altmana (na zdjęciu głównym), szefa firmy OpenAI, która stworzyła ChatGPT, nie cieszyło się aż taką uwagą jak przesłuchanie szefa TikToka dwa miesiące temu. Zazwyczaj politycy wzywają szefów Big Techów, gdy trzeba przywołać ich do porządku. Same zeznania wyglądają jak ostrzał ze strony kongresmenów. Tym razem było inaczej, bo Sam Altman sam przekonuje, że sztuczna inteligencja potrzebuje regulacji.

Altman wypadł bardzo dobrze, nie owijał w bawełnę, mówił wprost o swoich obawach. – Jeśli coś się nam nie powiedzie, może być bardzo źle i chcemy głośno o tym mówić. Chcemy współpracować z rządem, żeby takiej sytuacji zapobiec – stwierdził. A senatorzy nie mogli wyjść z uroku. Altman zauważył choćby zagrożenia dla demokracji. Według niego AI może być używana do rozsiewania dezinformacji w trakcie wyborów prezydenckich, które odbędą się w USA w przyszłym roku. I sam przyznał, że firmy takie jak OpenAI powinny być audytowane przez niezależne organizacje.

O potrzebie regulacji sztucznej inteligencji mówi się od dawna. Chodzi nie tylko o działanie narzędzi AI zgodnie z prawem, ale i o działania moralne. Naukowcy z Massachusetts Institute of Technology od kilku lat prowadzą publicznie dostępne badanie, w którym trzeba odpowiedzieć na pytania typu: kogo ma zabić autonomiczny samochód, jeśli nie ma wyjścia? Ma przejechać przechodzące przez pasy dziecko czy ominąć je i wjechać w przystanek autobusowy, na którym stoi dwoje emerytów?

Dyskusje o regulacjach AI ożywiły się w ostatnich miesiącach, gdy światową popularność w mig zdobyły takie narzędzia jak ChatGPT czy generator grafik Midjourney. Skąd czerpią wiedzę? Czy powinny za to płacić? Czy źródła ich nauki są bezpieczne i legalne? Kto ma rekompensować artystom fakt, że AI uczy się na ich dziełach? Pytań jest wiele, odpowiedzi dużo mniej. – Można zarzucić sztucznej inteligencji co najmniej brak należytej staranności – mówi dr nauk prawnych Paula Skrzypecka z kancelarii Creativa Legal. O ChacieGPT będzie także mówiła podczas prezentacji "Tego prawnik ci nie powie o korzystaniu z AI!" 25 maja na Infoshare 2023.

Fot. Mdisk/Shutterstock

Rozmowa z dr Paulą Skrzypecką*

Jakub Wątor: Jak oceniasz środowe przesłuchanie Sama Altmana?

Dr Paula Skrzypecka: Jeśli mogę zacząć tak bardzo nie po prawniczemu: podobało mi się! Było takie amerykańskie! Zwłaszcza to porównanie do druku. Altman uważa, że AI jest zmianą na tak dużą skalę i będzie miała tak duży wpływ na technologie i gospodarkę jak właśnie druk. Jestem bardzo ciekawa, czy rzeczywiście rozpoczyna się nowa epoka.

Chyba wszystkich zaskoczyło to, że Altman sam domaga się regulacji dla AI.

To jest bardzo znamienne: dostawca najpopularniejszego dziś rozwiązania mówi: chcemy regulacji i licencji. To samoistnie przeczy głosom, które pojawiały się np. przy okazji regulacji rynku kryptoaktywów czy słynnej "ACTA 2", czyli dość rozpaczliwym zapowiedziom o końcu innowacji, ucieczce innowatorów na drugi koniec świata i powolnej zapaści. Co więcej: Sam Altman mówi "chcemy regulacji" i kompleksowo omawia wszystkie aspekty działalności ChataGPT, nie uciekając od kwestii "wysokiego ryzyka", takich jak (w gruncie rzeczy nieograniczony) potencjał manipulacyjny AI.

Czy gdyby sztuczna inteligencja była człowiekiem, to byłaby dobrym człowiekiem?

Ale pytanie! Mam tu dysonans. Z jednej strony AI to dla mnie narzędzia, algorytmy, które generują jakieś treści, coś mi ułatwiają. Z drugiej mamy przed oczami ten filmowy obraz sztucznej inteligencji w postaci robotów, które wpadają z bronią i mszczą się na ludziach. I faktycznie, gdy rozmawiam z ChatemGPT, to staram się na wszelki wypadek grzecznie zadawać mu pytania. A co mi szkodzi – nigdy nie wiadomo co będzie za parę lat! Ale tak jak nie ma ludzi jednoznacznie dobrych i złych, tak i algorytmy nie mogą być wprost dobre lub złe. Mogą być poprawne lub niepoprawne – o ile w ogóle warto je w ten sposób oceniać.

A co jako prawnik mogłabyś zarzucić sztucznej inteligencji, gdyby ta miała osobowość prawną?

Odpowiadając prawniczym językiem: brak należytej staranności. Wszelkie dyskusje toczące się na styku AI i prawa dotyczą w moim odczuciu właśnie tej kwestii, przy czym nie tyle w odniesieniu do AI jako takiej, co jej dostawców/operatorów. Na przykład braku staranności przy selekcji materiałów, z których AI korzysta, przy doborze słów, generowaniu rezultatów. Dziś generowane przez AI treści są przez nią powielane, a wielu specjalistów od marketingu wskazuje, że nie mają większego polotu. I oczywiście można by zarzucić sztucznej inteligencji korzystanie z materiałów z nielegalnych źródeł.

Z nielegalnych, czyli jakich?

Wskazałabym na dwa źródła tej nielegalności. Po pierwsze utwór, zdjęcie, obraz, który został przez kogoś nielegalnie rozpowszechniony bez licencji. W związku z tym takie dzieło zaistniało już w sieci, zostało zescrappowane przez AI i po jakimś opracowaniu wrzucone do worka do nauki.

Chwileczkę, przecież pół internetu jest nielegalne. Jak nie więcej.

Właśnie w tym rzecz, bo taki ChatGPT czy AI generujące grafiki przeszukują posiadane przez nie bazy danych. A skąd one pochodzą? Z danych zescrappowanych z "całego" internetu, czyli do tego worka zostają ściągnięte artykuły, obrazy, zdjęcia, notatki, najrozmaitsze informacje.

Do worka?

Do bazy wiedzy, na podstawie której AI się uczy. To są miliony utworów, zdjęć czy obrazków, które posłużą sztucznej inteligencji do uczenia się i generowania kolejnych wytworów w postaci zdjęć, piosenek czy obrazków. Ba, m.in. google’owy Bard umożliwia użycie obrazka jako promptu – a od tego momentu ten prompt jest już "nasz wspólny". Oczywiście różne narzędzia AI używają różnych danych i dają różne efekty. Dlatego na potrzeby rozmowy przyjmijmy, że mówimy o tych najpopularniejszych, czyli ChacieGPT czy AI generującej realistyczne obrazy.

Ok, co zatem z drugim źródłem nielegalności?

Drugi przypadek to treści niezgodne z prawem, począwszy od kwestii związanych z propagowaniem faszyzmu, przez nawoływanie do przestępstwa.

I one...

One również mają szansę wpaść do tego worka, z którego uczy się narzędzie AI, choć po przygodach Microsofta z Tay’em OpenAI czy inni nie dadzą się tak łatwo podejść. Niemniej: istnieje ryzyko, że potem takie narzędzie wygeneruje nam coś, co u źródeł było nielegalne, na przykład grafikę, która powstała na bazie nielegalnych grafik. Jeśli się taką grafiką potem posłużymy, narazimy się na pewną odpowiedzialność: od wizerunkowej po prawną. Powiem więcej – to już się dzieje. Także w Polsce zaczynają pojawiać się pierwsze roszczenia. Firma wykorzystała tekst marketingowy wygenerowany przez AI, który okazał się być utworem pochodzącym z zaplecza domu mediowego.

To trochę dystopia prawna. Dlaczego twórcy narzędzi AI nie zakażą tym narzędziom, by się nie uczyły na nielegalnych źródłach?

A tam zaraz dystopia! Dystopia to ustawa o VAT albo dziesiąta iteracja tarczy antykryzysowej. Podejrzewam, że gdyby dało się tak zarządzić nielegalnymi treściami w internecie, to moderatorzy Facebooka i innych platform nie mieliby pracy. A jednak ją mają, siedzą i przeglądają te koszmarne rzeczy, które ludzie wrzucają do sieci. I będą mieli jej jeszcze więcej od wejścia w życie Digital Services Act, bo poprzeczka pójdzie w górę. Tak czy inaczej to oznacza, że nie jest możliwe wdrożenie stuprocentowo skutecznego narzędzia do walki z nielegalnymi treściami. Zwłaszcza jeśli chodzi o materiały nielegalne "na miękko".

Czyli jakie?

Czyli nie coś rażącego po oczach, tylko komunikaty, które dopiero po umieszczeniu w określonym kontekście nabierają dopiero tej nielegalności. Np. niedozwolona reklama porównawcza albo reklama wprowadzająca w błąd, niedozwolona reklama alkoholu czy leku.

Nie da się zakazać całkowicie nielegalnych treści, ale narzędzia AI takie jak ChatGPT bazują na scrappingu internetu, czyli zaciąganiu wszystkich danych, jakie są możliwe. Czy samego scrappingu nie można uregulować?

Można, ale póki co takiej regulacji "sektorowej" w UE nie mamy. Jednocześnie w Polsce żaden przepis go nie zakazuje. Robimy za to slalom między różnymi barierkami prawnymi.

Jedna z nich to prawo autorskie: można coś zescrappować, ale jeśli nie mamy na to licencji, to potem możemy mieć problem, żeby wykorzystać to komercyjnie. Kolejna sprawa to znaki towarowe i wzory przemysłowe, których po zescrappowaniu bez licencji nie wykorzystamy w swoim biznesie. Jest też ustawa o ochronie baz danych. Ona chroni te bazy, które zostały stworzone przy istotnym nakładzie (tzw. nakładzie inwestycyjnym) administratora.

Na przykład internetowe archiwum gazety?

Tak, takie archiwum gazety podzielone tematycznie, otagowane to bardzo dobry przykład. Mieliśmy już w Polsce takie procesy. Była choćby sprawa pewnego portalu motoryzacyjnego, który naruszył przepisy ustawy o ochronie baz danych, bo masowo zaciągał ogłoszenia z innego portalu.

Wyobrażam sobie też, że właściciel portalu może napisać w swoim regulaminie, że nie wyraża zgody na scrappowanie. Jeśliby potem złapał za rękę takiego, który scrappuje, miałby podstawy do żądania odszkodowania – czy to na gruncie przepisów o ochronie baz danych, czy zwalczaniu nieuczciwej konkurencji. Aczkolwiek pewnie – przy stale rosnącym poziomie rozwoju technologii – byłby to z pewnością szalenie trudny proces dowodowo.

Ale zawsze to jakaś nadzieja na sprawiedliwość. A co z moim kontem na Facebooku? Czy ono też jest scrappowane?

Na mnie nie patrz, ja nie scrappuję! Ale nie możemy tego wykluczyć. Gorzej, jak będzie scrappowane np. po to, żeby ocenić twoje skłonności do popełniania wykroczeń drogowych (więc sobie zapłacisz wyższą składkę na OC). Od razu dodam, że tego rodzaju praktyki mają być nielegalne pod rządami AI Act.

A w ogóle to pod jaką jurysdykcją jest ChatGPT? Bo obecnie to jest najpopularniejsze narzędzie na świecie, które bazuje na AI i scrappingu.

W większości usługodawcy takich platform identyfikują się z amerykańską jurysdykcją prawną, ale sky is the limit. Firma OpenAI, która stworzyła ChatGPT, też jest amerykańska, a dokładniej kalifornijska.

Tylko to chyba co innego, gdy ChatGPT scrappuje amerykańskie serwery, a co innego, gdy scrappuje europejskie albo polskie.

Nie ma globalnego systemu odpowiedzialności za scrapping. Ale w Europie właśnie trwają prace nad dyrektywą dotyczącą odpowiedzialności za AI, która m.in. mówi o odpowiedzialności za szkody powstałe w wyniku wykorzystania AI.

I teraz mamy sytuację, w której w przypadku wyrządzenia szkody przez scrapping polski serwis może pozwać scrappującego (przed polski sąd i na polskim prawie). Jednocześnie potencjalnie pod rządami dyrektywy dotyczącej odpowiedzialności za AI ten polski podmiot będzie mieć dodatkowe roszczenie o odszkodowanie wobec tego, który wyrządził mu jakąś szkodę przy wykorzystaniu AI. Czy koniecznie musi być to twórca tego AI? Nie, może to być również jakaś inna osoba, np. ta, która z tego AI korzystała.

Procesy z AI-owym scrappingiem w tle już się dzieją – np. Getty Images pozwało Stable Diffusion, wskazując, że ta druga firma nielegalnie zescrappowała obrazy chronione prawem autorskim i korzysta z nich bez licencji.

Dyrektywa dotycząca odpowiedzialności za AI to jedno. Mamy jeszcze rozporządzenie AI Act.

AI Act skupia się na wykorzystaniu narzędzi AI przez człowieka, czyli od etapu, w którym już zescrappował dane, a teraz ma się ich uczyć i coś wygenerować. Przede wszystkim jest zapis o tym, że narzędzia AI będą musiały działać pod nadzorem człowieka, a my, zwykli obywatele, mamy prawo do informacji, że właśnie prowadzimy jakąś interakcję z AI-em. Ponadto unijne minimum to procedury i jeszcze raz procedury. Oraz audyty, które sprawiają, że na etapie dostarczenia narzędzia przez dostawcę do użytku dla użytkowników z Unii Europejskiej to narzędzie już musi być zgodne z Rozporządzeniem (AI Act).

Czyli narzędzie czy algorytm musi uczyć się na legalnych źródłach. Nie może nikogo dyskryminować. Musi też być transparentny, czyli musi być jasne, jak powstawał algorytm i na jakich zasadach działa.

Zresztą to m.in. o to poszło ostatnio we Włoszech, gdy tamtejszy rząd zablokował ChatGPT. Władze zdecydowały się na to, bo twórcy czata z OpenAI nie przedstawili wystarczająco precyzyjnych informacji o tym, jak i jakie dane były przy tym przetwarzane. OpenAI posypało głowę popiołem i uzupełniło informacje. Dlatego finalnie zakaz się nie ostał, ale temat zaistniał.

Przejdźmy do twórców. Kto ma chronić ich prawa?

Nie ma na razie pomysłu, jak to zrobić prawnie systemowo. Ostatnio amerykański urząd ds. praw autorskich przejął pałeczkę, ale jeszcze musimy poczekać na przełom. Czyli na razie oni sami.

A będzie?

Problem polega na tym, że generatory obrazów oparte na sztucznej inteligencji, takie jak Midjourney, nie muszą kopiować obrazu jeden do jednego. ChatGPT zawsze nam powie, że nie kopiuje artykułu prasowego co do literki. AI, która przetwarza utwory muzyczne, nie tworzy tego samego utworu, tylko nowy w podobnym stylu. I tu tkwi ten diabelski szczegół.

Tak, na tym polega problem twórców z AI.

Ale jeśli mówimy o utworze – niezależnie, czy to jest piosenka, obraz, tekst, czy coś innego – to jest on przypisany do autora lub firmy, która go stworzyła. I ten podmiot ma do utworu prawa. Może też udzielać innym licencji do tego utworu i na tym zarabiać oraz zezwalać na wykonywanie jego opracowań.

A co robi AI? Ona uczy się ich stylu, a styl jako taki nie podlega ochronie prawnej. Każdy może zrobić jakąś rzecz w czyimś stylu i to nie znaczy, że coś mu ukradł. Mamy tysiące obrazów w stylu pop-artu i Andy’ego Warhola. Miliony ballad muzycznych inspirowanych innymi balladami. I reportażami w stylu największych reportażystów w historii. I nikt z pionierów stylu nie rości sobie praw ani odszkodowań w związku z nowymi utworami, które powstały z inspiracji ich utworów. Dlatego twórcom tak trudno jest dziś walczyć z AI przetwarzającą ich dzieła. Zarzuty i zapowiadane pozwy na gruncie kopiowania stylu nie ostaną się w naszym systemie prawnym. 

Wykazanie przez pojedynczego artystę, że jakiś wytwór AI bazuje na jego konkretnym utworze, jest bardzo trudny. Niestety, według mnie obecnie artyści mają tylko dwie drogi. Mogą sami zacząć korzystać z AI, dokładać do nich swoje zdolności i na tym zarabiać. Mogą też walczyć prawnie i niektórzy tego próbują, ale z prawnego punktu widzenia o kopiowaniu stylu nikt poważnie nawet nie dyskutuje.

Czyżby twórcy byli na straconej pozycji? Indywidualnie niewiele zrobią, systemowo też...

Systemowo bardzo trudno będzie to ogarnąć. Trochę ma pomóc dyrektywa unijna, która ma wprowadzić zasadę domniemania winy za powstałą szkodę po stronie podmiotu, który korzysta z narzędzia AI.

Czyli z góry winny jest ten, kto dzięki AI stworzył coś nielegalnego?

Tak, i w takiej sytuacji artysta mógłby pozwać o odszkodowanie tego, kto stworzył za pomocą narzędzia AI nowy utwór, który narusza jego prawa.

Czyli musiałby najpierw wiedzieć, kto z imienia i nazwiska wykorzystał ChatGPT, a potem musiałby udowodnić, że nie chodzi o skopiowanie stylu, lecz o skopiowanie utworu?

Na to wygląda. Krótko mówiąc: jeśli korzystasz z AI, to robisz to na własną odpowiedzialność.

Chwileczkę, a gdzie tutaj producent narzędzia AI? To przecież stara śpiewka, której używają wszystkie platformy czy serwisy internetowe. "To użytkownik zamieścił hejterski komentarz, nie my". "To internauta wrzucił nielegalną piosenkę na nasz serwer, nie my". I tak dalej.

Niestety tak. Od lat internetowe serwisy i twórcy technologii starają się umywać ręce od konsekwencji, jakie powstają w wyniku korzystania z tego, co stworzyli.

Wygląda na to, że twórca, którego dzieło zostało "przemielone" przez AI, jest bezradny.

Oczywiście jeśli jestem twórczynią dzieła, które zostało nielegalnie wykorzystane i nikt się na to ze mną nie umawia, to mogę pozwać tego, kto je wykorzystał. Ale udowodnienie tego będzie niezwykle trudne. Może to cenny moment, żeby zebrać jakieś systemowe pomysły?

Tylko systemowo nie załatwi się choćby problemu scrappingu. Podejrzewam, że prędzej twórcy narzędzi AI dogadają się np. ze stowarzyszeniami artystów albo z wydawcami mediów i będą im płacili za korzystanie z ich treści. Tak robi np. Google, który w niektórych miejscach świata płaci największym wydawcom za wykorzystywanie ich treści.

To byłaby korzystna sytuacja dla ustawodawców, bo problem sam by się zagospodarował (o czym mówiłam na początku). Model biznesowy Google’a zasadza się w pewnym sensie na tym, że w swojej usłudze z artykułami sprzedaje cudze treści. W ChacieGPT jest tak samo, więc niewykluczone, że OpenAI dojdzie do porozumienia z różnymi organizacjami zrzeszającymi twórców na całym świecie.

Owszem, systemowo nie da się problemu załatwić, ale można w pewne miejsca powbijać swego rodzaju bramki, które trzeba przejść. Powinny nimi być właśnie takie umowy albo regulacje prawne powstające w branżowych enklawach.

Czyli z twórcami narzędzi AI powinni osobno dogadać się wydawcy mediów, osobno muzycy, osobno graficy i do tego zapewne osobno w każdym kraju świata. Bo taki ChatGPT uczy się przecież na podstawie danych z internetu na całym świecie.

Regulacje branżowe są w stanie postawić wysoko poprzeczkę i ograniczyć mocno ramy, ale myślę, że nie ma możliwości, żeby ChatGPT czy Bard nie wypluł czegoś nielegalnego. W przypadku takich narzędzi AI, które są powszechnie dostępne, nie będziemy w stanie dotrzeć do systemowego rozwiązania.

To dość smutny wniosek z naszej rozmowy.

Ale nie oznacza, że nie należy nic robić. Z prawnego punktu widzenia ważne jest wyłapywanie krytycznych obszarów, gdzie te regulacje już teraz są potrzebne. Własność intelektualna zdecydowanie jest jednym z takich obszarów.

Dr Paula Skrzypecka jest doktorką nauk prawnych i starszą prawniczką w kancelarii Creativa Legal. Specjalizuje się w prawie nowych technologii, ochronie danych osobowych, własności intelektualnej i prawnych aspektach cyberbezpieczeństwa.

Obsługuje prawnie firmy technologiczne/IT od A do Z. Analizuje i projektuje umowy, regulaminy i polityki. Wspiera twórców aplikacji SaaS w budowie, wdrażaniu i rozwoju ich projektów. Doradza także startupom, firmom e-commerce oraz z WEB3.

Prywatnie podnosi ciężary, ogląda Star Wars i pije za dużo kawy.

Zdjęcie główne: Sam Altman przed amerykańskim kongresem, fot. YouTube
DATA PUBLIKACJI: 19.05.2023