Efekt brukselski. Unia Europejska chce stać się globalnym regulatorem AI

Trwa globalny wyścig na regulacje sztucznej inteligencji w Chinach i Stanach Zjednoczonych, ale to Unia Europejska jest najbardziej zaawansowana w pracach. Prezesi Sam Altman z OpenAI i Sundar Pichai z Google’a ruszyli na wyprawę po Starym Kontynencie, licząc, że uda im się spiłować kły unijnej regulacji. Jednak jedynymi, którzy mogą to zrobić, są sami unijni urzędnicy. Już w tym tygodniu kolejne głosowanie ws. AI Act.

AI Act, regulacje sztucznej inteligencji - o co chodzi, kiedy

Inteligencja może być sztuczna, ale regulacja, która nadchodzi, już jest prawdziwa, ma zęby i może pogryźć wszystkich jej twórców. 14 czerwca Parlament Europejski zagłosuje nad AI Actem, pierwszym na świecie prawem regulującym sztuczną inteligencję.

– Panuje przekonanie, że jest to wyważony kompromis, który może zapewnić poczucie bezpieczeństwa i ochrony prawnej konsumentom przed problemami, jakie przyniesie powszechne stosowanie sztucznej inteligencji – zaznacza w rozmowie z SW+ europoseł Kosma Złotowski. Jako jedyny z polskiej ekipy pracował w unijnej komisji zajmującej się regulacją sztucznej inteligencji. – Oczywiście wszyscy mają świadomość, że wraz z rozwojem tej technologii konieczne będą jego aktualizacje, ale ten pierwszy krok regulacyjny trzeba wykonać jak najszybciej – dodaje.

Nie wszystkim ten pośpiech jest na rękę. Sam Altman, szef OpenAI, firmy, która stworzyła ChatGPT, odbył w maju intensywną trasę lobbingową po Europie. Podczas ostatniego przystanku w Londynie ostrzegł, że wysiłki Brukseli mające na celu uregulowanie sztucznej inteligencji mogą skłonić go do wycofania swoich usług z Unii Europejskiej.

Stwierdził też, że ma "wiele obaw" związanych z planowaną przez UE regulacją. W szczególności zwrócił uwagę na ostatnio dodane postulaty, aby rozszerzyć proponowane przepisy o najnowszą falę technologii sztucznej inteligencji ogólnego przeznaczenia, w tym duże modele językowe, takie jak ChatGPT-4.

– Postaramy się dostosować, ale jeśli nie będziemy w stanie tego zrobić, wyjdziemy z rynku – zagroził Altman, który tydzień wcześniej podczas przesłuchania w kongresie, a później na spotkaniu w Warszawie nawoływał do regulacji AI. Szefowie Big Techów uwielbiają robić takie teatralne sceny. Głośno skandują, że trzeba rynek regulować, że prawo jest potrzebne, a w efekcie okazuje się, że jedyne regulacje, jakie im odpowiadają, to takie, które sugerują oni sami.

Wierni obserwatorzy poczynań technologicznych gigantów mogą pamiętać podobne wycieczki w ostatnich latach podejmowane m.in. przez Marka Zuckerberga z Mety czy Sundara Pichai'a z Google’a, gdy starali się lobbować szefów europejskich rządów w sprawie aktów o usługach cyfrowych (DSA) i o rynkach cyfrowych (DMA). – Big Techy zawsze zabiegają o to, aby udało się upiłować kły regulacjom, które mają ich dotyczyć. Podobnie jest w przypadku AI Act, co wiemy np. z raportu Corporate Europe Observatory, który analizował zabiegi m.in. Microsoftu i Alphabetu (Google) w zakresie wpływu właśnie na AI Act. Nie ma powodu sądzić, że to się zmieniło, w końcu proces trwa, a stawka rośnie – mówi Filip Konopczyński z fundacji Panoptykon.

Na tym etapie prac nad regulacją AI przynajmniej Parlament Europejski wydaje się być niewzruszony groźbami i prośbami Big Techów, ale to początek drogi do wdrożenia AI Act w życie. Po zatwierdzeniu nowego prawa w Parlamencie Europejskim rozpoczną się konsultacje trójstronne między Parlamentem, Radą i Komisją. Dopiero wtedy wycieczki szefów firm technologicznych ze Stanów Zjednoczonych i spotkania z unijnymi przedstawicielami i szefami rządów mogą nabrać rozpędu.

Sztuczna inteligencja wysokiego ryzyka

Kiedy Komisja Europejska w 2018 roku zapowiedziała zajęcie się kompleksowym uregulowaniem sztucznej inteligencji, mało kogo to wówczas ruszało. Trzy lata później projekt regulacji AI był gotowy i zawierał zasady dotyczące rozwiązań uznanych za obarczone wysokim ryzykiem. Chodzi m.in. o systemy AI, które mają decydować o przyznaniu pożyczki, przyjęciu ucznia do szkoły czy człowieka do pracy. Zaznaczono, że sztuczna inteligencja powinna być w niektórych przypadkach całkowicie zakazana. Na przykład gdyby miała być wykorzystywana niczym znane z Chin rządowe systemy "oceny społecznej", które klasyfikują ludzi na podstawie ich zachowania.

Początkowo regulatorzy koncentrowali się na kontrolowaniu ryzykownych, ale wąsko ukierunkowanych zastosowań AI. Prawie nie wspomniano wówczas o systemach AI ogólnego przeznaczenia, takich jak chatboty. Ustawodawcy zastanawiali się, czy w ogóle jest sens je uwzględniać, bo nie byli pewni ani jak to zrobić, ani czy to ostatecznie będzie konieczne.

Na ostatniej prostej regulacji baczniej przygląda się znacznie szersza publiczność. Wzrost popularności zawdzięczamy uruchomieniu prototypu ChatGPT firmy OpenAI. Momentalnie przyciągnął uwagę świata ze względu na zdolności do generowania odpowiedzi podobnych do ludzkich na podstawie tego, czego nauczył się ze skanowania ogromnych ilości materiałów online, czyli tzw. scrapingu. Pojawiły się obawy zarówno natury społecznej (utrata pracy na rzecz AI), etycznej (przekłamania w wynikach zapytań), jak i prawnej (naruszenie praw autorskich).

Dlatego europejscy prawodawcy wzięli się za poprawki.

W zeszłym miesiącu swoje poprawki do AI Act przyjęły komisje: Rynku Wewnętrznego i Ochrony Konsumentów (IMCO) oraz Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (LIBE) Parlamentu Europejskiego, wzmacniając tym samym ochronę naszych praw i wolności. – Ustawa o AI jest najprawdopodobniej najważniejszym aktem prawnym w tej kadencji. To też pierwszy akt prawny tego rodzaju na świecie, co oznacza, że UE może przewodzić w tworzeniu sztucznej inteligencji, która będzie skoncentrowana na człowieku, godna zaufania i bezpieczna – zaznaczał europoseł Dragos Tudorache, odpowiedzialny za ustawę o AI.

Komisja Rynku Wewnętrznego i Ochrony Konsumentów głosuje nad poprawkami do AI Act
Komisja Rynku Wewnętrznego i Ochrony Konsumentów głosuje nad poprawkami do AI Act. Fot. European Union 2023, source: EP

Regulacja określa teraz obowiązki dostawców i użytkowników w zależności od poziomu ryzyka, jaki sztuczna inteligencja może generować. AI jest grupowana w pięciu kategoriach ze względu na wysokość ryzyka, jakie może nieść: nieakceptowalne, wysokie, ograniczone, minimalne i ogólne.

W pierwszej grupie "nieakceptowalnych" znalazły się takie technologie jak biometryczna identyfikacja w przestrzeni publicznej, predykcja kryminalna w stosunku do pojedynczych osób, rozpatrywanie wniosków o azyl, ale też rozpoznawanie emocji czy kategoryzowanie ludzi względem ich słabości. Te zastosowania AI w istotny sposób mogą wpływać na nasze codzienne życie. Systemy sztucznej inteligencji o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi mają być surowo zabronione.

Europosłowie zwiększyli listę obszarów wysokiego ryzyka i całą kategorię poddali większej kontroli. Do listy dodali systemy AI mające wpływać na wyborców w kampaniach politycznych i w systemach rekomendacji używanych przez platformy mediów społecznościowych.

Uwzględnili też w przepisach obowiązki dostawców modeli podstawowych (ang. foundation models), czyli modeli sztucznej inteligencji przeszkolonych na ogromnej ilości danych. Najpopularniejszym jest GPT, który jest podstawą do zasilania aplikacji ChatGPT. Za jego pomocą ChatGPT generuje odpowiedzi na zapytania wprowadzane przez użytkownika. Modele te zostaną uregulowane w ramach osobnej kategorii systemów AI ogólnego przeznaczenia i systemów opartych na modelach podstawowych (w tym w tzw. dużych modelach językowych). I właśnie tu znaleźć można źródło gróźb Sama Altmana o wyjściu ChatuGPT z Unii Europejskiej.

– Systemy wysokiego ryzyka wdrażane przez instytucje publiczne oraz tzw. bardzo duże platformy internetowe (VLOP w rozumieniu DSA), a także modele podstawowe (w tym duże modele językowe, takie jak na przykład GPT), które będą chciały działać na europejskim rynku, będą musiały rejestrować się w publicznym, dostępnym rejestrze prowadzonym przez Komisję Europejską. Byłoby znacznie lepiej, gdyby lista obejmowała wszystkie takie systemy, o co zabiegaliśmy od początku negocjacji – mówi Filip Konopczyński z Panoptykonu.

Generatywne modele podstawowe, takie jak wspomniany GPT, będą musiały też spełniać dodatkowe wymagania dotyczące przejrzystości. Jednym z obowiązków jest informowanie użytkownika, że treść została wygenerowana przez sztuczną inteligencję. Twórcy muszą też zaprojektować model w taki sposób, aby uniemożliwić generowanie nielegalnych treści. Muszą także publikować podsumowania danych wykorzystywanych do trenowania sztucznej inteligencji, które są chronione prawem autorskim. Podsumowania te to, innymi słowy, listy źródeł, na których pracowano, aby wytrenować system.

Fot. Mdisk / Shutterstock.com

Za naruszenie regulacji zawartych w AI Act będą nakładane kary. Najwyższa to 30 milionów euro lub 6 proc. rocznego światowego obrotu.

Jednak aby zwiększyć innowacyjność sztucznej inteligencji, posłowie PE dodali wyjątki od wspomnianych wyżej zasad. Dotyczą np. działań badawczych i komponentów sztucznej inteligencji dostarczanych na licencji open source. Nowe prawo promuje też tzw. piaskownice regulacyjne lub kontrolowane środowiska tworzone przez władze publiczne, żeby testować sztuczną inteligencję przed jej wdrożeniem.

Nowe uprawnienia zyskają też organizacje społeczne, które będą mogły pełnić rolę doradczą wobec AI Office, unijnego organu odpowiedzialnego za egzekwowanie nowego prawa. Będzie on odpowiedzialny m.in. za tworzenie praktycznych standardów, wzorców czy koordynację pracy pomiędzy Komisją Europejską, krajowymi organami ds. AI a samymi firmami.

AI Act ma moc rozporządzenia, co oznacza, że – podobnie jak RODO – prawo będzie obowiązywało bezpośrednio, bez konieczności wdrażania dodatkowych przepisów krajowych. To z kolei sprzyja szybszemu wejściu regulacji w prawdziwe życie. – Rozporządzenie obowiązuje bezpośrednio i nie wymaga wdrożenia, co oznacza, że mogę iść przed polski sąd i oprzeć pozew na jego przepisach. Ale z uwagi na to, że te przepisy są dość ogólne, państwa zwykle dostosowują je do swojego lokalnego klimatu i wydają przepisy wprowadzające rozporządzenia, np. w Polsce była cała obszerna ustawa wprowadzająca RODO, która zmieniała masę różnych ustaw, dopasowując je do RODO, żeby było spójnie – tłumaczy dr Paula Skrzypecka z kancelarii Creativa Legal.

Nieidealne prawo 

Przyjęte przez komisję IMCO i LIBE poprawki to zmiana na lepsze, jednak, jak przyznają prawnicy, regulacja mogłaby znacznie skuteczniej chronić nasze prawa i wolności, jeśliby ją jeszcze podkręcić tu i tam.

Panoptykon zaprezentował cztery postulaty, które mają ulepszyć AI Act. Pierwszy dotyczy tego, żeby systemy AI były kwalifikowane z automatu jako systemy wysokiego ryzyka niezależnie od tego, czy ich wykorzystanie będzie powodowało ryzyko wywołania "znaczącej szkody". – Tylko kiedy szkoda przestaje być nieznacząca i zaczyna być znaczącą? Czy jeżeli czyjś wizerunek zostanie podstawiony do filmu erotycznego i w konsekwencji ta osoba straci pracę, to już jest znacząca szkoda? – pyta dr Skrzypecka.

Drugi postulat mówi o tym, żeby objąć regulacjami bezpieczeństwo narodowe. W przeciwnym razie istnieje ryzyko, że państwa będą stosowały nieprzejrzyste i obarczone błędami systemy AI do decydowania o nas w zakresie bezpieczeństwa publicznego, kontroli granic, walki z dezinformacją czy jakichkolwiek działań zagrażających bezpieczeństwu narodowemu.

Trzecia uwaga to prawo do uzyskania wyjaśnienia decyzji podjętej z wykorzystaniem AI, które powinno przysługiwać także wtedy, gdy nie chodzi o system wysokiego ryzyka. Czyli jeśli system AI zdecydował o tym, że nie dostaniemy zniżki, musi wyjaśnić nam powody takiej decyzji.

A ostatni, czwarty postulat dotyczy tego, by organizacje społeczne mogły reprezentować osoby, których prawa zostały naruszone. Dzięki temu organizacje społeczne takie jak Panoptykon mogłyby wnosić skargi w imieniu osób pokrzywdzonych.

Dodatkową uwagę zwraca dr Filip Biały, zajmujący się etyką sztucznej inteligencji, związany z Uniwersytetem im. Adama Mickiewicza w Poznaniu i European New School of Digital Studies. Naukowiec zaznacza, że w regulacjach brakuje podjęcia tematu różnorodności.

– Ta różnorodność dotyczy nie tylko osób zajmujących się trenowaniem sztucznej inteligencji [teraz są to głównie mężczyźni – przyp. red.], lecz także faktu, że dane treningowe są często zbyt jednorodne. W modelach językowych przeważają dane anglojęzyczne pochodzące z krajów zachodnich. To istotny problem dla dyskursu publicznego, bo mając jedną perspektywę świata, postrzeganie go jest znacząco wypaczone. Zresztą oprócz jakości danych treningowych mamy jeszcze jeden problem, a jest nim polityka wielkich korporacji. Generowane treści mogą być manipulowane i przekłamywane, aby były zgodne z interesem korporacji – zaznacza dr Biały.

Pod kontrolą

Zresztą nie jest tak, że aktualnie sztuczna inteligencja jest poza kontrolą na europejskim rynku. Obowiązuje wspomniane RODO regulujące wykorzystanie danych użytkowników. Są akty o usługach i rynkach cyfrowych.

– Jest procedowana także dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję, która dotyczy odpowiedzialności za spowodowane przez AI szkody – wskazuje Paula Skrzypecka. Ale, jak dodaje, ma ona wiele wyjątków. – Dotyczy wyłącznie odpowiedzialności za szkody powstałe poza stosunkami umownymi, czyli w takich sytuacjach, w których wykorzystano wobec nas sztuczną inteligencję bez naszej wiedzy. Więc z prawnego punktu widzenia akceptując regulamin jakiegokolwiek rozwiązania czy narzędzia, zawieramy umowę z jego dostawcą. Tym samym będzie to już obszar wyłączony spod działania tej dyrektywy. Odpowiedzialność nie dotyczy też bezpośrednio na przykład kwestii prawno-autorskich, które wywołują duże zainteresowanie. Niewykluczone jednak, że praktyka pozwoli w miarę efektywnie dochodzić także tych roszczeń na podstawie przepisów dyrektywy – wylicza.

Europosłowie, z którymi udało nam się porozmawiać, zdają sobie sprawę z ułomności niektórych rozwiązań. Zaznaczają jednak, że aktualna wersja regulacji rozwiązuje zasadnicze problemy. – Oczywiście nigdy nie jest tak, że prawo jest idealne. Można by sobie np. wyobrazić, by obowiązki dotyczące wyjaśniania konsumentom decyzji podjętej z wykorzystaniem AI były szersze i dotyczyły nie tylko systemów wysokiego ryzyka, ale wszystkich innych, w których chodziłoby o istotne dla nas decyzje – tłumaczy europosłanka Róża Thun.

Dodaje, że jest to bardzo obszerne prawo, które musi stanowić kompromis pomiędzy różnymi wrażliwościami. Z jednej strony trzeba było pogodzić interesy obywateli i konieczność ich ochrony przed możliwymi negatywnymi konsekwencjami technologii. Z drugiej zaprojektować takie prawo, które by wspierało rozwój nowoczesnego i etycznego AI.

Europosłanka Róża Thun
Europosłanka Róża Thun. Fot. European Union 2022, source: EP

Europoseł Złotowski dodaje, że AI Act jest potrzebny, by budować zaufanie do AI. Filip Konopczyński z Panoptykonu zaznacza, że to szansa dla globalnych firm: – Z punktu widzenia ekonomicznego może mieć to zalety, bo ułatwia większym podmiotom obecnym na rynku europejskim wywiązywanie się z obowiązków związanych z przestrzeganiem nowego prawa. Konstrukcja AI Act może zapewnić spójność prawa i redukcję kosztów prawnych koniecznych, żeby np. obsłużyć ten sam produkt w każdym z krajów UE z osobna. To wyraźny postęp względem RODO wpisujący się w trend rosnącej kontroli Komisji nad sektorem cyfrowym.

Prawnicy i europosłowie, z którymi rozmawialiśmy, zaznaczają, że europejskie przepisy dotyczące AI mogą stać się de facto globalnym standardem do regulacji sztucznej inteligencji. Niewykluczone, że firmy nie będą opracowywały różnych produktów na poszczególne regiony świata, które różnią się przepisami. Być może będą wolały dostosować je do przepisów największego bloku geograficznego, czyli UE. Jednak za rogiem czai się smok, który ma taki sam plan.

Chiny chcą zagarnąć Południe

Europa to nie jedyne miejsce na świecie, gdzie zabrano się za regulowanie AI. Po drugiej stronie oceanu również trwają prace, w wyniku których w zeszłym roku Biały Dom opublikował plan dotyczący Karty Praw Sztucznej Inteligencji. Określa pięć zasad zapobiegania dyskryminacji oraz ochrony prywatności i bezpieczeństwa użytkowników.

Z kolei Narodowy Instytut Standardów i Technologii USA opublikował w styczniu ramy zarządzania ryzykiem AI. Także Kongres pod przywództwem senatora Chucka Schumera zaczyna opracowywać regulację, a szefowa Federalnej Komisji Handlu Lina Khan oświadczyła, że już teraz nie zawaha się rozprawiać z nieuczciwymi praktykami firm zajmujących się AI.

Waszyngton i Bruksela próbują położyć podwaliny pod globalną regulację sztucznej inteligencji za sprawą Rady ds. Handlu i Technologii. Unia Europejska wspólnie z Amerykanami chce w najbliższych tygodniach przedstawić wspólny projekt kodeksu postępowania AI. – Ponieważ mamy różne procedury legislacyjne, miną dwa, najwyżej trzy lata, zanim to wejdzie w życie – tłumaczyła europejska komisarz ds. konkurencji Margrethe Vestager podczas konferencji z sekretarzem stanu USA Anthonym Blinkenem. – Chcemy to robić z naszymi przyjaciółmi w Kanadzie, w Wielkiej Brytanii, Japonii, Indiach, zabierając jak najwięcej osób na pokład – zaznaczyła.

Konferencja prasowa z sekretarzem stanu USA Anthonym Blinkenem i europejską komisarz ds. konkurencji Margrethe Vestager

Także Sam Altman podczas wizyty w Warszawie mówił o pomyśle utworzenia międzynarodowego ciała na wzór ONZ-owskiej Międzynarodowej Agencji Energii Atomowej, która miałaby się zająć światową regulacją sztucznej inteligencji. – Jednak trudno wyobrazić sobie przygotowanie i przyjęcie projektu utworzenia nowej, globalnej agencji z realnymi uprawnieniami wobec firm i państw. Może właśnie z tego powodu tego przykładu użył Altman? Póki co dla naszych praw jako Polaków i Europejczyków najważniejszy jest AI Act, który może wejść w życie już w ciągu najbliższych kilkunastu miesięcy. Przecież nic nie stoi na przeszkodzie, aby potem tę dyskusję kontynuować na poziomie globalnym – zastanawia się Filip Konopczyński.

Dodaje, że teoretycznie powołanie globalnej instytucji jest zrozumiałe i nawet godne pochwały, natomiast w obecnej sytuacji mało realistyczne. Choćby dlatego, że ani Chiny, ani Rosja pod wieloma względami nie grają obecnie z resztą świata w tej samej drużynie.

I właśnie regulacjom AI w Chinach Zachód, a dokładniej Stany Zjednoczone, bacznie się przyglądają. USA stoją na rozdrożu. Z jednej strony wiedzą, że powinny uregulować sztuczną inteligencję. Z drugiej boją się, że jeśli za bardzo zacisną sznur na szyi firmom zajmującym się sztuczną inteligencją, stracą pozycję lidera rozwoju w tej dziedzinie. A Pekin ma zupełnie inny plan i już znacznie wyprzedza Waszyngton w regulowaniu rynku AI.

Chińskie władze mają sześcioletnie doświadczenie w budowaniu wiedzy regulacyjnej w zakresie AI, odkąd w 2017 r. uruchomiły plan rozwoju sztucznej inteligencji nowej generacji. W międzyczasie jako pierwsze zakazały u siebie stosowania ChatuGPT i postawiły na rozwój rodzimych produktów. Kraj ten wprowadził też regulacje nakładające kary za tworzenie deep fake'ów z wykorzystaniem generatywnej sztucznej inteligencji.

Chińska regulacja AI w porównaniu z AI Actem jest bardziej fragmentaryczna i mniej skupiona na człowieku, a mocniej na partii i jej interesach. W opublikowanym w połowie kwietnia kolejnym już projekcie regulacji przepisy obejmują praktycznie wszystkie aspekty generatywnej sztucznej inteligencji. Od tego, jak jest szkolona, po sposób interakcji użytkowników. Przepisy nakładają znacznie bardziej rygorystyczne wymagania na sposób, w jaki firmy AI zbierają dane, szkolą swoje algorytmy i wytwarzają wyniki. Zgodnie z założeniami firmy AI będą odpowiedzialne za "legitymację źródła danych przedtreningowych", aby zapewnić, że treść odzwierciedla "podstawową wartość socjalizmu".

Firmy mają szereg obowiązków. Muszą dopilnować, aby sztuczna inteligencja nie nawoływała ani do "obalania władzy państwowej" lub rządzącej Komunistycznej Partii Chin, ani do działań mających na celu "podział kraju" lub "podkopywanie jedności narodowej". AI nie może produkować treści pornograficznych lub zachęcać do przemocy, ekstremizmu, terroryzmu lub dyskryminacji. Treści tworzone przez sztuczną inteligencję mają być zgodne z linią rządu i działać pod jego kontrolą. Słowem: Chiny nakładają na AI cenzurę.

Chiny zablokowały ChatGPT
Chiny zablokowały ChatGPT. Fot. daily_creativity / Shutterstock.com

Panujące na Zachodzie przeświadczenie mówi, że im większa regulacja, tym mniejsza innowacja. Co więc przemawia za decyzjami Chin? Z ich perspektywy jest to sposób na wypracowanie standardów działania AI, które można eksportować za granicę, kształtując elastyczne dla siebie rynki. Im więcej krajów przejmie chińskie standardy lub będzie się na nich wzorować, tym ich firmom od AI będzie łatwiej rozwijać się na tych rynkach, bo przecież znają już i mają wypracowane sposoby działania w ramach tych regulacji. Zresztą Pekin już tworzy podstawę dla eksportu sztucznej inteligencji na całym Globalnym Południu i w krajach uczestniczących w inicjatywie Jednego pasa i jednej drogi mającej na celu reaktywację Jedwabnego Szlaku. 

Chiny chcą też stworzyć godnego przeciwnika dla ChatuGPT, którego używania zakazały na terenie całego kraju. W ubiegłym tygodniu Bloomberg poinformował, że do wyścigu na sztuczną inteligencję wszedł właściciel TikToka ByteDance, który testuje wśród pracowników własnego chatbota. Projekt na razie owiany jest tajemnicą. Wiadomo, że nazywa się "Grace" i jest oparty na kilku dużych modelach językowych. Oprócz wspomnianego ByteDance'a w rywalizacji na sztuczną inteligencję biorą udział największe chińskie firmy technologiczne, w tym m.in. wyszukiwarka Baidu z projektem Ernie Bot, Alibaba czy Tencent Holdings.

Tak więc trwa walka nie tylko o to, kto szybciej i efektywniej wyeksportuje swoje AI-owe regulacje, lecz także kto będzie wiódł prym na rynku rozwoju AI.

Pakt z lobbystą

Unia Europejska od lat, wprowadzając regulacje w ramach wspólnoty, wytycza ścieżki innym krajom na świecie. Ten fenomen nazywany jest efektem brukselskim i odnosi się do jednostronnej władzy UE w zakresie regulowania rynków światowych. Bruksela nie ucieka się do instytucji międzynarodowych, nawet nie współpracuje nadmiernie z narodami spoza Wspólnoty. I tak ma wyjątkową zdolność i siłę rynkową do ogłaszania przepisów, które kształtują globalne środowisko biznesowe, podnoszą standardy na całym świecie i prowadzą do zauważalnej europeizacji wielu ważnych aspektów światowego handlu. W odróżnieniu od wielu innych form globalnego wpływu efekt brukselski oznacza, że UE nie musi nikomu narzucać swoich standardów. Przedsiębiorstwa międzynarodowe robią to dobrowolnie.

Jedną z regulacji, która wywołała efekt brukselski, jest Ogólne Rozporządzenie o Ochronie Danych Osobowych, czyli sławne RODO. Na świecie znalazło wielu naśladowców. Wśród nich były m.in. Japonia, Tunezja, Korea Południowa czy Stany Zjednoczone, w tym Kalifornia, Kolorado i Wirginia. Nawet Facebook i Microsoft ogłosiły, że ich firmy będą postępować zgodnie z RODO. Taka przyszłość przepowiadana jest także dla AI Act. – Zaangażowanie największych firm technologicznych w lobbing na różnych poziomach w Brukseli ws. AI Act jest duże. Mówimy jednak o regulacjach, które mogą wyznaczyć kierunek dla tworzenia podobnych przepisów na całym świecie, więc trudno się temu dziwić – mówi Kosma Złotowski.

Europoseł Kosma Złotowski
Europoseł Kosma Złotowski. Fot. European Union 2022, source: EP

W czasie trasy lobbingowej Sama Altmana z OpenAI do Europy zawitał także Sundar Pichai, szef Google’a. Podczas wizyty spotkał się z posłami do Parlamentu Europejskiego odpowiedzialnymi za ustawę o AI: Brando Benifeiem i Dragosem Tudorachem. – Jeśli chodzi o wspomniane wizyty, to nie mogły one mieć dużego wpływu na prace PE, bo nasza wersja tego rozporządzenia jest już gotowa od 11 maja i raczej nie ulegnie zmianom na sesji plenarnej, żeby nie zaburzyć równowagi politycznej osiągniętej dla jego poparcia w IMCO-LIBE – zdradza Złotowski.

Doszło jednak także do spotkania Pichai'a z Thierrym Bretonem, szefem UE ds. cyfrowych nadzorującym ustawę o sztucznej inteligencji. W jej wyniku doszło do porozumienia o stworzeniu "paktu AI", nieformalnego zestawu wytycznych, których firmy AI mają przestrzegać, zanim formalne zasady zostaną wprowadzone w życie.

Europosłanka Róża Thun ma jasne stanowisko wobec takich podchodów: – Z mojego doświadczenia, m.in. z negocjacji rozporządzeń dotyczących roamingu, w których brałam udział, wynika, że państwa członkowskie dużo częściej niż Parlament prezentują stanowiska bliskie interesom wielkich firm technologicznych. Więc mogę tylko w swoim imieniu powiedzieć, że będę w Parlamencie Europejskim bronić ambitnego charakteru tej propozycji.

Altman w czasie swojej kilkudniowej wycieczki lobbingowej spotkał się z premierem Hiszpanii Pedro Sánchezem, prezydentem Francji Emmanuelem Macronem, kanclerzem Niemiec Olafem Scholzem, premierem Wielkiej Brytanii Rishi Sunakiem, a także premierem Polski Mateuszem Morawieckim. Szczegóły tych rozmów nie są znane, ale jedno jest pewne: Altman chce, by wszyscy myśleli, że OpenAI bardzo kocha Europę.

O ocenę aktualnej sytuacji związanej z AI Act i możliwe jego dopracowanie zapytaliśmy wszystkich 52 polskich eurodeputowanych. Odpowiedziało siedmiu z nich. Jeden odmówił komentarza, bo "nie jest specjalistą w tej dziedzinie". Drugi zapewnił, że ze względu na obrady odpowiedzi prześle nam później, ale do tej pory ich nie otrzymaliśmy. Na wszystkie pytania odpowiedzieli Róża Thun, Kosma Złotowski, Robert Biedroń, Patryk Jaki i Adam Jarubas. Europoseł Jarubas nie jest pewien, jak zagłosuje, natomiast reszta zapewniła, że zagłosują za AI Actem w obecnym kształcie.

Stanowisko połączonych komisji IMCO-LIBE będzie głosowane podczas sesji plenarnej Parlamentu Europejskiego w najbliższych dniach, między 12 a 15 czerwca. Pod koniec kwietnia cztery główne partie polityczne Parlamentu Europejskiego uzgodniły, że nie będą składać poprawek do AI Actu. Wyjątkiem miały być ewentualne niewielkie zmiany wprowadzone przez Europejską Partię Ludowej (EPP), do której należy PO i PSL, w kwestii identyfikacji biometrycznej.

Jednak na ostatniej prostej, jak donosi serwis Euroactive, EPP nadwyrężyła kompromis, składając oddzielne poprawki. Złamanie umowy może otworzyć drzwi na kolejne poprawki do AI Actu, a to w konsekwencji do opóźnienia wdrożenia prawa.

Po zatwierdzeniu AI Actu na głosowaniu plenarnym PE projekt kierowany jest na konsultacje między Parlamentem, Radą i Komisją, czyli tzw. na trilog. Plany zakładają, że trilog zakończy się jeszcze w tym roku, więc w najbardziej optymistycznym scenariuszu AI Act może wejść na początku 2025 roku.