Europa przeciw inżynierii społecznej rodem z Chin. Ekspertka mówi, co zmieni nowe prawo UE

– To jest bardzo trudny akt prawny. My też potrzebowaliśmy wielu miesięcy, żeby zrozumieć przyjęte w nim konstrukcje i móc się w nich kompetentnie poruszać. A przecież politycy często nie mają warunków, żeby projekty, nad którymi pracują, tak głęboko analizować – mówi Katarzyna Szymielewicz, prezeska Fundacji Panoptykon po negocjacjach pomiędzy przedstawicielami Komisji Europejskiej, proponującymi przepisy rozporządzenia wokół AI Act, a Radą Unii Europejskiej i Parlamentem Europejskim.

Co oznacza dla nas porozumienie w sprawie AI Act?

Po miesiącach lobbowania i politycznych zmagań, wyczerpujących negocjacji końcowych, które trwały niemal 40 godzin Unia Europejska osiągnęła porozumienie w sprawie regulacji sztucznej inteligencji. Będzie to pierwsze na świecie szeroko zakrojone prawo regulujące szybko rozwijający się przemysł AI.

"AI Act to znacznie więcej niż zbiór przepisów – to punkt startowy dla unijnych start-upów i badaczy, którzy mogą przewodzić światowemu wyścigowi sztucznej inteligencji" – napisał na portalu X Europejski Komisarz ds. Rynku Wewnętrznego Thierry Breton

Chociaż na ostatniej prostej próbowano znacząco złagodzić proponowane regulacje, ostatecznie blok zgodził się na bardziej rygorystyczne regulacyjne. AI Act nałoży nowe wymogi w zakresie przejrzystości na potężne modele sztucznej inteligencji, a także rygorystyczne ograniczenia w stosowaniu technologii rozpoznawania twarzy. Nowe przepisy, które prawdopodobnie wejdą w życie na początku 2025 r., wprowadzają także zakazy wykorzystywania sztucznej inteligencji do punktacji społecznej (ang. social scoring), czyli wykorzystania metryk do klasyfikacji ludzi na podstawie ich zachowania lub cech osobistych. Firmom, które nie zastosują się do nowych przepisów, grożą kary w wysokości do 7 proc. obrotu.

O tym, jak nowe prawo wpłynie na nas obywateli, opowiada Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.

Katarzyna Szymielewicz, fot. Lech Zych

Proces ten był czasami bolesny i stresujący, ale osiągnięcie przełomowego porozumienia było warte braku snu. Tak mówiła Carme Artigas, hiszpańska sekretarz stanu ds. cyfryzacji i AI sztucznej inteligencji, tuż po domknięciu umowy wokół AI Act. Rzeczywiście było warto?

Na pewno dobrą wiadomością jest to, że Komisji, Radzie UE i delegacji Parlamentu Europejskiego w ogóle udało się wypracować wspólną wersję rozporządzenia, bo jeszcze miesiąc temu nie wyglądało to optymistycznie. A do tego ulepszyć projekt, który położyła na stole w 2021 roku Komisja Europejska. To duży postęp. 

Postęp, który rodził się w bólu i stresie? 

Nie mogło być inaczej, skoro każda z instytucji przyszła do stołu z własną wersją rozporządzenia o AI,  opierającą się na innej wizji. A nad wypracowaniem wspólnej pracowały pod presją "jak się nie uda do grudnia, to wracamy do punktu wyjścia". Komisja Europejska, która przygotowała wyjściowy projekt, zaproponowała  regulację przede wszystkim wspierającą innowację i rozwój tej technologii. 

Zadbanie o bezpieczeństwo produktów i usług opartych o AI miało zwiększyć zaufanie konsumentów, żeby chcieli z nich korzystać, i wśród inwestorów – żeby chcieli w nie inwestować. Na tamtym etapie Komisja nie stawiała sobie za cel rozwiązania bardziej złożonych problemów, które mogą powodować ryzykowne wykorzystania sztucznej inteligencji. A przecież AI to coś więcej niż inteligentna lodówka. To także profilowanie i ocenianie ludzi w kontekście zatrudnienia, edukacji, scoringu bankowego czy pomocy społecznej.

To zaproponował Parlament Europejski.

Tak, wersja Parlamentu przyjęta w maju 2023 r. była w bardziej ambitna, jeśli chodzi o ochronę praw człowieka. Parlament wprowadził do projektu m.in. obowiązkowy mechanizm oceny wpływu systemów AI na prawa podstawowe przed ich wdrożeniem, prawo do skargi i obowiązek wyjaśniania indywidualnych decyzji podejmowanych z użyciem AI. Ale również w Parlamencie porozumienie w tych sprawach bardzo długo się docierało. I zupełnie nas nie zaskoczyło, że Rada UE i Komisja nie od razu dały się przekonać do wprowadzenia człowieka do tekstu, który był pisany z myślą o relacjach B2B. 

Rozmowy w trilogu, czyli pomiędzy przedstawicielami Komisji Europejskiej, proponującymi przepisy rozporządzenia, a Radą Unii Europejskiej i Parlamentem Europejskim, które muszą się na nie zgodzić, trwały ponad 37 godzin i łącznie zajęły trzy dni. To normalne, że politycy tyle debatują nad jednym aktem? 

To była ostatnia runda negocjacji, bo cały trilog trwał o wiele dłużej – od czerwca, kiedy to Parlament Europejski przyjął swoją wersję rozporządzenia. Jesteśmy w momencie politycznym, w którym kończą się kadencje zarówno Parlamentu, jak i Komisji Europejskiej. To oznacza, że prace, które nie zostaną ukończone teraz, zostaną przerwane, z niewielką możliwością wrócenia do nich w następnej kadencji. AI Act był jednym z flagowych projektów obecnej Komisji, dlatego kierownictwo polityczne pod koniec roku  wrzuciło piąty bieg. Thierry Breton miał świadomość, że musi te negocjacje dokończyć nawet kosztem dużych kompromisów. W innej sytuacji być może trilog przebiegałby spokojniej i dał lepsze efekty.

Mówi się, że złożoność techniczna aktu również była problemem.

To jest bardzo trudny akt prawny. My też potrzebowaliśmy wielu miesięcy, żeby zrozumieć przyjęte w nim konstrukcje i móc się w nich kompetentnie poruszać. A przecież politycy  często nie mają warunków, żeby projekty, nad którymi pracują, tak głęboko analizować. Są też bardziej podatni na narracje, jakie lansują – nie zawsze odpowiedzialnie – opiniotwórcze media i populistyczne hasła w stylu "taka regulacja zaszkodzi innowacji" i albo "nie możemy tego zakazać, kiedy w grę wchodzi nasze bezpieczeństwo". To dwa najczęstsze wytrychy lobbingowe. Takie przerzucanie się sloganami oczywiście nie pomaga w merytorycznej dyskusji – sieje zamęt i utrudnia wypracowanie sensownych kompromisów. I to widać po końcowym efekcie negocjacji.

Wiele tych emocji było związanych ze stanowiskami Niemiec, Francji i Włoch, czyli krajów, które przeciwstawiały się regulacjom dotyczącym modeli podstawowych, takich jak GPT, Google Bard. Dlaczego było to tak ważne? 

To jest pytanie do analityków, którzy rozumieją co się gospodarczo i politycznie dzieje w tych krajach. . Może ich ośrodki badawcze właśnie pracują nad konkurencyjnymi LLM-ami (dużymi modelami językowymi – przy. red) i nie chcą sobie dokładać komplikacji na ostatniej prostej? A może tym rządom politycznie się opłaca mówić głośno, że nie wspierają regulowania modeli podstawowych, bo coś akurat negocjują z dużymi firmami technologicznymi? Trudno mi powiedzieć.

Ostatecznie w piątek około północy ogłoszono porozumienie. Także w sprawie, w której oponowały Niemcy, Francja i Włochy. Co ustalono?

Ostatecznie regulacja obejmie twórców i dostawców modeli podstawowych, takich jak GPT i Bard. Będą musieli w przejrzysty sposób opisywać swoje modele, zarządzać ryzykiem, zadbać, o jakość i zgodność z prawem baz danych treningowych, a na koniec udostępniać dokumentację techniczną tym, którzy ich modele wykorzystują do tworzenia własnych systemów. Te obowiązki są sensowne i proporcjonalnie rozłożone: będą minimalne dla twórców i dostawców niewielkich modeli, a większe dla liderów rynku, takich jak Microsoft czy OpenAI.

Na ostatniej prostej zostało dopuszczone użycie AI do zdalnego rozpoznawania twarzy przez policję miejscach publicznych, pod pewnymi warunkami, ale jednak. Wizja biometrycznego nadzoru "jak z Orwella" wzbudzała wielkie kontrowersje w pracach nad AI Act. A czy są jakieś dobre wiadomości? Jakie zabezpieczenia przed nadużywaniem technologii nadzorczych udało się ocalić?

W uzgodnionej wersji AI Act jest kilka rozwiązań, o które organizacje społeczne walczyły od początku prac i z tego wyniku jesteśmy zadowoleni. Według przecieków ostał się  obowiązek przeprowadzania oceny wpływu na prawa człowieka dla systemów z kategorii wysokiego ryzyka. Taka ocena ryzyka będzie przeprowadzana przed wdrożeniem systemu. W ten sposób Unia Europejska chce zapobiegać szkodom, jakie może powodować źle zaprojektowana albo źle wykorzystana sztuczna inteligencja, a nie czekać aż mleko się wyleje.

Tego nie było w pierwotnej wersji Komisji, która postawiła na zadbanie o jakość i niezawodność systemów AI, a nie ich bezpieczeństwo w takim szeroko pojętym sensie szkód społecznych. Tymczasem nawet jeżeli narzędzie działa matematycznie poprawnie i spełnia wyśrubowane standardy techniczne, nadal może powodować szkody – na przykład jeśli ma źle postawiony cel albo jest wykorzystane w dyskryminujący sposób. Takie zagrożenie mają wyłapać właśnie obowiązkowe oceny ryzyka.. 

Doszło też prawo do skargi, którego na początku nie było.

Tak, zgodnie z którym człowiek, który doświadcza krzywdy albo dyskryminacji za sprawą systemu wykorzystującego AI, będzie mógł się na takie działanie systemu poskarżyć. Jeszcze istotniejsze  jest to, że pojawi się mechanizm zbiorowego dochodzenia takich roszczeń składać  – a więc organizacje społeczne będą mogły wnosić skargi w imieniu wielu pokrzywdzonych osób. To ma ogromne znaczenie, bo systemy AI, jeśli już działają źle, powodują krzywdę wielu osób, a nie jednego pechowego klienta. Dzieje się tak dlatego, że podstawą działania sztucznej inteligencji jest statystyka i wynikające z niej wzorce zachowań. 

Jednak są także przepisy istotne z perspektywy obywatelskiej, których wprowadzić się nie udało. 

Spodziewamy się, że przede wszystkim zakazy najbardziej ryzykownych zastosowań AI zostały osłabione i rozwodnione, tak że łatwo je będzie obejść. Muszę jednak podkreślić, że bazujemy na przeciekach, nieoficjalnych fragmentach i interpretacjach tekstu, jakie negocjujący wrzucali na Twittera albo ujawnili w swoich komentarzach dla mediów.

Jedno z tych  ograniczeń dotyczy wykorzystywania przez policję nadzoru biometrycznego opartego na sztucznej inteligencji. AI Act dopuszcza wykorzystywanie takich systemów w czasie rzeczywistym tylko pod warunkiem zgody sądu i tylko w związku ze ściganiem poważnych przestępstw. 

Tak. Zakazano także scoring społeczny, który jest powszechnie kojarzony z Chinami. Chodzi o przyznawanie  obywatelom indywidualnych ocen, czyli punktacji odzwierciedlającej  ich wiarygodność albo ryzyko z punktu widzenia państwa. Odbieram ten zakaz jako rodzaj deklaracji ideowej: my tu w Europie jeszcze wierzymy w prawo ludzi do popełniania błędów i nie zgadzamy się na takie profilowanie,  które przesądza o szansach na lepsze życie w przyszłości. 

Czyli historia z filmu "Raport mniejszości", w którym Tom Cruise jako główny bohater zostaje oskarżony przez przewidujące przyszłość jasnowidzki o morderstwo, do którego jeszcze nie doszło, nie okaże się rzeczywistością?

To, że nasze prawo na taki scenariusz nie pozwala, to już dobra wiadomość, ale jeszcze nie antidotum na nadużywanie władzy i narzędzi technologicznych. Przykład Pegasusa pokazał dosadnie, że samo prawo nie powstrzyma służb, jeśli kultura polityczna i dostępne narzędzia pozwalają im brutalnie ingerować w prywatność. Dlatego równie ważne  są instytucje, takie jak niezależne i sprawne sądy.

Ważny jest też ogólny stan demokracji – czy jest stabilna, czy potrafi się obronić przed populizmem, czy urzędnicy nie są skorumpowani. Żadne prawo nie działa w próżni, więc to, że mamy dobre zasady na papierze, to dopiero początek walki. 

Diabeł będzie tkwił w szczegółach. Kiedy zobaczymy pełną wersję AI Actu?

Myślę, że to jest kwestia miesiąca. 

Czy jest jeszcze szansa na poprawki?

Techniczne – tak. Teraz jest czas przelewania na papier ustaleń z negocjacji i szczegółowe formułowanie przepisów.  A więc jakieś kwestie techniczne można jeszcze poprawić, podciągnąć. Ale to nie będą duże zmiany. Parlament Europejski, decydując ostatecznie czy przyjmie tę wersję AI Act, będzie głosował zerojedynkowo: za albo przeciw. Czyli na wprowadzenie nowego zakazu już nie ma szans. 

Media na całym świecie rozpisują się, że Europa stała się pierwszym na świecie kontynentem, który wprowadził regulacji sztucznej inteligencji. Mamy powód do dumy?

Z pewnością możemy być dumni, że Unia Europejska przeprowadziła tak trudny politycznie projekt i postawiła na rozwijanie sztucznej inteligencji w zgodzie z wartościami innymi niż krótkofalowy, komercyjny zysk. Nadal jednak uważam, że różne nieszczelności w AI Act, jeśli chodzi o ochronę ludzi, będą się mścić i wymagać od nas – organizacji społecznych – jeszcze wiele pracy.