Idziesz do lekarza, a tam bot. Polski rząd szykuje ustawę, która będzie chronić obywateli przed AI
Dziś rozpoczęły się konsultacje społeczne w sprawie pierwszej ustawy regulującej obszar sztucznej inteligencji. Nowe prawo ma nie tylko trzymać na uwięzi firmy i koncerny technologiczne, ale i dać przeciętnemu Kowalskiemu narzędzie do walki o swoje prawa w obliczu AI.
16 października w Rządowym Centrum Legislacji pojawił się projekt ustawy o systemach sztucznej inteligencji. Ustawa nie jest całkowicie oryginalnym pomysłem polskiego rządu, lecz instrumentem prawnym wprowadzającym ogłoszone przez Parlament Europejski w lipcu Rozporządzenie o sztucznej inteligencji (AI Act).
Z tego artykułu dowiesz się:
Projekt ustawy o systemach sztucznej inteligencji już na stronie Rządowego Centrum Legislacji. Oto co szykuje nam rząd
Jak informuje Ministerstwo Cyfryzacji, nowa ustawa ma wspierać "innowacje i zrównoważony rozwój sztucznej inteligencji".
Jej celem jest stworzenie przepisów, które z jednej strony pozwolą na rozwój AI, a z drugiej zapewnią bezpieczeństwo oraz ochronę praw obywatelek i obywateli.
Czytamy w informacji Ministerstwa Cyfryzacji
Resort Krzysztofa Gawkowskiego w treści projektu ustawy zaproponował kilkanaście rozwiązań pozwalających na regulację rozwoju i zastosowania systemów sztucznej inteligencji. Najważniejszym z nich ma być powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji - nowego, kolegialnego organu, który będzie "monitorować rynek i wspierać przedsiębiorców". Komisja będzie organem nadzoru rynku zgodnie z rozporządzeniem AI Act, jednak według Dariusza Standerskiego, sekretarza stanu w Ministerstwie Cyfryzacji, Komisja "nie będzie ograniczać się do sztywnych regulacji ustawowych".
Planujemy przyznać jej [Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji] kompetencje do wydawania interpretacji generalnych i indywidualnych. Ponieważ kolejne systemy i funkcjonalności będą interpretowane w ramach rozporządzenia, nie chcemy, by każda z nich wymagała nowej ustawy. Dlatego wzorem administracji skarbowej komisja zyska możliwość wydawania interpretacji w zakresie ważnych zmian technologicznych, jeśli chodzi o AI.
Powiedział Standerski w wypowiedzi dla Rzeczpospolitej
Przewodniczącego Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji na pięcioletnią kadencję powoła premier "w drodze otwartego i konkurencyjnego naboru". Jak przekazał Standerski, hipotetyczny przewodniczący "będzie musiał, poza ogólnymi warunkami, posiadać szczególny dorobek i wyróżniać się wiedzą z zakresu sztucznej inteligencji lub prawa, doświadczenie zawodowe zdobyte w czasie pracy naukowej, w obszarze cyberbezpieczeństwa lub informatyki ogólnej i trzyletni staż pracy na stanowiskach kierowniczych". W skład komisji ma wchodzić przewodniczący komisji, dwóch zastępców oraz dziewięciu członków.
Jednocześnie w samej treści ustawy o systemach sztucznej inteligencji możemy przeczytać, że "członek Rady jest obowiązany do zachowania w tajemnicy informacji, do których uzyskał dostęp w związku z wykonywaniem funkcji członka Rady". Członkowie rady nie mogą "prowadzić działalności publicznej niedającej się pogodzić z działalnością w Radzie" ani "wykonywać działań, które mogłyby skutkować konfliktem interesów". Tak więc w skład Komisji nie będą mogli wchodzić przedstawiciele firm i koncernów technologicznych, których działalność związana z rozwojem sztucznej inteligencji może kolidować z interesami Komisji.
Organem opiniodawczym w przypadku wdrażania nowych technologii AI ma być Rada Społeczna złożona z przedstawicielek i przedstawicieli organizacji pozarządowych, związków zawodowych oraz przedsiębiorców, która ma "współkształtować politykę AI w Polsce oraz zapewniać szeroki udział w tym procesie".
Jednocześnie ustawa o systemach sztucznej inteligencji zakłada, że Minister Cyfryzacji będzie wydawać "rekomendacje najlepszych praktyk w wykorzystaniu AI" i do 31 marca każdego roku "przekazuje Radzie Ministrów oraz Komisji informację na temat wymaganych zasobów obliczeniowych do dalszego rozwoju systemów sztucznej inteligencji i prognozowanego zużycia energii z tego tytułu".
Nie tylko Komisja. Minister Cyfryzacji będzie przekazywał rekomendacje, a Polacy skargi
Co więcej, ustawa o systemach sztucznej inteligencji - tak jak AI Act - ma pomóc w "upowszechnieniu stosowania systemów AI, w tym systemów wysokiego ryzyka", czyli zapewnić "szeroki dostęp do technologii AI z uwzględnieniem bezpieczeństwa użytkowników". Jednym z narzędzi zapewniającym bezpieczny rozwój systemów wysokiego ryzyka mają być "piaskownice regulacyjne", czyli przestrzenie prawne, w ramach których grupa kilka wzajemnie oddziałujących na siebie podmiotów rozwijana dany projekt.
Piaskownice zapewnią możliwości rozwoju nowych technologii bez ryzykowania odpowiedzialnością prawną. Dopiero gdy projekt zostanie dopięty i sprawdzony pod kątem ekonomiczności i bezpieczeństwa, będzie mógł on opuścić piaskownicę i działać w ramach normalnych norm prawnych. Jednocześnie piaskownice regulacyjne mają pojawić się dopiero później, bo AI Act przewiduje wprowadzenie w życie piaskownic prawnych dopiero w 2026 roku.
Z perspektywy przeciętnego Polaka najważniejszą zmianą, jaką ma wprowadzić ustawa o systemach sztucznej inteligencji to możliwość złożenia skargi na systemy AI i ich operatorów przez każdą "osobę fizyczną, osobę prawną albo jednostkę organizacyjną nieposiadającą osobości prawnej".
Jeśli ktoś, poczuje się dyskryminowany przez taki system u lekarza, w pracy, w komunikacji miejskiej, będzie mógł złożyć skargę. Komisja będzie te skargi rozpatrywać i sprawdzać, czy rzeczywiście nie doszło do złamania przepisów w tych systemach wysokiego ryzyka
Powiedział Dariusz Standerski
W skardze należy zawrzeć nazwę, adres siedziby, adres poczty elektronicznej lub numer telefonu dostawcy systemu sztucznej inteligencji, wyjaśnienie i opis istotnych faktów oraz powodów, dla których skarżący uważa, że doszło do naruszenia unijnego rozporządzenia oraz "inne informacje uznane przez skarżącego za istotne dla sprawy w tym, w stosownych przypadkach, informacje zebrane z własnej inicjatywy".
Skargi będą przyjmowane przede wszystkim w postaci elektronicznej, a Komisja będzie miała nie więcej niż 12 miesięcy na wszczęcie i rozstrzygnięcie postępowania. W roku postępowania Komisja będzie mogła zaangażować inne - zależne od specyfiki skargi - organy takie jak Komisję Nadzoru Finansowego, Urząd Ochrony Danych Osobowych, Urząd Ochrony Konkurencji i Konsumentów, Pełnomocnika Rządu do Spraw Cyberbezpieczeństwa oraz Zespoły Reagowania na Incydenty Bezpieczeństwa Komputerowego: CSIRT GOV, CSIRT MON i CSIRT NASK.
Ustawa o systemach sztucznej inteligencji - kiedy?
Obecnie projekt ustawy o systemach sztucznej inteligencji od dziś jest na etapie opiniowania - konsultacji społecznych, podczas których każdy obywatel Polski. Po nim projekt czeka podróż przez pięć Komitetów Rady Ministrów, Komisję Prawniczą, Notyfikacja i później skierowanie projektu ustawy do sejmu.
Europejski AI Act wszedł w życie 2 sierpnia 2024 roku, lecz jego regulacje będą stosowane od 2 sierpnia 2026 roku. Od 2 lutego 2025 kraje członkowskie obowiązane są stosować przepisy dotyczące tzw. praktyk zakazanych, czyli np. scoringu społecznego czy analizy emocji w miejscu pracy. Po 12 miesiącach, tj. od 2 sierpnia 2025 roku w życie wejdą przepisy o organach nadzorujących przestrzeganie AI Act - w przypadku Polski Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji.
Dostawcy i operatorzy systemów sztucznej inteligencji mają trzy lata (2 sierpnia 2027 r.) na dostosowanie swoich technologii do wymogów unijnych nałożonych przez AI Act.
Może zainteresować cię także: