Historyczny dzień. Unia Europejska rozpoczyna budowę prawa o sztucznej inteligencji
Europejskie Komisje ds. Rynku Wewnętrznego i Wolności Obywatelskich spotkają się dziś w Parlamencie Europejskim, by przedstawić swoje wizje Aktu o sztucznej inteligencji. Tym samym rozpocznie się budowa podwalin prawa, które będzie regulowało klasyfikację i sposób postępowania ze sztuczną inteligencją.
W kwietniu minionego roku Komisja Europejska opublikowała zestaw propozycji, które miałyby być wykorzystane przy okazji wprowadzania prawnych regulacji ds. sztucznej inteligencji. Zdaniem KE, prawo powinno zadbać, by systemy SI były bezpieczne i nie łamały obowiązujących już w Europie praw, by podmioty inwestujące w SI były motywowane jasnością i klarownością systemu prawnego, by istniały narzędzia do prawnej interwencji w razie naruszenia przez SI europejskiego prawa i by możliwym było utworzenie pojedynczego, europejskiego rynku dla aplikacji SI.
Czytaj też:
Urzędnicy i specjaliści na podstawie powyższych wytycznych wzięli się do pracy. Rozpoczęli budowę konstruktu, który umożliwi przedstawicielom państw członkowskich wspólne budowanie prawa związanego ze sztuczną inteligencją. Rozpoczęto od samego jej zdefiniowania i ostatecznie zdecydowano, że to jest oprogramowanie potrafiące osiągnąć wyznaczone przez ludzi cele przez zapewnianie treści, przewidywań, rekomendacji czy decyzji związanych ze środowiskiem, z którym wchodzą w interakcję.
Krok 2: czym jest europejskie prawo o sztucznej inteligencji?
Gdy już zdefiniowano przedmiot budowanego prawa, przyszedł czas na określenie jego celu. A więc kogo dotyczy i jakie problemy rozwiązuje, czyli jaki jest jego cel. Ustalono, że akt będzie dotyczyć dostawców rozwiązań SI działających na terenie Unii Europejskiej i użytkowników tych rozwiązań. Nie będzie dotyczyć systemów wojskowych, systemów SI działających w wyniku wcześniejszych międzynarodowych porozumień i tego, co opisze akt o usługach cyfrowych (DSA - unijna dyrektywa o handlu elektronicznym w zakresie nielegalnych treści, przejrzystej reklamy i dezinformacji).
Następnie opisano problem, jaki akt ma rozwiązywać. A więc ochronę przed potencjalnym zagrożeniem związanym z systemami sztucznej inteligencji. Ustalono, że systemy te będą podlegać klasyfikacji bazującej na ryzyku.
- SI z niedopuszczalnym ryzykiem to systemy SI, które stanowią jasne zagrożenie dla bezpieczeństwa ludzi, ich źródeł utrzymania i praw. Do tej grupy zaliczyć można systemy czy aplikacje, które manipulują ludzkim zachowaniem i wolną wolą, jak na przykład zabawki namawiające młodocianych do niebezpiecznej zabawy czy systemy gamifikacji życia obywatelskiego.
- SI wysokiego ryzyka to taka, która jest wykorzystywana w:
- Elementach infrastruktury krytycznej, nadzorując systemy od których zależą zdrowie i życie obywateli;
- Systemach edukacyjnych lub kształcenia zawodowego, gdzie decyduje o dostępie do edukacji i przyszłej karierze obywateli (np. oprogramowanie do zliczania punktów na testach);
- Systemach bezpieczeństwa (np. systemy SI chroniące przed niewłaściwym użytkiem robotyczne narzędzia chirurgiczne);
- Systemach zatrudnienia, nadzoru pracy i samozatrudnienia (np. oprogramowanie do przetwarzania odpowiedzi na ogłoszenia o pracę)
- Systemach prawnych, gdzie może wpłynąć na naruszanie praw człowieka.
- SI wysokiego ryzyka musi:
- Zawierać odpowiednie mechanizmy oceny i ograniczania ryzyka;
- Być trenowana przez zestawy danych wysokiej jakości, by minimalizować ryzyko i możliwości dyskryminacji;
- Prowadzić dziennik swojej wszelkiej aktywności;
- Być dobrze udokumentowana technicznie;
- Zapewniać użytkownikowi jasne i wystarczające informacje;
- Być nadzorowana przez człowieka;
- Wykorzystywać zabezpieczenia wysokiej klasy.
- SI ograniczonego ryzyka to systemy SI, od których się wymaga transparentności. Użytkownik musi być informowany, że wchodzi w interakcję z systemem SI, a nie inną ludzką osobą
- SI minimalnego ryzyka to wszystkie pozostałe systemy sztucznej inteligencji, takie jak te odpowiadające za zachowanie przeciwników w grach wideo czy filtry sortujące pocztę elektroniczną. Te nie będą podlegać aktowi, bo nie stwarzają zagrożenia dla obywateli UE.
Kary za naruszanie formułowanego prawa miałyby być wysokie. Najwyższa, za jego bezpośrednie naruszenie, to 30 mln euro lub ekwiwalent 6-procentowego obrotu rocznego (wybierana jest ta wyższa kwota).
Krok 3, a po nim krok 4: inauguracja prac nad europejskim prawem o sztucznej inteligencji.
Trzecim krokiem w budowaniu aktu było przedstawienie jej Europejskiemu Komitetowi Ekonomiczno-Społecznemu. Ten zarekomendował uściślenie definicji zakazanych dla SI działań, uzasadnienie kategoryzacji, opisanie skutków metod ograniczania SI wysokiego ryzyka oraz ocenę możliwości praktycznego wdrożenia aktu w relacji do obowiązującego na terenie UE prawa.
Dodatkowo Komitet zarekomendował, by wziąć pod uwagę, że wybrane decyzje ludzkie zawsze muszą mieć wyższość nad tymi podjętymi przez SI, szczególnie gdy dotyczą problemów moralnych, prawnych czy społecznych. By ocenę zagrożeń związanych z SI wysokiego ryzyka zawsze podejmował podmiot zewnętrzny. Oraz by był przewidziany system przyjmowania informacji i skarg od obywateli i organizacji poszkodowanych przez działanie systemów SI.
Oprócz tego, przedstawiciele Polski i Czech zwrócili uwagę na potencjalne zagrożenia, jakie są związane z wykorzystaniem SI do systemów wykorzystujących zabezpieczenia biometryczne wykorzystywane w publicznych przestrzeniach i wezwali do przewidzenia dodatkowych obostrzeń w kwestii dostępu do tych informacji.
Dziś zostanie podjęty krok czwarty, a więc wspólne posiedzenie komisji w europarlamencie, co zarazem stanowi formalny początek prac nad wprowadzeniem nowego prawa. Gdy to zostanie już sformułowane i ustanowione, teoretycznie będzie chronić obywateli przed potencjalnymi zagrożeniami ze strony działania narzędzi opartych o SI. Czy tak będzie również i w praktyce okaże się najwcześniej po poznaniu końcowej wersji omawianego aktu.