Nowe regulacje dotyczące sztucznej inteligencji. Znamy przełomowe porozumienie
Parlament Europejski ustalił nowe regulacje dotyczące sztucznej inteligencji, które staną się elementem AI Aktu, czyli kluczowej ustawy dla przyszłości technologii w Europie. Rozporządzenie ma na celu ochronę praw podstawowych, demokracji, praworządności i środowiska naturalnego przed sztuczną inteligencją wysokiego ryzyka.
13 lutego Komisja Rynku Wewnętrznego i Wolności Obywatelskich większością głosów 71 do 8 (7 wstrzymujących się) zatwierdziła wynik negocjacji z państwami członkowskimi w sprawie ustawy o sztucznej inteligencji.
Porozumienie zakazuje niektórych zastosowań sztucznej inteligencji zagrażających prawom obywateli, w tym systemów kategoryzacji biometrycznej w oparciu o wrażliwe cechy, pobierania wizerunków twarzy z Internetu lub nagrań z telewizji przemysłowej do baz danych. Zakazuje się także systemów rozpoznawania emocji w miejscu pracy i szkołach, systemów punktacji społecznej. Także policja i inne organy ścigania nie będą mogły korzystać z wymienionych systemów do profilowania potencjalnych przestępców.
Wskazane rozwiązania AI – oparte o cechy biometryczne – uznawane są za te "wysokiego ryzyka".
Są jednak wyjątki. Stosowanie systemów identyfikacji biometrycznej przez organy ścigania jest co do zasady zabronione, z wyjątkiem wyczerpująco wymienionych i wąsko zdefiniowanych sytuacji. Systemy te można wdrożyć czasie rzeczywistym wyłącznie pod ścisłymi zabezpieczeniami za uprzednim zezwoleniem sądowym lub administracyjnym. Takie zastosowania obejmują na przykład poszukiwanie zaginionej osoby lub zapobieganie atakowi terrorystycznemu. Korzystanie z takich systemów po fakcie uważane jest za obarczone wysokim ryzykiem i również wymaga zezwolenia sądu (a ten musi wskazać, że wykorzystanie jest powiązane z przestępstwem).
Uzgodniono także jasne obowiązki w odniesieniu do innych systemów sztucznej inteligencji wysokiego ryzyka, które mogą znacząco wpłynąć na zdrowie, bezpieczeństwo, prawa podstawowe, środowisko, demokrację i praworządność.
Bez AI w wyborach
Zakazane będzie także zastosowanie AI wysokiego ryzyka w infrastrukturze krytycznej, kształceniu i szkoleniu zawodowym, zatrudnieniu, usługach podstawowych (np. opiece zdrowotnej, bankowości), niektórych systemach egzekwowania prawa, zarządzaniu migracjami i granicami, wymiaru sprawiedliwości i procesach demokratycznych (np. wpływanie na wybory).
Obywatele będą mieli prawo do składania skarg dotyczących systemów sztucznej inteligencji i otrzymywania wyjaśnień w sprawie decyzji opartych na systemach sztucznej inteligencji wysokiego ryzyka mających wpływ na ich prawa.
Systemy sztucznej inteligencji ogólnego przeznaczenia (GPAI) oraz modele, na których są oparte, podczas szkolenia muszą spełniać określone wymogi w zakresie przejrzystości i być zgodne z unijnym prawem autorskim. Potężniejsze modele GPAI, które mogą stwarzać ryzyko systemowe, staną przed dodatkowymi wymogami, w tym dotyczącymi oceny modeli, oceny ryzyka i raportowania incydentów.
Treści stworzone przez AI muszą być oznaczone
Ponadto sztuczne lub zmanipulowane obrazy, treści audio lub wideo muszą być wyraźnie oznaczone jako takie. Brak oznaczenia treści wygenerowanych przez AI będzie skutkował karami, których wysokość będzie ustalana każdorazowo.
Warto dodać także, że na poziomie krajowym zostaną utworzone piaskownice regulacyjne i testy w warunkach rzeczywistych, oferując MŚP i start-upom możliwości rozwijania i szkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem jej na rynek.
Poprosiliśmy o komentarz z rynku do regulacji.
– AI będzie odgrywać istotną rolę w strategiach organizacji w ciągu najbliższych 3-5 lat. Popularność sztucznej inteligencji rodzi pytania o etyczne aspekty jej wykorzystania. Odpowiedzialność za ewentualne błędy AI, polegające np. na dyskryminacji użytkowników, którzy posiadają dany zestaw cech, powinna być jednoznacznie określona. To z pewnością będzie wymagało doprecyzowania, w jakich sytuacjach leży ona po stronie producenta danego rozwiązania, a w jakich organizacji, która je wykorzystuje – wyjaśnia Estera Haas-Abgarowicz, Head of Product Management Team w pionie Business Intelligence, Asseco Poland.
W opinii ekspertki skala wdrożeń rozwiązań z zakresu sztucznej inteligencji i wartość biznesowa, jaką pozwala wygenerować sprawiają, że ta technologia istotnie wpływa na globalną gospodarkę, a jej udział będzie wzrastać.
Tekst AI Act oczekuje teraz na formalne przyjęcie przez Parlament Europejski na nadchodzącej sesji plenarnej i ostateczne zatwierdzenie przez Radę. W pełni zacznie obowiązywać 24 miesiące po wejściu w życie, poza wyszczególnionymi wyjątkami.