REKLAMA

Mówią, że Europa przegrywa z Chinami i USA przez regulacje. Jest wręcz przeciwnie

Entuzjaści rynku IT i pewna część branżowych autorytetów czują się zaniepokojeni sukcesami Stanów Zjednoczonych i Chin w dziedzinie rozwoju sztucznej inteligencji, instynktownie winiąc za to rosnącą liczbę regulacji. Sęk w tym, że - dość kontrintuicyjnie – EU AI Act i NIS2 wręcz otwierają drogę cyfrowej przedsiębiorczości. Wystarczy dopytać ekspertów.

Unia Europejska AI
REKLAMA

Unijna ustawa o sztucznej inteligencji (EU AI Act) to przełomowe rozporządzenie Unii Europejskiej mające na celu uregulowanie rozwoju, wdrażania i użytkowania systemów sztucznej inteligencji na terenie UE. Jest to pierwszy na świecie kompleksowy zbiór przepisów dotyczących AI, który ma na celu stworzenie zaufanego i bezpiecznego środowiska dla rozwoju tej technologii w Europie.

REKLAMA

Głównymi celami Aktu są zapewnienie bezpiecznego i etycznego wykorzystania AI, ochrona praw podstawowych obywateli UE, wspieranie innowacji oraz ujednolicenie przepisów dotyczących AI w całej Unii. Dzięki temu przedsiębiorstwa działające w różnych krajach członkowskich będą miały jasne i spójne wytyczne, co ułatwi im funkcjonowanie na jednolitym rynku.

Czytaj też:

Cztery stopnie ryzyka AI

EU AI Act wprowadza system klasyfikacji ryzyka dla aplikacji AI, dzieląc je na cztery kategorie: niedopuszczalne ryzyko, wysokie ryzyko, ograniczone ryzyko oraz minimalne ryzyko. Systemy o niedopuszczalnym ryzyku, takie jak te wykorzystujące techniki manipulacji behawioralnej, są całkowicie zakazane. Celem jest ochrona społeczeństwa przed technologiami, które mogą naruszać prawa człowieka lub zagrażać bezpieczeństwu publicznemu.

Systemy AI o wysokim ryzyku obejmują te stosowane w kluczowych sektorach, takich jak opieka zdrowotna czy edukacja. Dla tych systemów akt nakłada szereg obowiązków, w tym konieczność rejestracji w unijnej bazie danych, przeprowadzania ocen ryzyka, zapewnienia nadzoru ludzkiego oraz utrzymania wysokich standardów dokumentacji i przejrzystości.

Kategoria ograniczonego ryzyka dotyczy systemów, które podlegają obowiązkom transparentności. Oznacza to, że użytkownicy powinni być informowani o tym, że mają do czynienia z systemem AI, co pozwala na świadome podejmowanie decyzji i zwiększa zaufanie do technologii. Systemy o minimalnym ryzyku, takie jak filtry antyspamowe, nie wymagają dodatkowych regulacji i mogą być swobodnie wykorzystywane bez dodatkowych obowiązków.

Harmonogram jest już gotowy

Akt przewiduje stopniowe wprowadzenie przepisów w życie. Po oficjalnym przyjęciu, pierwsze regulacje zaczną obowiązywać po określonym okresie przejściowym, dając przedsiębiorstwom czas na dostosowanie się do nowych wymogów. Wprowadzenie zasad dotyczących modeli AI ogólnego przeznaczenia oraz pełne stosowanie większości przepisów nastąpi w kolejnych etapach, co ma na celu zapewnienie płynnego przejścia i minimalizację zakłóceń w działalności gospodarczej.

Dla biznesu i sektora technologicznego EU AI Act ma ogromne znaczenie. Firmy rozwijające lub wykorzystujące AI będą musiały dostosować swoje praktyki do nowych regulacji, co może wiązać się z dodatkowymi kosztami i zmianami w procesach. Jednakże jasne i przewidywalne ramy prawne mogą zwiększyć zaufanie inwestorów i konsumentów, stymulując rozwój innowacji i konkurencyjności europejskiego sektora technologicznego.

Akt ma również na celu wspieranie innowacji poprzez promowanie odpowiedzialnego rozwoju AI. Ustanawiając wysokie standardy etyczne i techniczne Unia Europejska chce w ten sposób dążyć do stania się liderem w dziedzinie bezpiecznej i zaufanej sztucznej inteligencji. Wsparcie dla badań i rozwoju oraz ułatwienia dla małych i średnich przedsiębiorstw mają zachęcić do tworzenia nowych rozwiązań technologicznych.

Osobne regulacje dotyczą cyberbezpieczeństwa

Dyrektywa NIS2 to kolejny ważny krok Unii Europejskiej w kierunku wzmocnienia cyberbezpieczeństwa na terenie wspólnoty. Stanowi ona rozwinięcie poprzedniej dyrektywy NIS, poszerzając jej zakres i wprowadzając bardziej rygorystyczne wymogi dla kluczowych sektorów gospodarki. Jej głównym celem jest podniesienie poziomu ochrony przed cyberzagrożeniami w obszarach krytycznych dla funkcjonowania społeczeństwa i gospodarki.

Nowe regulacje rozszerzają listę podmiotów objętych obowiązkami dotyczącymi cyberbezpieczeństwa. Obejmują teraz więcej sektorów, takich jak energetyka, transport, bankowość czy ochrona zdrowia. Średnie i duże firmy działające w tych branżach będą zobowiązane do wdrożenia zaawansowanych środków zarządzania ryzykiem oraz regularnego raportowania incydentów.

Dyrektywa NIS2 nakłada również poważne konsekwencje finansowe za nieprzestrzeganie przepisów. Firmy, które nie spełnią nowych wymagań, mogą zostać ukarane grzywnami sięgającymi nawet 2 proc. ich rocznego obrotu. Państwa członkowskie UE miały czas do października 2024 r. na transpozycję dyrektywy do prawa krajowego.

Dyrektywa kładzie również nacisk na współpracę między państwami członkowskimi w zakresie wymiany informacji i najlepszych praktyk, co jest dość unikalne

 Usprawnienie komunikacji i koordynacji działań na poziomie unijnym ma kluczowe znaczenie dla skutecznego przeciwdziałania transgranicznym zagrożeniom cybernetycznym. Dla przedsiębiorstw wdrożenie dyrektywy NIS2 oznacza konieczność inwestycji w systemy bezpieczeństwa oraz szkolenia personelu. Chociaż może to wiązać się z dodatkowymi kosztami, długoterminowo przyczyni się do zwiększenia zaufania klientów i partnerów biznesowych.

Ponadto podniesienie poziomu cyberbezpieczeństwa może zapobiec potencjalnym stratom wynikającym z udanych ataków, co w efekcie wpłynie korzystnie na stabilność i rozwój firm. Wiodące firmy w swoich sektorach branży wydają się potwierdzać tę opinię.

- Firmy mogą postrzegać regulacje jako szansę na wyróżnienie się, wdrażając wyższe standardy etyczne i bezpieczeństwa. Inwestowanie w edukację specjalistów, którzy będą skutecznie współpracować z AI, to kluczowy krok. Dostosowanie się do regulacji może być przewagą konkurencyjną, szczególnie w budowie bardziej przejrzystych i bezpiecznych systemów. Jasne i transparentne praktyki wzmacniają nie tylko wewnętrzne procesy w firmach, lecz także korzystnie wpływają na szersze otoczenie społeczno-gospodarcze - mówi w rozmowie ze Spider’s Web dyrektor ds. technologii i założyciel Dynatrace, Bernd Greifeneder.

- Europa może zyskać przewagę, przyciągając międzynarodowe talenty do pracy i życia tutaj. Przekonanie wykwalifikowanych specjalistów do wyboru europejskiej lokalizacji oraz kształcenie kolejnych pokoleń w dziedzinach STEAM – nauce, technologii, inżynierii, sztuce oraz matematyce - może pomóc w utrzymaniu konkurencyjności na polu innowacji – jak dodaje.

Samo Dynatrace to działające globalnie przedsiębiorstwo dostarczająca platformę obserwowalności oprogramowania opartą na sztucznej inteligencji i automatyzacji. Łączy szczegółową obserwację, AIOps i bezpieczeństwo aplikacji w jednej otwartej, ujednoliconej platformie.

Tak pięknym językiem rozpisane polityczne teorie w dzisiejszych czasach brzmią coraz mniej wiarygodnie. Tyle że po stronie regulacji AI stają również fachowcy

Eksperci z Banku Rozrachunków Międzynarodowych (BIS) przewidują, że przepisy dotyczące tzw. piaskownic regulacyjnych (regulatory sandboxes) mogą znacząco zwiększyć innowacyjność wśród startupów. Dzięki zmniejszeniu barier wejścia na rynek i obniżeniu kosztów regulacyjnych młode firmy mogą łatwiej testować i wdrażać nowe rozwiązania technologiczne.

Piaskownice regulacyjne zostały wprowadzone przez Unijną ustawę o sztucznej inteligencji (EU AI Act) w celu wspierania innowacji w dziedzinie AI. Pozwalają one na testowanie innowacyjnych rozwiązań w kontrolowanym środowisku przed ich pełnym wdrożeniem na rynek. Dla startupów oznacza to możliwość eksperymentowania z nowymi technologiami bez obaw o natychmiastowe konsekwencje prawne czy finansowe, co sprzyja kreatywności i tworzeniu przełomowych produktów.

Przykłady z sektora fintech pokazują jak piaskownice regulacyjne przyczyniły się do rozwoju nowatorskich rozwiązań, takich jak technologie blockchain, usługi biometryczne czy zautomatyzowane doradztwo finansowe. Dzięki współpracy z regulatorami firmy te mogły lepiej dostosować swoje produkty do wymogów prawnych, jednocześnie wpływając na kształtowanie bardziej elastycznych i dopasowanych przepisów.

Równocześnie nowe wymogi w zakresie cyberbezpieczeństwa znacząco wpływają na rynek pracy. Według raportu Europejskiej Agencji ds. Bezpieczeństwa Sieci i Informacji (ENISA) do 2025 roku zapotrzebowanie na specjalistów w tej dziedzinie wzrośnie o 30 proc.. Tendencja ta odzwierciedla rosnące znaczenie ochrony danych i systemów w dobie cyfryzacji oraz coraz częstszych zagrożeń w cyberprzestrzeni.

Mimo że liczba absolwentów kierunków związanych z cyberbezpieczeństwem wzrosła o 25 proc. w ciągu ostatnich dwóch lat, osiągając około 3100 osób rocznie, nadal istnieje znaczący niedobór wykwalifikowanych specjalistów. Szacuje się, że w Europie brakuje około 300 tys. ekspertów w tej dziedzinie. Na polskim rynku pracy sytuacja jest podobna – doświadczeni inżynierowie ds. cyberbezpieczeństwa mogą obecnie oczekiwać wynagrodzenia sięgającego nawet 240 zł za godzinę, co podkreśla wysokie zapotrzebowanie na ich umiejętności.

- Profesjonaliści z tych dziedzin muszą łączyć zaawansowane umiejętności techniczne z dogłębną znajomością regulacji i etyki. Kluczowe kompetencje to projektowanie przejrzystych algorytmów, zarządzanie ryzykiem oraz korzystanie z technologii takich jak „explainable AI”. W miarę rozwoju sztucznej inteligencji deweloperzy będą musieli przyjąć rolę „AI pair programmer” - nie traktować AI wyłącznie jako narzędzia, lecz jako równorzędnego partnera zdolnego do generowania zaawansowanego kodu - mówi nam dyrektor Dynatrace.

Te trendy niosą ze sobą istotne implikacje

Po pierwsze, "piaskownice regulacyjne" mają potencjał przyspieszenia rozwoju innowacyjnych rozwiązań AI w kluczowych sektorach, takich jak ochrona zdrowia czy transport autonomiczny. Startupy mogą skorzystać z niższych barier regulacyjnych i rosnącego zainteresowania inwestorów technologiami przyszłości. Po drugie, deficyt specjalistów ds. cyberbezpieczeństwa wymaga intensywnych działań w zakresie edukacji i szkoleń. ENISA podkreśla konieczność inwestowania w przekwalifikowanie i podnoszenie kwalifikacji pracowników, aby sprostać rosnącym wymaganiom rynku.

Dla firm, zwłaszcza małych i średnich przedsiębiorstw, niedobór wykwalifikowanej kadry stanowi poważne wyzwanie. Może to prowadzić do wzrostu kosztów zatrudnienia oraz trudności w realizacji projektów wymagających zaawansowanej wiedzy z zakresu cyberbezpieczeństwa. Z drugiej strony rosnący popyt na te usługi otwiera nowe możliwości biznesowe dla startupów i firm oferujących rozwiązania w tym obszarze.

- Regulacje to kluczowy krok w porządkowaniu rynku. Wprowadzenie globalnych standardów mogłoby zmniejszyć fragmentację przepisów między krajami, ułatwiając działalność międzynarodowym organizacjom. Niezwykle ważne jest, aby ustawodawcy i przedstawiciele branży rozumieli, że nie każda sztuczna inteligencja jest taka sama. Niektóre typy, jak generatywna AI oparta na podejściach niedeterministycznych, wiążą się z większym ryzykiem w porównaniu ze sprawdzonymi modelami przyczynowymi lub deterministycznymi. Firmy powinny klasyfikować AI w oparciu o własne kryteria ryzyka, uwzględniając przejrzystość, proces podejmowania decyzji, kontrolę dostępu oraz źródła danych wykorzystywanych w decyzjach - jak twierdzi dyrektor Greifeneder.

Dodaje też, że Dynatrace postrzega te regulacje jako naturalne rozszerzenie istniejących standardów i procesów które i tak wiodąca w swojej branży firma musi wdrażać. - Zamiast postrzegać zgodność jako okresową kontrolę czy jednorazowy projekt, wdrażamy ją jako stały element cyklu życia oprogramowania - twierdzi dyrektor Greifeneder, dodając, że oprócz EU AI Act i NIS2 jego firma uwzględnia też Digital Operational Resilience Act (DORA) oraz inne globalne regulacje zapewniające odporność operacyjną.

Przegrywamy ze Stanami Zjednoczonymi i Chinami, to nie podlega dyskusji. Zmiany wydają się jednak nadawać Europie właściwy kurs

Choć UE zajmuje trzecie miejsce w globalnym rankingu rozwoju AI, dystans do liderów jest znaczący. Mimo to bieżące regulacje nie stanowią przeszkody, lecz solidną podstawę dla wzmocnienia pozycji Europy w tym sektorze. Jednym z kluczowych atutów Unii jest właśnie jej pionierskie podejście do regulacji i etyki w obszarze AI.

EU AI Act - kompleksowe ramy prawne dla sztucznej inteligencji - mogą stać się globalnym standardem, promując bezpieczne i odpowiedzialne wykorzystanie technologii. To nie tylko chroni prawa obywateli, ale także buduje zaufanie do europejskich rozwiązań technologicznych, co w dłuższej perspektywie może przynieść przewagę konkurencyjną.

Europa dysponuje również ogromnym potencjałem talentów w dziedzinie AI. Liczne uniwersytety i instytuty badawcze kształcą wybitnych specjalistów, którzy są cenieni na całym świecie. Wyzwanie polega jednak na zatrzymaniu tych talentów oraz skutecznej komercjalizacji badań. Inicjatywy takie jak regulatory sandboxes mogą znacząco zwiększyć innowacyjność startupów, umożliwiając im testowanie nowych rozwiązań w kontrolowanym środowisku i redukując bariery wejścia na rynek.

Mimo tych mocnych stron, niewątpliwie Unia boryka się z pewnymi słabościami. Fragmentacja rynku wynikająca z różnorodności regulacji w poszczególnych krajach członkowskich utrudnia skalowanie rozwiązań AI na poziomie całej Europy. Dodatkowo niedofinansowanie sektora AI sprawia, że inwestycje w tej dziedzinie są znacznie mniejsze w porównaniu z Stanami Zjednoczonymi czy Chinami. Brak gigantów technologicznych o zasięgu globalnym oznacza, że europejskie firmy często muszą konkurować z lepiej wyposażonymi rywalami.

Tym bardziej wynika z tego, że EU AI Act i NIS2 nie są zagrożeniem dla rozwoju AI w Europie. Wręcz przeciwnie, oferują one jasne i spójne ramy prawne, które mogą sprzyjać długoterminowym inwestycjom i innowacjom. Precyzyjne regulacje zwiększają bezpieczeństwo prawne dla firm, co zachęca je do angażowania się w rozwój nowych technologii. Ponadto, nacisk na etykę i odpowiedzialność może przyciągnąć klientów i partnerów biznesowych poszukujących zaufanych rozwiązań.

REKLAMA

Szanse dla Unii Europejskiej leżą w specjalizacji oraz współpracy międzynarodowej. Skupienie się na konkretnych niszach, takich jak zastosowanie AI w opiece zdrowotnej czy przemyśle, może pozwolić Europie wypracować unikalne przewagi. Dodatkowo ściślejsza współpraca transatlantycka ze Stanami Zjednoczonymi otwiera możliwości wspólnego konkurowania z Chinami oraz wymiany wiedzy i technologii.

Warto również podkreślić, że podejście oparte na wartościach, które kładzie nacisk na etyczne i odpowiedzialne wykorzystanie AI, może być długoterminowym atutem Europy. W świecie, gdzie zaufanie do technologii odgrywa coraz większą rolę, Unia może stać się liderem w promowaniu transparentnych i bezpiecznych rozwiązań. A jeśli i to zawiedzie - rynkowy popyt nieraz już przybierał zaskakujące kierunki - to i tak Europa ma nadal wiele unikalnych atutów by rywalizować z pozostałymi mocarstwami na nowoczesne technologie i AI. Wręcz niemądrym wydaje się ich porzucenie.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA