REKLAMA

Regulacje prawne dla sztucznej inteligencji. A może wróćmy do praw Asimowa?

Toczy się dyskusja o tym, jak regulować kwestie związane ze sztuczną inteligencją. Prawnicy, politycy i przedstawiciele biznesu czują, że istniejące prawodawstwo nie nadąża za postępem technologicznym, jakiego doświadczamy. Pod względem prawnym i ustawowym nie jest on należycie „obsługiwany”. Czy sztuczną inteligencję da się sprawnie regulować i czy tego potrzebujemy?

Regulacje prawne dla sztucznej inteligencji. A może wróćmy do praw Asimowa?
REKLAMA
REKLAMA

Nie tylko trudno nam zrozumieć logikę algorytmów, ale nie mamy też pojęcia – jako obywatele – w jaki sposób współczesna technologia wykorzystywana jest przez firmy, instytucje i służby do monitorowania naszego życia. Czy nie powinno mu towarzyszyć nasze dużo bardziej jednoznaczne poczucie, że w trakcie używania komputerów, dronów, aplikacji, kamer i portali społecznościowych jesteśmy chronieni? I że ktoś czuwa nad tym, by nie doszło do sytuacji, w której to algorytmy wybierają swojego prezydenta?

Nie sądzę, by próby regulacji obszaru sztucznej inteligencji były zawracaniem głowy lub ograniczaniem swobody przepływu idei czy funkcjonowania biznesu. Technologia, która zaczyna rozwijać się niejako bez naszego udziału, udoskonalająca swoje działanie bez ingerencji programisty, staje się potężną siłą. Wobec niej zasada nieograniczonej biznesowej wolności staje się nieco archaiczna i nie rozwiązuje wielu kwestii.

Regulować albo nie

Opinie, czy należy regulować kwestię rozwoju autonomicznych, inteligentnych technologii są oczywiście podzielone. Elon Musk regularnie wyraża obawy co do losów naszej planety i uważa, że potrzebujemy zdecydowanych mechanizmów chroniących ludzi przed technologicznymi zagrożeniami. Na przeciwległym biegunie funkcjonuje zwolennik mocno liberalnego podejścia, Mark Zuckerberg (chociaż wydaje się, że ostatnio nieco modyfikuje swoje poglądy).

Generalnie z innymi postawami spotykamy się w amerykańskich kręgach biznesowych, a innymi w Europie. Komisja European Group on Ethics prowadzi działania, które mają doprowadzić do międzynarodowego porozumienia i stworzenia ram prawnych dotyczących autonomicznych systemów. W opinii komisji: „...systemy autonomiczne nie mogą naruszać wolności ludzi... Sztuczna inteligencja powinna przyczyniać się do globalnej sprawiedliwości i równego dostępu do korzyści, jakie może przynieść robotyka i systemy autonomiczne”.

Jednakże wypada wskazać też na radykalnie odmienne podejście do tematu, z jakim mamy do czynienia w przypadku Chin. W kraju, który chce być liderem w rozwijaniu sztucznej inteligencji, traktuje się ją jako podstawowe narzędzie służące do monitorowania i kontroli zachowań społecznych.

Obserwacja, edukacja, dialog

W zmieniającej się rzeczywistości ważną rolę mają eksperci zajmujący się nowymi technologiami. Przeciętny obywatel może chcieć zadać im pytanie: czy możemy czuć się – jako ludzie bezpieczni – bo w życiu towarzyszy nam „uczciwa, transparentna, odpowiedzialna sztucznej inteligencja”? W tym ostatnim zdaniu odwołuję się do nazwy jednego z wielu seminariów (Fair, Transparent, and Accountable AI) organizowanych przez organizację „Partnership on AI”. Jej misją jest właśnie badanie praktyk związanych z obecnością sztucznej inteligencji w naszym życiu i wyjaśnianie opinii publicznej, co nowego dzieje się na tym obszarze.

Warto przytoczyć tu zdanie, które pojawia się przy opisie wspomnianego wydarzenia na stronie internetowej partnershiponai.org: „Sztuczna inteligencja może poprawić zdolności decyzyjne dzięki technikom, które wyciągają wnioski z dużych ilości danych. Może doprowadzić do przełomu w dziedzinach takich jak bezpieczeństwo, zdrowie, edukacja, transport, zrównoważony rozwój, administracja publiczna i nauka. Jednak tym potencjalnym korzyściom towarzyszą przy okazji obawy opinii publicznej i specjalistów związane ze szkodami, jakie sztuczna inteligencja może uczynić”.

Poniżej wymienię przykładowe cztery obszary (jest ich oczywiście mnóstwo), które przeżywają dynamiczne zmiany pod wpływem sztucznej inteligencji. Niektóre z nich mogą z czasem wymagać szczególnych mechanizmów regulacyjnych, tak byśmy zyskiwali poczucie komfortu w trakcie korzystania z technologii.

W konflikcie z prawem

Algorytmy wykorzystywane są przez policje na całym świecie. Sztuczna inteligencja pomaga w przetwarzaniu danych, w tym wielu informacji związanych z przestępczością, poszukiwaniem osób itd. Zdolności klasyfikacji obiektów (w tym zdjęć) na podstawie określonych elementów, to jedna z wielu zalet technologii machine learning. I z pewnością doceniają ją wszystkie służby, którym zależy na szybkim dotarciu do ważnych – z punktu widzenia interesów śledztwa – informacji.

Niestety, sytuacje, w których algorytmy oceniają prawdopodobieństwo, że dana osoba popełni ponownie przestępstwo (co wpływa na ew. zwolnienie warunkowe) mogą rodzić nadużycia. Dlatego na świecie powstają już organizacje (np. The Law Society’s Public Policy Technology and Law Commission) powoływane przez prawników, których misją jest monitoring działań policji i sądów w tym zakresie.

Fakenewsy powszechną zmorą

To gorący temat, o którym dużo się ostatnio mówi. Rodzi pytania o wiarygodność informacji, odpowiedzialność portali społecznościowych za ich monitorowanie. Od 2016 roku, który był przełomowy, jeśli chodzi o wysyp afer związanych z fakenewsami, nie ma tygodnia, by nie poruszano tej kwestii.

Sztuczna inteligencja ma tu swój udział, bo jak wiemy, jej rola w automatycznym generowaniu treści (boty) jest duża. Myślę, że wiarygodność informacji to jedno z największych wyzwań naszych czasów, które można nazwać erą dezinformacji. Wymaga to zdecydowanie globalnej refleksji, a nawet międzynarodowego współdziałania. Co jakiś czas pojawiają się inicjatywy na rzecz rzetelności (np. „Pravda” Elona Muska), ale sprawa jest trudna. Regulacje wydają się tu utopią, więc nie wiem, czy nie czekają nas jeszcze długie lata zmagania się z problemem.

Kto rządzi przy taśmie produkcyjnej?

Robotyzacja w przemyśle jest jednym z najbardziej emocjonalnie traktowanych aspektów działania sztucznej inteligencji. Mamy olbrzymi problem z akceptacją faktu, że naszymi kolegami w pracy mogą stać się roboty (i przyczynią się do naszego bezrobocia).

Wielokrotnie o tym pisałem, więc nie będę tu przedstawiał danych czy argumentów za lub przeciwko robotyzacji. Problem oczywiście jest i nie ma co udawać, że sprawa przycichnie. Wręcz przeciwnie, niepokoje społeczne mogą się powiększać wraz z rozwojem trendu. Myślę, że ze względu na konsekwencje społeczne, określenie zasad na tym obszarze jest niezwykle ważne. W tym przypadku mogą być wykorzystane chociażby mechanizmy podatkowe powstrzymujące korporacje przed nadmierną robotyzacją.

Samodzielne samochody

Entuzjaści podpierają się licznymi badaniami, wskazując, że autonomiczne pojazdy oznaczają dużo większe bezpieczeństwo na drogach. Zgadzam się z tą tezą. Niemniej jednak kwestia autonomicznych pojazdów rodzi pytania. Jedno z podstawowych dotyczy kwestii zachowania się pojazdu w trakcie wypadku. Kogo algorytmiczne mechanizmy powinny chronić szczególnie – pasażerów, kierowców, pieszych? Czy kierowca, który – przez chwilę nieuwagi – spowoduje wypadek, będzie mógł skarżyć producenta autonomicznego pojazdu z nadzieją, że wygra proces? Jak ubezpieczać pojazdy? Kto odpowiada za wypadek, kierowca/ pasażer, właściciel pojazdu, producent czy zespół programistów?

Kolejną sprawą, która nas czeka, to przyszłość innych autonomicznych środków transportu: samolotów, statków czy samochodów, które będą pełnić dla nas usługi transportowe, bez konieczności zasiadania w nich kierowcy (dostarczanie zakupów itd.). Prawodawstwo na świecie różni się w podejściu do testów autonomicznych aut. Wszędzie jednak toczy się dyskusja o tym, jak zwiększać bezpieczeństwo ich użytkowników.

Technologia jest dla ludzi

Postęp, jaki dokonuje się dzięki inteligentnej technologii, jest bezdyskusyjny. Ale sądzę, że oprócz biznesowych zagadnień, takich jak: optymalizacja kosztów, efektywność, zyskowność, automatyzacja (na nie wszystkie korzystnie wpływa stosowanie sztucznej inteligencji) ważne w tym wszystkim jest to, aby pamiętać o rzeczach mniej policzalnych. O tym, że nasze zwykłe jednostkowe samopoczucie, bezpieczeństwo, wiedza i spełnienie odczuwane podczas kontaktu z nową technologią są wartościami najważniejszymi. Bo przecież technologia ma sprawiać, że żyje nam się lepiej.

Przyglądajmy się więc uważnie pracy ekspertów, którzy wpływają na tworzenie systemów prawnych, chroniących nas przed niepożądanym działaniem algorytmów.

 class="wp-image-874771"
REKLAMA

Head of Services CEE, Microsoft. Kieruje usługami Microsoft w 36 krajach, ich zakres obejmuje doradztwo biznesowe i konsulting technologiczny, w szczególności w takich obszarach jak big data i sztuczna inteligencja, aplikacje biznesowe, cybersecurity, usługi premium oraz cloud. Poprzednio jaklo Vice President Digital McKinsey odpowiedzialny za region CEE oraz usługi łączące doradztwo strategiczne i wdrażanie zaawansowanych rozwiązań informatycznych. Od kompleksowej transformacji cyfrowej przez szybkie wdrożenia aplikacji biznesowych, rozwiązania i analizy big data, biznesowe zastosowania sztucznej inteligencji po rozwiązania blockchain i IoT. Wcześniej Norbert pełnił funkcję Prezesa Zarządu i CEO Atos Polska, był również szefem ABC Data S.A. oraz Prezesem Zarządu i CEO Sygnity S.A. Poprzednio również pracował w firmie McKinsey jako partner, był dyrektorem działu usług doradczych, oraz rozwoju biznesu firmy Oracle.

Pasją Norberta są najnowsze technologie robotyzacja, zastosowania sztucznej inteligencji, blockchain, VR i AR, Internet Rzeczy, oraz ich wpływ na gospodarkę i społeczeństwo. Więcej na ten temat można przeczytać na blogu Norberta.

REKLAMA
Najnowsze
Aktualizacja: tydzień temu
REKLAMA
REKLAMA
REKLAMA