REKLAMA

Wszystko co opublikowane w sieci jest darmowe - mówi przedstawiciel Microsoftu. My jesteśmy przerażeni

Według szychy z Microsoftu odpowiedzialnej za rozwój sztucznej inteligencji, wszystko co zostało opublikowane w Sieci jest darmowe i do dowolnego wykorzystania. Gdyby się z tym zgodzić, oznacza to koniec internetowej prasy dostępnej w przeglądarce internetowej.

Microsoft Security Copilot
REKLAMA

Skąd Google Gemini, Microsoft Copilot, OpenAI ChatGPT czy Apple Intelligence wiedzą to wszystko, co wiedzą? Jakim sposobem nauczyły się tak dobrze rozumieć ludzką mowę i nią posługiwać - i to w większości języków świata? Firmy od Dużych Modeli Językowych zdecydowały się na ruch co najmniej kontrowersyjny. Zaczęły zbierać dane z Internetu. Zdjęcia, artykuły prasowe, książki, recenzje, felietony - to cyfrowe paliwo dla generatywnej sztucznej inteligencji. Im większą ilością dobrych danych się ją nakarmi, tym ta ma większy potencjał i możliwości.

REKLAMA

To jednak rodzi pewien problem, co było już naświetlane przez autorytety w branży. W momencie, w którym usługi sztucznej inteligencji są na zawołanie dla użytkownika i które sprawnie i rzeczowo referują dowolny temat, w takiej formie jaką sobie użytkownik zażyczy - to ten nie ma żadnej większej motywacji, by szukać informacji na własną rękę. Reporter, który włożył mnóstwo pracy w naświetlenie jakiegoś tematu (choćby i durnej recenzji jakiegoś gadżetu) ma problem z dotarciem do odbiorcy - taki Copilot zeskanuje sobie jego tekst, przyswoi treść i będzie ją serwował swojemu użytkownikowi.

Czytaj też:

Microsoft nie widzi problemu

Microsoft Copilot jest akurat jedną z niewielu usług typu GenAI, która zapewnia przypisy do źródeł. Tym niemniej wydają się one bardziej pełnić rolę narzędzia weryfikacyjnego. GenAI potrafią źle interpretować informacje, więc użytkownik może szybko sprawdzić skąd ta pochodzi i czy na pewno jest prawdziwa. Inne narzędzia często nawet nie są na tyle łaskawe, by podać źródło swojej wiedzy. Patrząc na wypowiedzi szefa Microsoft AI, Mustafy Suleymana, będzie tylko gorzej.

- Z szacunkiem dla zawartości otwartej sieci, społeczna umowa od lat dziewięćdziesiątych mówi, że można ją wykorzystać. Każdy może ją skopiować, tworzyć nowe rzeczy przy jej użyciu, powielać je. Od zawsze to traktowano jako freeware - mówi w wywiadzie dla NBC News i dodaje uwagę, po której niektórym osobom może się zagotować krew:

- Jest jeszcze osobna kategoria, w której witryna, wydawca, organizacja reporterska deklaruje zakaz przetwarzania ich treści w inny sposób niż indeksowanie w wyszukiwarce. To taka szara strefa, którą się przepracuje za pomocą sądów - bezceremonialnie kwituje.

Mustafa Suleyman to brytyjski przedsiębiorca w dziedzinie sztucznej inteligencji, znany przede wszystkim jako współzałożyciel i były szef działu AI w DeepMind, firmie zajmującej się AI, którą przejął Google. Urodzony w sierpniu 1984 r., Suleyman wychował się w Londynie w rodzinie o syryjsko-angielskich korzeniach. Jego ojciec był taksówkarzem, a matka pielęgniarką. Edukację rozpoczął w Thornhill Primary School, a następnie uczęszczał do Queen Elizabeth's School, chłopięcej szkoły gramatycznej w Barnet. W młodości poznał Demisa Hassabisa, późniejszego współzałożyciela DeepMind, przez jego młodszego brata, który był najlepszym przyjacielem Suleymana.

Suleyman zrezygnował ze studiów na Mansfield College w Oksfordzie w wieku 19 lat, aby zaangażować się w działalność społeczną i przedsiębiorczość. Współzałożył Muslim Youth Helpline, telefoniczną linię wsparcia dla młodych muzułmanów, która stała się jedną z największych organizacji wsparcia zdrowia psychicznego dla muzułmanów w Wielkiej Brytanii. Pracował również jako urzędnik ds. praw człowieka dla burmistrza Londynu, Kena Livingstone'a, a później założył Reos Partners, konsultingową firmę zajmującą się 'systemicznymi zmianami', która wykorzystuje metody z rozwiązywania konfliktów do radzenia sobie z problemami społecznymi. W 2010 r. Suleyman współzałożył DeepMind Technologies, które szybko stało się jednym z liderów w sektorze AI i zostało przejęte przez Google w 2014 r. za kwotę 400 mln funtów. Po przejęciu przez Google, Suleyman został szefem działu AI w DeepMind, gdzie odpowiadał za integrację technologii firmy z szeroką gamą produktów Google. Zmienił jednak pracodawcę na Microsoft, gdy ten przejął rolę lidera tej branży.

Lepsze jest wrogiem dobrego. Co powiecie w takim razie na newslettery? Albo dedykowane apki newsowe?

Na dziś media internetowe funkcjonują na dwa sposoby. Większość oferuje swoją zawartość nieodpłatnie, w zamian jednak serwując reklamy. Im więcej osób zobaczy daną kreację reklamową, tym lepiej. A jeszcze lepiej, jak w nią kliknie zainteresowany. Tego typu media muszą dbać o wysoką liczebność i wysoką jakość swoich artykułów, by jak najwięcej osób do nich trafiało (i oglądało przy okazji reklamy). Tego rodzaju media już są pożerane przez GenAI.

W teorii drugi rodzaj mediów - te płatne – mogłyby się przed powyższym bronić. Prestiżowe media rezygnują z części reklam, w zamian oferując swoje zasoby tylko prenumeratorom. W teorii crawlery i boty firm od sztucznej inteligencji miałyby problem z dostępem do tych treści, tyle że jest tu dodatkowy czynnik. Media klasy premium mają daną informację jako pierwszą, co zwiększa ich prestiżowość i klientelę. Tyle że reszta mediów, korzystając z prawa cytatu, niedługo później daną treść powiela, wskazując źródło informacji. To wystarczy, by GenAI przyswoiła sobie również i te informacje. Nie ma też żadnych problemów z przyswajaniem treści z YouTube’a czy podcastów.

 class="wp-image-4735361"
Newsletter Financial Times otwarty w aplikacji Outlook. Microsoft niby nie ma do tego dostępu - ale już chętnie proponuje Copilota, by ten pomógł użytkownikowi (i... zapoznał się z treścią newslettera)

Ktoś mógłby zauważyć, że lepsze jest wrogiem dobrego i że postęp wymaga ofiar. Być może pora, by tradycyjni media workerzy, dziennikarze i media odeszły do lamusa. Nikt wysyłając SMS-a nie myśli o losie hodowców gołębi pocztowych, zresztą całkiem rozsądnie. Problem w tym, że bez pracy tych mediów (i twórców innego rodzaju treści internetowych) sztuczna inteligencja traci rzetelne źródła danych. Dziennikarze z kolei muszą się z czegoś utrzymać.

Właściwie jedyną drogą, jeśli świat będzie urządzony po microsoftowemu, jest ucieczka z otwartej sieci. Informacja przestanie być łatwo dostępna z poziomu wyszukiwarki internetowej czy przeglądarki internetowej. Wrócą metody z czasów początków Internetu. Newslettery wysyłane na maila czy komunikator internetowy. Aplikacje z treściami od jednej i tylko jednej grupy medialnej, które na dodatek nie działają na wszystkich urządzeniach. Wszystko byleby uciec od łapczywej sztucznej inteligencji.

Unia Europejska jest awangardą w kwestii regulacji sztucznej inteligencji. Niestety, i tak nie nadąża

W Unii Europejskiej, Akt w sprawie sztucznej inteligencji (AI Act) klasyfikuje technologie AI według poziomu ryzyka i ustanawia surowe wymagania dla systemów uznanych za najbardziej niebezpieczne. Systemy AI są podzielone na cztery kategorie ryzyka: niedopuszczalnego, wysokiego, ograniczonego oraz minimalnego. W przypadku treści publikowanych przez media internetowe, szczególnie istotne są przepisy dotyczące systemów AI wysokiego ryzyka, które mogą obejmować technologie wykorzystywane w edukacji, służbie zdrowia, rekrutacji czy finansach. Na przykład, systemy AI analizujące podania studentów o stypendia lub przyjęcie na studia muszą spełniać surowe normy bezpieczeństwa i transparentności.

W kontekście mediów internetowych, obowiązki związane z przejrzystością przed wprowadzeniem systemów AI na rynek obejmują sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia AI. To ma na celu zapewnienie, że treści wykorzystywane do szkolenia AI, w tym te pochodzące z mediów internetowych, są odpowiednio dokumentowane i chronione. Problem w tym, że przy mocy obliczeniowej centrów danych, bieżące regulacje są zdecydowanie niewystarczające.

Polskie prawo jest zgodne z przepisami unijnymi, a AI Act ma zastosowanie również na terenie Polski. Wdrożenie AI Act w Polsce zakłada wyznaczenie odpowiednich organów krajowych, które będą nadzorować i regulować rynek AI, zapewniając skuteczne egzekwowanie nowych przepisów na poziomie krajowym. Polska, negocjując przepisy, podkreślała, że każdy system AI w swoim cyklu życia powinien spełniać trzy warunki: być zgodny z prawem, uwzględniać zasady i reguły etyki dla godnej zaufania sztucznej inteligencji oraz być bezpieczny i odporny technicznie. Dlatego też, firmy działające w Polsce, które wykorzystują publicznie dostępne treści internetowe, w tym treści publikowane przez media internetowe, do szkolenia modeli AI, muszą przestrzegać tych zasad.

REKLAMA

To jednak wciąż za mało, a giganci internetowi stają się coraz bardziej bezczelni. By nie skupiać się tylko na Microsofcie, zwrócę na koniec uwagę na Apple’a. Ten podczas WWDC ogłosił, że która witryna nie chce być skanowana przez Apple Intelligence, może się z tego wypisać. Super, nieprawdaż? Tyle że Apple już wszystkie witryny przeskanował, przyswajając całą ich zawartość. Można się tylko wypisać z kolejnych skanowań. Przynajmniej nie są tak bezczelni, by przy innych okazjach rozmawiać o piractwie…

*Ilustracja otwierająca: Robert Way / Shutterstock

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA