Wyścig zbrojeń o sztuczną inteligencję. Czy open source może pokonać Big Techy?

OpenAI udało się zdobyć rozgłos, ale rywale w wyścigu zbrojeń o sztuczną inteligencję są o krok dalej. Do rywalizacji włącza się też ruch open source, który mógłby dostarczać rozwiązania na poziomie gigantów. Musi jednak – w przeciwieństwie do prywatnych firm – działać uczciwie. – Ale plus jest taki, że wystarczy wygrać raz. Jak zrobisz wystarczająco dobry darmowy model, to wygrałeś – mówi dr inż. Piotr Szymański, badacz AI.

Open source i sztuczna inteligencja

Największe technologiczne korporacje na świecie prześcigają się w budowie sztucznej inteligencji. Do zaciętej rywalizacji wkraczają jednak rozwiązania open source. Przedstawiciele tego ruchu – jak przyznają sami inżynierowie z Google – zadziwiająco szybko zmniejszają różnicę i nadganiają niedociągnięcia pod względem jakości.

Ruch open source tworzy oprogramowanie, którego licencja pozwala na legalne i darmowe kopiowanie. Oznacza to, że program jest dostępny dla wszystkich, czyli z jednej strony użytkowników, ale z drugiej badaczy, programistów. Co ważne, każdy użytkownik może dowolnie modyfikować kod źródłowy.

Czy zatem rozwiązania oparte na otwartym źródle mają szansę pokrzyżować plany Big Techom? Co dziś stoi na przeszkodzie do realizacji takiego scenariusza? Czy giganci pozwolą, aby do niego doszło? I wreszcie dlaczego dla dobra ogółu byłoby to lepsze niż koncentracja władzy nad sztuczną inteligencją w rękach wielkich firm?

Rozmowa z dr. inż. Piotrem Szymańskim, badaczem AI z Katedry Sztucznej Inteligencji na Politechnice Wrocławskiej.

Piotr Szymański. Fot. archiwum prywatne

Dr inż. Piotr Szymański: A wiesz, że ja w open source zacząłem działać, jak miałem 15 lat.

Marek Szymaniak: Serio?

Tak! Przez wiele lat robiłem polską dystrybucję Linuxa. Cały czas robię rzeczy otwartoźródłowe. Mam dwie swoje biblioteki. Jedna jest dość szeroko używana.

Idealnie trafiłem, bo chciałem porozmawiać o wyścigu wielkich firm w tworzeniu sztucznej inteligencji, do którego dołącza społeczność open source.

Faktycznie, mamy pięciu gigantów, czyli tak zwaną MAGMĘ: Microsoft, Amazon, Google, Meta i Apple. W tym wyścigu jest jeszcze OpenAI, ale raczej na uboczu.

Myślałem, że od pół roku wiedzie prym...

Nie, to nie jest firma mająca gotowy produkt dla użytkownika. Firmy z MAGMY mają takie produkty i zarabiają na nich olbrzymie pieniądze, a OpenAI musi chodzić i zbierać finansowanie po inwestorach. Dlatego zresztą tak uzależniła się od Microsoftu. To sprawia, że staje się nie oddzielnym bytem, a takim – oczywiście w sporym uproszczeniu – dodatkowym działem R&D Microsoftu. Oto obecne miejsce OpenAI w tym wyścigu.

Jak więc wygląda rywalizacja piątki gigantów?

Są dwaj liderzy: Google i Microsoft. Każdy z nich buduje różne warianty modeli, ale jeśli chodzi o modele generatywne, wielomodalne, to są dwa gigantyczne projekty. Jeden to jest Bard od Google, a drugi to jest GPT w produktach Microsoftu. One są używane głównie na rynku amerykańskim. To dość użyteczne narzędzia, ale to dopiero wstęp. Microsoft pierwszy wprowadził GPT do Office’a i kolejnych swoich produktów, ale Google zrobił coś podobnego kilka dni później, więc tak naprawdę idą łeb w łeb. Wygra ten, kto zrobi coś, co będzie w powszechnym użyciu. Bo tymczasem Bing GPT może wydawać się powszechnie używany, ale de facto ma tylko 2,5 proc. udziału w rynku wyszukiwarek.

A który jest lepszy?

Zależy pod jakim względem. Każdy chciałby, aby te systemy automatyzowały mu pracę, a tego jeszcze nie ma. Jest głównie content generation, czyli tworzenie treści. I tutaj obie firmy mają dobre modele. Dyskusja o tym, czy Bard jest lepszy od GPT4 z perspektywy kogoś, kto potrzebuje, żeby model nazmyślał mu tekstu do wypracowania, nie ma sensu, bo oba są podobne.

Jeśli chodzi o information retrieval, czyli wyszukiwanie informacji, to ChatGPT nie jest dobrą wyszukiwarką. Regularnie konfabuluje, pytany o informacje zapamiętane w modelu. Jego aktualna integracja z wyszukiwarką polega głównie na konwersji dialogu na zapytania tekstowe do klasycznego interfejsu Binga, co wcale szczególnie nie podnosi trafności uzyskiwanych wyników. A Bard? Trudno powiedzieć, bo Google ciągle jeszcze nie otworzył Barda na polski rynek.

Fot. Mdisk / Shutterstock.com

Gdzie w tym wyścigu jest reszta MAGMY?

Amazon nie uczestniczy w wyścigu na duże modele w takim stopniu. Ma swoje modele pod marką Alexa, gdzie skonsolidowany został zespół AI od mowy i tekstu, ale wykorzystuje te modele wewnętrznie. Natomiast na pewno Amazon przespał moment i powinno dziwić, że nie ma swojego modelu językowego do np. generowania opisów produktów, które firma chce sprzedać na ich platformie.

A jeśli chodzi o Metę, to firma Zuckerberga jest w absolutnym topie. Widząc, jak dobre modele wypuszcza, można spodziewać się, że prawdopodobnie jest poziom wyżej niż OpenAI. I, co ważne, w przeciwieństwie do firmy Sama Altmana, Meta nie ukrywa informacji o danych, na których trenuje modele. Stara się też opensource’ować swoje modele.

Meta używa modeli równie szeroko, co Google i Microsoft do moderowania treści, generowania opisów zdjęć, generowania propozycji reklam dla reklamodawców, rekomendowania treści użytkownikom czy też po prostu profilowania użytkowników. W obecnym roku Google informował o Bardzie, a OpenAI/MS o GPT. Każde z nich jest zamkniętym rozwiązaniem. A Meta w tym samym czasie opublikowała powszechnie używany w środowisku open source model LLaMa.

Ale wszyscy i tak zachwycamy się ChatemGPT.

Bo OpenAI udało się zdobyć rozgłos, ale tak naprawdę ChatGPT3 umie tylko generować tekst. A Meta jest krok dalej, bo ma model, który umie w tekst, obraz, wideo i audio. Tyle że Meta to wdraża głównie wewnętrznie na swoje potrzeby związane z targetowaniem reklam czy spełnianiem wszystkich regulacji. A te są bardzo obciążające. Przecież bez sztucznej inteligencji reakcja na zgłoszenie związane z przekroczeniem regulaminu w ciągu 48 godzin byłaby niemożliwa. A Mecie to się udaje.

A Apple?

W sumie nie wiemy, co robi, ale to znak charakterystyczny tej firmy. Zawsze trzymają wiele w tajemnicy. Wiemy, że mają dobry chip do sztucznej inteligencji: pozwala na efektywne wnioskowanie, bardziej efektywne niż na kartach graficznych. Wiemy, że radzą sobie ze sztuczną inteligencją w obrazie. W ich oprogramowaniu, podobnie jak w Google, widać, jak AI jest elementem dostarczającym możliwości wykonywania działań, a nie czymś istniejącym samo dla siebie. Dlatego nie wiadomo, czy w ogóle powinniśmy się spodziewać tego typu marketingu AI ze strony Apple, jaki widzimy w Google, OpenAI czy Mecie.

I do tej rywalizacji wkraczają teraz rozwiązania open source. Może one wyprzedzą tych gigantów?

Open source ma do pokonania kilka barier, zanim będzie w stanie dostarczać rozwiązania na poziomie gigantów. Głównymi są sprzęt i dane. Po pierwsze, pytanie więc, kiedy i czy ruch otwartoźródłowy dorobi się sprzętu, na którym będzie mógł swoje duże modele trenować, ale i udostępniać do wnioskowania. A po drugie, czy będzie miał legalne dane, na których będzie mógł trenować.

Open source jest w tyle? W Google chyba myślą inaczej. Niedawno wyciekł ciekawy e-mail inżyniera z Google’a. Cytuję: "Niewygodna prawda jest taka, że ​​nie jesteśmy w stanie wygrać tego wyścigu zbrojeń, podobnie jak OpenAI. Podczas gdy my się kłóciliśmy, trzecia frakcja po cichu jadła nasz lunch".

Ta trzecia frakcja to właśnie społeczność open source. To przede wszystkim naukowcy pracujący na uniwersytetach, ale też firmy, które działają w otwartym modelu, dzielą się wynikami swoich zespołów badawczych.

I na jakim są etapie?

Jest na przykład niemiecki kolektyw LAION, który stworzył model OpenCLIP działający na tekście i obrazie. Jest grupa BigScience, która wydała Bloom, duży otwarty i wielojęzykowy model potrafiący generować zarówno tekst, jak i kod. Model wytrenowali na infrastrukturze obliczeniowej Francuskiej Akademii Nauk. Jest też cała rodzina modeli pochodnych na bazie LLaMy, która "wyciekła" z Mety. Natomiast nie są to modele o porównywalnych zdolnościach co Bard albo GPT.

Dlaczego? Wspomniany inżynier Google’a pisał też: "Gdy nasze modele nadal mają niewielką przewagę pod względem jakości, różnica ta zmniejsza się zadziwiająco szybko. Modele open source są szybsze, bardziej konfigurowalne, bardziej prywatne i wydajniejsze". Kto tu ma rację?

Pozwól, że wytłumaczę. Społeczność open source dysponuje głównie bazą informatyczną. Nie ma zbyt wiele miejsc, gdzie np. naukowcy zarabiają tyle pieniędzy, że mogą siedzieć po godzinach i za darmo, dla dobra ludzkości, robić bazy danych.

fot. Uladzik Kryhin / Shutterstock.com

A żeby mieć dobry model, musisz mieć duży zbiór danych. Modele open source nie radzą sobie z wieloma rzeczami. Wynika to prawdopodobnie z tego, że potrzebują lepszych bazowych modeli językowych. I podstawowe pytanie brzmi, czy można zrobić je na podstawie otwartych danych? To nie jest oczywiste.

Weźmy np. pochodzący od firmy EleutherAI model The Pile. Wyuczony został w oparciu o szerokie zasoby internetu. Ten model zawiera podzbiór Books3 pochodzący ze strony, na której piracono książki: bibliothik. Czyli zawiera bibliotekę książek chronionych prawami autorskimi.

Czy te dane mogą być otwarte tak, by każdy mógł wytrenować na nich model? Model musi je czytać, jeśli ma rozumieć współczesną kulturę. Podobnie będzie z gazetami, filmami, które musi obejrzeć i tak dalej. 

Rozumiem, że giganci ściągają dane, trenują na nich swoje modele, a potem zasłaniają się tajemnicą?

Owszem. Do trenowania komercyjnych modeli sztucznej inteligencji są używane dane zdobyte w sposób, o którym dziś się mówi, że jest szarą strefą. A osoby bardziej radykalne powiedzą, że nie jest do końca etyczny.

Czyli biorą dane publicznie dostępne tak, jakby to były dane, na które udzielono licencji do trenowania. Nie chodzi o dane jawnie otwarte jak Wikipedia, ale o wszystkie rysunki wrzucane na Instagrama czy nawet o prywatne blogi.

Firmy to robią i nic im za to nie grozi. Robi to także czasem jakaś organizacja otwartoźródłowa, korzystając z istniejących zbiorów już zebranych jak we wspomnianym The Pile.

Ale ten czas się powoli kończy. W odpowiedzi na zachowania dużych graczy kolejne serwisy zamykają lub ograniczają dostępy do danych, wprowadzając za to kosztowne licencje. Zrobił tak Twitter parę miesięcy temu, a teraz Reddit i Stackoverflow.

Środowiska open source nie są w stanie opłacić kosztów licencji, nie mogą też danych zescrapować wbrew licencjom, bo działają transparentnie, a łatwo takie coś wykryć. Biznes nie musi pokazywać danych, dopóki ktoś go nie zmusi.

Poza tym wytrenowanie modelu jest bardzo drogie. Komercyjne firmy mają pieniądze od inwestorów lub po prostu zyski z własnej działalności. A open source opiera się w dużej mierze na darmowej pracy idealistów, którzy wierzą w otwarte źródła i na infrastrukturze, do której mają dostęp. A to nie koniec problemów.

Co jeszcze?

Problemem open source jest też to, że nie posiada dobrych produktów dla użytkownika końcowego, a to ten użytkownik tworzy dane. To widać choćby po tym, jak OpenOffice nie zagrał na rynku. Nie przekonał użytkowników.

Model językowy trzeba "wpiąć" w jakieś produkty. Microsoft może wpiąć GPT w wyszukiwarkę Bing, w narzędzia z pakietu Office. Google może wpiąć w Gmaila i Google Drive. A open source nie ma gdzie tego wpiąć. Są otwarte rozwiązania naśladujące te popularne rozwiązania. Jest np. poczta Roundcube, jest klon Slacka, który się nazywa Matternmost i tak dalej, ale żeby włączyć tam AI, musisz zrobić dobre badanie potrzeb użytkowników, czyli zbadać, czego potrzebują użytkownicy, jak się zachowują. Potem musisz zaprojektować, gdzie ta sztuczna inteligencja jest potrzebna i zapakować to w dobry produkt. A rozwiązania open source mają kulturę nie do końca przejmowania się użytkownikiem końcowym. Jest to raczej ruch, który próbuje rozwiązać problem, a nie zawsze w taki sposób, by zupełny laik był w stanie wygodnie korzystać z rozwiązań.

Fot. shutterstock.com/Autor: rawpixel
Fot. rawpixel / Shutterstock.com

To co z tym zrobić?

Unia Europejska może przyjść i powiedzieć: proszę, macie tutaj dużo pieniędzy, zróbcie otwarte modele, które będą pod każdym względem konkurencyjne i na tym oprzyjmy przewagę Europy. Ale tych pieniędzy nie widać, a to dziwne, szczególnie gdy Europa chce się uregulować i uwolnić od dominacji Big Techów. Widać pieniądze, które dają rządy narodowe, np. Macron obiecał ostatnio 500 mln na rozwój AI.

Poza tym pieniądze to nie wszystko, bo nadal pozostaje pytanie: skąd wziąć legalne dane? I które dane wziąć? Czy możemy wziąć te, które były zbierane bez zgody użytkowników? Albo skąd wziąć otwarte dane medyczne?

Mogłoby być tak, że jest państwowa instytucja, która zbiera te dane w sposób systematyczny np. we współpracy z uczelniami. Ale znów: to ogromnie kosztowny proces, wymaga ogromnej kontroli, anonimizacji, ale także ludzkiego aspektu zbierania danych, no bo trzeba jednak poprosić osobę o zgodę, uspokoić lęki nie tylko końcowego użytkownika, ale i instytucji, która je przetwarza: szpitala, banku, urzędu.

I nagle z czegoś niby prostego robi się ogromny problem, którego nie mają komercyjne firmy.

Czyli open source ma gorzej, bo musi być uczciwy?

Tak, musi być uczciwy z powodu transparentności. Wszyscy widzą, co w nim jest. Jest w pełni transparentny w przeciwieństwie do wielu prywatnych firm.

Sytuacja wydaje się beznadziejna.

Plus jest taki, że wystarczy wygrać raz. Jak zrobisz wystarczająco dobry darmowy model, który będzie łatwy w obsłudze, każdy będzie mógł go używać i stanie się powszechny, to wygrałeś.

Tylko jak to zrobić?

LAION [niemiecka organizacja open source tworząca modele i zestawy danych] mówi, że potrzeba takiego CERN-u [Europejskie Laboratorium Fizyki Cząstek – red.] dla sztucznej inteligencji. Unia idzie w stronę regulacji AI, więc można by przyjąć, że przestanie działać model biznesowy w stylu "biorę dane za darmo z sieci bez patrzenia, kto jest autorem". A jeśli by tak było, to bez publicznego wsparcia finansowego i wkładu w postaci danych europejska sztuczna inteligencja się zwinie, bo na czym będzie miała pracować?

Wtedy całość przejmą giganci, którzy już mają dostęp do naszych dokumentów, jak Microsoft czy Google. Jak Meta, która ma przecież wszystko: zdjęcia w mediach społecznościowych, rozmowy w komunikatorach, historie naszych lokalizacji. Adobe ma prawa do trenowania modeli na danych, które jego użytkownicy trzymają w chmurze firmy i wytrenował na tym model, który pozwala uzupełnić zdjęcie. W świecie open source nie ma chmury, nie ma wielkiego zbierania danych, nie ma nawet aplikacji, które miałyby tylu użytkowników, żeby zbierać te dane.

Prawo ma tutaj ogromne znaczenie, a nad regulacjami sztucznej inteligencji pracuje Unia Europejska. Jakie są ryzyka, że przepisy dla dużych firm – mówiąc kolokwialnie – zaorają także rozwiązania open source? Zwróciła na to uwagę choćby wspomniana grupa LAION.

Jest takie ryzyko, jeśli zostaną wprowadzone regulacje i np. nie będzie można faktycznie wykorzystywać danych, których się nie sprawdziło. Albo zostaną wprowadzone przepisy nakazujące firmom usunięcie tak wielu danych, że wydajność modeli spadnie do tego stopnia, iż nie będzie opłacało się ich używać.

fot. European Union 2023 - Source: EP
fot. European Union 2023 / source: EP

To będzie oznaczało pewne spowolnienie, bo będzie trzeba używać tylko w pełni sprawdzonych danych, a to z kolei bardzo dużo kosztuje. Kto miałby ponieść koszt generowania tych zbiorów dobrej jakości danych? Teoretycznie mogłyby to być uczelnie z silną rolą humanistyki, nauk społecznych, medycznych. A to znowu oznacza, że trzeba znacznie zwiększyć ich finansowanie badań w tym obszarze. To są grube pieniądze, na poziomie budżetu dużej instytucji naukowej. CERN ma budżet na poziomie 6,5 mld zł – to pokazuje, o jakich pieniądzach mówimy.

Wyobrażasz sobie powstanie takiej instytucji w Polsce?

Wyobrażam sobie, że jest potrzebna, w Polsce nie ma aż tak wielu naukowców pracujących nad sztuczną inteligencją, nie będzie ich więcej niż pracowników Deepminda, w którym przed połączeniem z Google Brain pracowało ok. 1500 osób. Skoro więc jeden duży podmiot korporacyjnego R&D zatrudnia więcej ludzi od AI niż cała polska nauka, to pewnie fragmentacja środowiska nie jest optymalna i nie prowadzi nas do większych celów.

A teraz wyobraź sobie, że to wszystko finansuje minister Czarnek. Powołuje Narodowy Instytut Sztucznej Inteligencji. Sprawa od razu byłaby polityczna.

(śmiech) To byłaby potężna awantura. Z jednej strony istotna część środowiska naukowego jest dziś mocno negatywnie nastawiona do ministra. Z drugiej widzimy postępującą dezorganizację polskiej nauki. Brakuje pieniędzy na podwyżki subwencji powyżej inflacji. Agencje grantowe ledwo zipią. Gdyby w takim kontekście nagle sztuczna inteligencja dostała pieniądze, trudno byłoby się spodziewać, że naukowcy z AI zostaną w efekcie dobrze potraktowani przez kolegów naukowców z innych dziedzin.

Fundamentalnym problemem jest, jak to zorganizować. Francja, Niemcy, Chiny główne pieniądze na AI wydają w ramach funduszy strategicznych, a nie w konkursach grantowych. W Niemczech robią to nawet konkretne landy, które prowadzą własną politykę w sprawie AI. W Hesji w Darmstadt powstało centrum hessian.AI z finansowaniem 50 mln zł rocznie. W Saksonii w Goerlitz powstaje CASUS, który przeradza się w finansowany przez land i rząd Niemiec instytut z 66 mln zł rocznego finansowania.

To wszystko bez grantów, z gwarancjami długofalowego finansowania do 2038 roku. Czy w Polsce w takim razie powinny powstać wojewódzkie instytuty sztucznej inteligencji z ok. 20-30 mln zł budżetu? Z jednej strony ma to plus, bo wzmacnia rozwój lokalnych środowisk.

A z drugiej?

Pogłębia fragmentację. Alternatywą byłby duży instytut ogólnokrajowy, wirtualny albo nie, z dużym budżetem i gwarancją finansowania na 15 lat. Ale tu się pojawia mnóstwo trudności, wcale nie jest oczywiste, kto powinien nim rządzić, gdzie powinna być ulokowana siedziba, jaka powinna być jego rola w stosunku do uczelni.

Fot. shutterstock.com/ puhhha
Fot. puhhha / Shutterstock.com

Nie mamy w Polsce dobrych historii o tworzeniu od zera nowych instytucji naukowych. Jedyne, co powstało w III RP, to Sieć Łukaszewicz. Nie wiem, na ile realne byłoby stworzenie wirtualnego instytutu badawczego z AI przy naszych aktualnych różnicach kulturowych w polskiej nauce przeciętych z polaryzacją polityczną i silnym drenażem umysłów ze strony zagranicznych firm. To potężny problem, zresztą nie tylko naszego kraju.

Z drugiej strony Sieć Łukaszewicz koniec końców istnieje i działa, ma granty o łącznym budżecie kilku miliardów złotych. Nie jest więc tak, że nic się nie da zrobić. Natomiast jej powstanie to efekt integracji istniejących jednostek i trwało to i tak dość długo.

Trudno odpowiedzieć na pytanie, na ile jesteśmy w stanie w Polsce w krótkim okresie zbudować jakąś formę skutecznego finansowania AI.

Skoro nie w Polsce, to może powinna to zrobić Unia Europejska i wspólnym wysiłkiem wszystkich państw członkowskich powołać ten CERN dla AI?

Aktualnie obrana w Europie strategia polega na tym, że państwa narodowe ścigają się na rozwój AI. Na razie w wyścigu prym wiodą Wielka Brytania, Niemcy i Francja. Euroentuzjasta stwierdziłby, że to może nie być właściwa strategia dla Europy, że zamiast konkurencji narodowej powinniśmy współpracować. Tak twierdzi m.in. grupa LAION, która zaczęła dyskusję o CERN dla AI.

Pytanie, na ile Unia Europejska jest dziś zdolna do takich epokowych projektów? Być może mogłaby powstać solidnie finansowana instytucja, która zrobiłaby etyczną sztuczną inteligencję opartą na otwartych źródłach. Byłaby ona dostępna dla tych państw, które się dorzuciły do jej powstania. Czy to możliwe? Tak, można sobie wyobrazić, że tak wygląda świat, bo mamy zasoby do powstania dobrego AI w Europie.

Fot. ImYanis / Shutterstock.com

Ostatecznie, jeśli chcemy mieć nienależące do prywatnego sektora AI spełniające wyrafinowane wymogi, to musimy mieć instytucje publiczne, które będą w stanie stworzyć warunki koniecznie do jej powstania.

Giganci pozwolą się prześcignąć? Społeczność open source też pracuje na modelach, które Big Techy akurat udostępniły za darmo. Czy kiedy Big Techy poczują się zagrożone, to po prostu zakręcą kurek?

Oczywiście mogą zakręcić kurki z pieniędzmi. Meta czy Microsoft mogą przestać dawać granty. Google może przestać udostępniać swoje serwery na Colabie. To nie jest tak, że rozwiązania open source są w pełni niezależne i stoją na publicznej infrastrukturze, bo tej w porównaniu do skali infrastruktury komercyjnej w zasadzie nie ma.

Czy do tego dojdzie? Nie sądzę, bo open source nie jest dla nich zagrożeniem. Open source nie patentuje swoich rozwiązań. Idea jest raczej taka, że pracujemy nad jakimś rozwiązaniem, żeby to właśnie giganci nie mogli go opatentować. A więc nawet jak open source zrobi coś otwartego, rozwiąże jakiś problem, to wygrywa cały rynek, bo napędza postęp w sposób dostępny dla wszystkich, na czym skorzystają też firmy.

To kto wygra ten wyścig?

Nikt tak do końca. Myślę, że będzie podobnie jak z serwisami internetowymi: możesz postawić skomplikowany serwis u komercyjnego dostawcy usług, ale możesz samemu wybrać prosty szablon w WordPressie i w 15 minut mieć własnego bloga. W AI prawdopodobnie z jednej strony będziemy mieć płatne modele, które są złożone, bo wymagają lepszych danych i one będą w rękach firm. A z drugiej będą te darmowe, a wśród nich prostsze, starsze, które będą dostępne w zasadzie dla każdego oraz też wyspecjalizowane modele, które służą określonym sektorom, ale nie są użyteczne bezpośrednio dla końcowego użytkownika.

Zdjęcie tytułowe: Rawpixel / Shutterstock.com
DATA PUBLIKACJI: 07.07.2023