Starcie tytanów. Zwycięzca bierze wszystko

W świecie technologii, gdzie tempo zmian przypomina wyścig po ostatni kawałek tortu na przyjęciu dla dzieci, wojna o talenty i zasoby nigdy nie ustaje. Jednak to, co się dzieje teraz, jest wyjątkowe nawet jak na standardy Doliny Krzemowej. 

26.06.2024 07.14
Starcie tytanów. Zwycięzca bierze wszystko

Albo będziesz pierwszy, albo giń. Brutalna walka, w której tracą niemal wszyscy. Ale po kolei. 

Ogromny hype i nagłe zapotrzebowanie na wszystko z metką AI ostro kontrastują z brakami zasobów: przede wszystkim ludzkich, ale i danych do trenowania. Obie te pule są skończone, a nagroda czekająca na mecie – stworzenie najlepszego modelu, który podbije rynek – szczególnie kusząca. Dlatego tym razem wszystkie chwyty są dozwolone. Choć do wyścigu staje wielu zawodników, zwycięzca może być jeden: Big Techy. 

Google swój bieg zaczął falstartem. A potem było tylko gorzej. Najpierw podczas prezentacji mającej reklamować Barda, ówczesny model AI Google'a, firma z dumą pokazała światu, jak jej AI, odpowiadając na pytanie z astronomii… myli się. Bard zapytany o nowe odkrycia z teleskopu Jamesa Webba odpowiedział, że wykonał on pierwsze zdjęcie egzoplanet. Problem w tym, że wcześniej dokonał tego już w 2004 roku Bardzo Duży Teleskop. 

Kiedy ukazał się Gemini AI z funkcją generowania obrazów, było jeszcze gorzej. Model poproszony o obrazki nazistów pokazywał między innymi osoby azjatyckiego pochodzenia lub czarnoskóre. Podobne wpadki zdarzały mu się też z innymi figurami historycznymi. Kiedy zapytano go o Ojców Założycieli Stanów Zjednoczonych, tworzył obrazy rdzennych mieszkańców kontynentu. Taki był poprawny politycznie.

Google, chcąc zadbać o różnorodność rasową w odpowiedziach, przedobrzył i wywołało to burzę. W efekcie Google wstrzymało możliwość generowania obrazów w Gemini AI. 

A teraz, kiedy pojawiło się Overviews AI, okazało się, że AI Google'a zaleca użytkownikom jedzenie kamieni i smarowanie pizzy klejem, żeby ser się na niej lepiej trzymał. 

Mimo tej serii kompromitacji stawiam dolary przeciw orzechom, że to właśnie firma z Mountain View będzie wśród zwycięzców wyścigu, który z dnia na dzień nabiera tempa. 

Wielkie pieniądze, jeszcze większa władza

Firmy technologiczne niechętnie spowiadają się z tego, ile dokładnie wydają na tworzenie i trenowanie sztucznej inteligencji. To nie znaczy, że nikt nie próbuje tych kosztów oszacować. Epoch AI wzięło pod lupę artykuły naukowe, raporty techniczne, a nawet przeanalizowało wysyłane przez firmy informacje prasowe, żeby dojść do takich danych.

Z ich obliczeń wyszło, że Open AI na stworzenie ChataGPT-4 wydało 78, a Google na Gemini Ultra 191 mln dol. Te liczby mogą być jednak niedoszacowane. Sam Altman, CEO Open AI, twierdził, że koszt szkolenia GPT-4 wyniósł ponad 100 mln dol. Nawet jeśli zignorujemy tę "drobną" różnicę, to wniosek jest jeden: przeszkolenie tego typu modeli to droga zabawa, szczególnie że korzystanie z nich też kosztuje.

Na szczęście nic tak nie generuje i nie przepala pieniędzy jak hype, a tego wokół AI nie brakuje. Według danych z najnowszego raportu Uniwersytetu Stanforda w ciągu dekady wartość inwestycji korporacyjnych w AI wzrosła aż trzynastokrotnie. 

W rekordowym 2021 roku korporacje z całego świata zainwestowały w sztuczną inteligencję w sumie aż 337 mld dol. 

Sztuczna inteligencja rządziła więc arkuszami firm, zanim zaczęła rządzić nagłówkami gazet i marzeniami szukających optymalizacji szefów za sprawą głośnego debiutu ChataGPT 3.5 pod koniec 2022 roku. Mimo wybujałej po horyzont wyobraźni nastąpiła wówczas korekta. Na inwestycje korporacyjne w AI wydano już "tylko" 235 mld dol. i nie wynika to tylko z tego, że imponujące dziecię Open AI pokazało się światu dopiero w zimie, więc nikt nie zdążył zrobić przelewów. Spadkowy trend się utrzymał i inwestycje korporacyjne w 2023 roku wyniosły 189 mld dol. Podobny kurs widać w prywatnych inwestycjach: tutaj też w 2022 i 2023 roku odnotowano mniejsze inwestycje, choć spadek nie był aż tak gwałtowny. 

Żeby zobaczyć efekt ChataGPT, trzeba zerknąć na bardziej precyzyjne dane. O ile ogólnie w sztuczną inteligencję inwestowano mniej, wyjątkiem były inwestycje w jedną konkretną gałąź AI, czyli generatywną sztuczną inteligencję (taką jak ChatGPT lub potrafiący z promptów generować obrazki Midjourney czy Dall-e). Do tego konkretnego sektora w 2023 roku napłynęło z prywatnych inwestycji 25 mld dol., czyli 9 razy więcej niż rok wcześniej i aż 30 razy więcej niż w 2019 roku.

AI staje się coraz potężniejsza. Ale potrzebuje danych, aby rosnąć.

Najwięcej na inwestycje prywatne w AI wydaje się nadal w ojczyźnie wielkich firm technologicznych. W 2023 roku suma prywatnych inwestycji w AI w Stanach Zjednoczonych wyniosła 67,2 mld dol., czyli niemal 9 razy więcej niż w drugich Chinach i ponad 17 razy więcej niż w trzeciej Wielkiej Brytanii. To przekłada się na liczbę nowych firm zajmujących się rozwijaniem AI. W 2023 roku nowo założonych startupów związanych z AI w Stanach Zjednoczonych było 897, w Chinach 122, a w Wielkiej Brytanii 104. Jeśli więc ktoś  liczył na nagły przewrót na arenie międzynarodowej, który miałby zmienić układ sił i wypchnąć Dolinę Krzemową poza centrum, może się rozczarować. Technologia będzie powstawała tam, gdzie są inwestycje, pieniądze i ludzie. A to mają Stany. 

Ludzie na wagę złota

Wojna o talenty to w Dolinie Krzemowej nie pierwszyzna, ponieważ wielkie firmy od lat walczą między sobą o najlepszych i podkradają talenty mniejszym, kusząc pracowników warunkami pracy, wyszukanymi benefitami i wielkością przelewów na konto. Jednak gdy świat zachorował na gorączkę generatywnej sztucznej inteligencji, wojna nabrała nowego impetu. Zasób, o który toczy się walka, jest niezwykle cenny, bo rzadki.

Naveen Rao, szef działu rozwijania generatywnej AI w Databricks, ocenił w wywiadzie dla "Wall Street Journal", że na świecie może być tylko kilkaset wysoko wykwalifikowanych osób z doświadczeniem w szkoleniu dużych modeli językowych oraz rozwiązywaniu problemów nowych platform AI. Dlatego właśnie zapotrzebowanie na ekspertów od sztucznej inteligencji nie tyle wzrosło, ile wręcz wybuchło. A taki wybuch nie obywa się bez ofiar.

Ich koledzy z IT, którzy nie mieli szczęścia specjalizować się w sztucznej inteligencji, od jakiegoś czasu drżą na widok ludzi z HR-u. Z jednej strony firmy dokonywały korekt po covidowej hossie, zwalniając pracowników, których zatrudniły w przypływie nadmiernego optymizmu, z drugiej zaczęła pojawiać się narracja, że AI umożliwi firmom optymalizację – czyli zwolnienie części pracowników. Według danych Layoffs.fyi branża technologiczna w pierwszym kwartale 2023 roku zwolniła około 90 tys. pracowników. 

"Czasy, gdy każdy mógł być programistą, się kończą, ale zarazem zaczynają się czasy, gdy każdy będzie mógł programować, także dzięki AI, rozwiązaniom low-code i no-code. Wiedza z zakresu programowania z jednej strony się spłaszcza, ale z drugiej mocno specjalizuje. W branży IT spadło zapotrzebowanie na >>zwykłych<< programistów, juniorów, ale wciąż brakuje tych, którzy mają zaawansowaną wiedzę i specjalizacje" – mówił na łamach Spider's Web w rozmowie z Rafałem Pikułą Jarosław Królewski, założyciel firmy Synerise.

A w przypadku tak wąskiej specjalizacji wiedzę i doświadczenie się ceni. Na portalu Levels.fyi 344 ekspertów zajmujących się uczeniem maszynowym i sztuczną inteligencją w Mecie ujawniło swoje zarobki. Średnio, wliczając w nie premie i udziały w firmie, zarabiają 400 tysięcy dolarów rocznie. We wspomnianym już wywiadzie Rao twierdzi, że najwyższej klasy kandydaci mogą otrzymywać pakiety wynagrodzeń nawet o wartości 1 mln dol. rocznie. Lub wyższe.

Wysoki popyt napędza ceny. Kiedy OpenAI przekonało jednego z pracujących dla Elona Muska ekspertów od uczenia maszynowego, żeby przeszedł do nich, ten żalił się, że Tesla musi dawać podwyżki, bo OpenAI agresywnie rekrutuje jej pracowników, oferując im ogromne pakiety wynagrodzeń.

"To najbardziej zwariowana walka o talenty, jaką widziałem do tej pory". Tak deklarował we wpisie na X Elon Musk. 

I na razie nie widać jej końca. Choć firmy organizują specjalistyczne programy doszkalające, a uniwersytety oferują nowe kursy z zakresu tworzenia AI, minie kilka lat, zanim na rynku pojawi się tylu ekspertów z wiedzą i doświadczeniem, żeby zaspokoić rozbuchane potrzeby firm. Oczywiście może się także okazać, że bańka pęknie i zapotrzebowanie spadnie gwałtownie. Choć niemal z pewnością nastąpi korekta boomu na AI, to raczej nie będzie na tyle duża, żeby popyt na ekspertów spadł do takiego stopnia, że rynek go od razu zaspokoi.

Dlatego firmy są teraz skazane na wojnę o pracowników. A w niej istotne są ciekawe projekty, kultura zarządzania, ale także – nie oszukujmy się – stare dobre pieniądze. Znów – te są w ręku najbogatszych – Microsoftu, Google'a, Amazona. A "zasoby ludzkie" to tylko element układanki wysokich kosztów tworzenia ogromnych modeli bazowych. 

Dane identyczne z naturalnymi

Dla stworzenia dobrego modelu generatywnej sztucznej inteligencji kluczowe są duże bazy danych. Popularne modele językowe, takie jak ChatGPT, Bard czy Llama, są trenowane na ogromnych zbiorach różnego rodzaju tekstów: od wpisów na Wikipedii, przez artykuły naukowe i książki, po publikacje prasowe.

ChatGPT 3.5, który z pewnością karmiony był znacznie mniejszą bazą niż jego następca, został przeszkolony na 570 gigabajtach danych tekstowych. To około 300 miliardów słów, czyli jakieś 3750 tys. przeciętnej długości książek. Człowiek, nawet najbardziej rozmiłowany w szlachetnej sztuce czytania, nie ma szans tyle przeczytać, nie mówiąc o zapamiętaniu tego wszystkiego. Potrzebowałby na to kilku tysięcy lat.

AI przyswaja wiedzę w tempie dla nas niemożliwym do osiągnięcia, ale napotyka za to na zupełnie inne problemy. Zdobycie takiej ilości danych nie jest łatwe, szczególnie jeśli chce się to zrobić w pełni legalnie, o etyce nawet nie wspominając, bo nią nikt sobie raczej głowy nie zaprząta. O tym, czy tak w ogóle można, jeszcze nikt nie zdecydował, bo do tej pory nie było to problemem. Nie było technologii, która mogłaby w taki sposób na taką skalę wykorzystywać cudze prace. Ponieważ rozstrzygnięć prawnych nie było, zdecydowano się postąpić zgodnie z credo Doliny Krzemowej – lepiej prosić o wybaczenie niż o pozwolenie, i AI wzięła sobie gigabajty danych z internetu. 

Dlatego OpenAI musi się teraz bronić w sądach przed pozwami pisarzy, artystów czy wydawców prasy zarzucających firmie, że karmiąc swój model dziełami objętymi prawami autorskimi, złamała rzeczone prawa. Firma Sama Altmana broni się, że wykorzystywała cudze prace w ramach zasady dozwolonego użytku, ale wydaje się, że bierze pod uwagę, że może przegrać te procesy.

Walcząc w sądzie z "New York Timesem" i przekonując, że firma miała pełne prawa wykorzystywać artykuły firmy do trenowania swoich modeli, OpenAI równolegle podpisuje milionowe umowy z kolejnymi wielkimi grupami wydawniczymi, takimi jak News Corp czy Axel Springer (pierwszy ze wspomnianych wydawców ma dostać od firmy 250 mln dol. w ciągu pięciu lat, a drugi "kilkadziesiąt milionów" – dokładne wartości zwykle nie są podawane do wiadomości publicznej), żeby móc już bez żadnych prawnych wątpliwości korzystać z ich archiwów i bieżących publikacji. Media, już nie raz wykiwane przez technologicznych gigantów, pokornie podpisują te cyrografy, sprzedając po kosztach swoje dusze.

Ale choć te umowy wyglądają jak próba ucywilizowania rynku i wprowadzenia zasad, OpenAI nie przestaje zdobywać danych w sposób budzący – znów prawne i etyczne – wątpliwości. 

Według doniesień "New York Timesa" firma miała stworzyć przekładające mowę na tekst narzędzie Whisper specjalnie po to, żeby spisywać filmy opublikowane na YouTubie i karmić takimi zapisami GPT 4. Dziennikarze informują, że firma miała przetranskrybować aż milion godzin filmów z YouTube'a – więcej niż w ciągu tygodnia ogląda przeciętny 15-latek. W tym wypadku, poza pytaniami o legalność i etykę korzystania z cudzej pracy, dochodzi jeszcze kwestia zgodności takich działań z regulaminem YouTube'a. Widnieje tam bowiem zakaz nie tylko wykorzystywania wrzucanych na serwer treści do tworzenia aplikacji firm trzecich, ale także zakaz odtwarzania ich przez automaty.

Dziennikarze, powołując się na rozmowy z pracownikami Google'a, twierdzą, że choć Google doskonale zdawał sobie sprawę z tego, co robi OpenAI, nie reagował... bo sam trenuje na tych filmach swoje modele językowe. Przedstawiciele Google'a zaprzeczają, że wiedzieli o działaniach konkurencji, ale potwierdzają, że korzystają z filmów do trenowania AI. Zaznaczają jednak, że robią to legalnie i zgodnie z własnymi zasadami. 

To, co robi OpenAI i Google, to nie wyjątek. To reguła. Inne firmy technologiczne też doszły do wniosku, że w wyścigu do jak największej ilości danych wszystkie chwyty są dozwolone. W końcu, jak powtarzają, rozwój sztucznej inteligencji ma być przełomem w historii ludzkości, choć nie do końca wiadomo, do czego doprowadzi. Jednak Doliną Krzemową rządzi makiawelizm: wielki cel uświęca wszelkie środki. 

Stąd między innymi ostatnia afera z Metą, która wysyłała użytkownikom Facebooka i Instagrama w Europie wiadomości mówiące, że jeśli nie chcą, żeby ich dane były wykorzystywane do trenowania sztucznej inteligencji, to muszą się z tej opcji samodzielnie wypisać. Już sam pomysł takiego wykorzystywania wrażliwych danych użytkowników budziłby pewnie wątpliwość, a firma dorzuciła do tego jeszcze szereg złych praktyk, co tylko dało oręż do ręki sceptykom. 

Po pierwsze, Meta skorzystała z coraz częściej krytykowanego mechanizmu opt-out zamiast opt-in, czyli założyła domyślną zgodę użytkownika i przerzuciła na niego obowiązek wypisania się z projektu. Po drugie, na takie wypisanie dała bardzo mało czasu: do 26 czerwca. Po trzecie, komunikat, w którym informowała o zmianach, był napisany niejasno. Nie było w nim choćby informacji na temat tego, jak miałoby wyglądać trenowane w ten sposób AI, więc de facto użytkownicy nie mieli pojęcia, na co się zgadzają. Po czwarte, dotarcie w ogóle do opcji wypisania się, szczególnie jeśli informacje o zmianach dostało się na telefonie, wymagało przebycia złożonej z wielu kliknięć drogi. Po piąte, zamiast dać użytkownikowi do odznaczenia proste pole "nie godzę się", kazała mu wypełnić kilka pól, w tym pisać rozprawkę z uzasadnieniem swojej decyzji. Po szóste zaznaczyła, że uzasadnienie mogłoby nie zostać uznane, ale nie sprecyzowała, jakie kryteria by o tym decydowały. Jednym słowem utrudniła użytkownikom z Unii Europejskiej wypisanie się z zaszczytu bycia darmowym trenerem AI, jak tylko mogła. 

Doliną Krzemową rządzi makiawelizm: wielki cel uświęca wszelkie środki. 

Na takie działania zareagowała organizacja pozarządowa Nyob (Non of Your Business), która z jednej strony zwróciła uwagę na problematyczność działań Mety w mediach społecznościowych, a z drugiej zaczęła wysyłać do urzędów zajmujących się w różnych krajach ochroną prywatności prośby, żeby przyjrzały się w trybie pilnym temu, co Meta wyrabia. Zadziałało przynajmniej częściowo, bo choć Meta nie powiedziała, że kompletnie porzuca swoje plany, oznajmiła, że wstrzymuje się z nimi, dodając z wyrzutem, że może to pozbawić "europejskich użytkowników innowacji w zakresie sztucznej inteligencji".

Dane, też dane i gówno dane

Samo skuteczne zdobywanie nowych danych jest tylko jednym problemów, z którymi mierzą się firmy zajmujące się tworzeniem modeli AI. Ważna jest też jakość tych danych. Cały internet nie dba o faktografię tak jak Wikipedia, a zła jakość danych na wejściu przekłada się na złą jakość na wyjściu. Przekonało się o tym niedawno OpenAI, które nie dość dobrze oczyściło ze spamu bazy danych z reklamami stron pornograficznych i hazardowych do trenowania ChataGPT-4o w języku chińskim. W efekcie model, zamiast poprawić swoją sprawność językową, stracił ją. 

Dlatego właśnie dane dzieli się na te wysokiej i niskiej jakości. I choć bywa, że granica między nimi się zaciera, to te pierwsze są zwykle pisane przez specjalistów w danej dziedzinie i są poprawne językowo. Pod drugą kategorię podpadają posty z mediów społecznościowych, z forów takich jak Reddit czy komentarze pod tekstami na Pudelku, które jakościowo, ale przede wszystkim merytoryczne, zostają daleko w tyle za naukowymi opracowaniami publikowanymi przez ekspertów i sprawdzonymi przez redaktorów czy recenzentów. 

Do szkolenia modeli językowych preferuje się oczywiście pierwszą grupę, ale to nie znaczy, że w obliczu coraz większych modeli i niesłabnącego zapotrzebowania na dane ta druga także nie zaczyna wyglądać kusząco. W końcu nie bez przyczyny OpenAI zawarło umowę z Redditem, a Meta próbowała wymusić na nas oddanie swoich danych.

Ale nawet jeśli wszystkie dane są bogate i dobrej jakości, pozostają wyzwania interpretacyjne wynikające z tego, że AI nie myśli jak człowiek, więc nie rozumie przyswajanej treści i nie jest w stanie ich zinterpretować. Dlatego kiedy Melanie Mitchell, badaczka sztucznej inteligencji z Meksyku, zapytała AI Overview Google'a, ilu prezydentów Stanach Zjednoczonych było muzułmanami, model powołał się na rozdział książki naukowej – czyli jednym z tych źródeł o, których śnią nocami twórcy AI – ale mimo to podał złą odpowiedź. Autorka rozdziału analizowała przedstawienie muzułmanów w historii Ameryki i między innymi omawiała fake newsy mówiące, że Barack Obama jest wyznawcą islamu. A jednak ChatGPT z eseju wydobył zupełnie odwrotną informację, odpowiadając, że "Stany Zjednoczone miały jednego muzułmańskiego prezydenta, Baracka Obamę". "Biorąc pod uwagę, jak bardzo [ten model] jest niewiarygodny, nie powinien być opublikowany” - komentowała Mitchell. Takie jednak wpadki firmy wpisują w ryzyko korzystania z modeli i umieszczają w nich, jak firmy tytoniowe na opakowaniach papierosów, informacje o tym, że maszyna może się mylić. 

Dlatego najważniejsza dla firm jest teraz pogoń za bazami danych. Szczególnie że przewiduje się, że niskiej jakości dane do trenowania modeli językowych wyczerpią się do 2030-2050 roku, a wysokiej jakości mają się wyczerpać już za dwa lata – do 2026 roku. Przekonanie o tym, że większa ilość danych przełoży się bezpośrednio na lepszy model, jest w Dolinie Krzemowej powszechne. W mniejszości są tacy naukowcy jak Percy Liang, profesor informatyki na Uniwersytecie Stanforda, który w rozmowie z "MIT Technology Review" twierdził, że to niekoniecznie prawda i że jakość danych jest znacznie ważniejsza niż ich skala.

Firmy stają więc przed wyzwaniem ograniczonej dostępności danych, co zmusza je do poszukiwania nowych, kreatywnych rozwiązań. Jednym z pomysłów jest skorzystanie z syntetycznych danych, czyli danych wygenerowanych przez modele sztucznej inteligencji tylko po to, żeby potem wykorzystać je w celu uczenia następnej generacji sztucznej inteligencji. Nie wszyscy są jednak przekonani, że to dobry pomysł. Grupa brytyjskich i kanadyjskich naukowców opublikowała artykuł dowodzący, że trenowane w ten sposób algorytmy zaczną gwałtownie tracić na jakości i z czasem staną się bezużyteczne. Ta wizja jest tym bardziej niepokojąca, im więcej internetu – na którego zasobach uczone są modele językowe – jest generowanego przez same modele.

Bój się Big Techów, nawet gdy niosą dary

Bezpardonowy wyścig sprawił, że nawet największym uczelniom coraz trudniej jest zachować u siebie ekspertów od sztucznej inteligencji. Jeszcze w 2011 roku w USA i Kanadzie około 41 proc. absolwentów studiów doktoranckich na kierunkach związanych z AI pozostawało na uczelni. W 2022 roku na taki krok zdecydowało się już tylko 20 proc. osób. Zanika też migracja z sektora prywatnego na uczelnie. Na przestrzeni 2019-2020 z 13 do 7 proc. spadła liczba ekspertów, którzy zdecydowali się zamienić firmową kantynę na uniwersytecką stołówkę. A od tego zależy, do kogo trafia wiedza na temat najważniejszej obecnie technologii. 

W 2023 roku firmy z sektora technologicznego stworzyły 51 istotnych modeli opartych na uczeniu maszynowym. W tym samym czasie samodzielnie akademicy wypuścili ich tylko 15, a we współpracy z firmami komercyjnymi 21. Rosnące wydatki na tworzenie i trenowanie baz danych niemal wyeliminowały z wyścigu pionierów badań nad AI – uniwersytety. A to oznacza przejęcie jednej z najważniejszych gałęzi nauki przez sektor prywatny, który nie ma obowiązku dzielenia się wiedzą ze społeczeństwem. A to ono zainwestowało w wyszkolenie ekspertów, z których wiedzy sektor korzysta. 

Nie tylko uczelnie mają problemy z konkurowaniem z gigantami, także mniejsze firmy są w trudnej sytuacji, jeśli chcą zawalczyć o choćby rynkową niszę.

Bo innowacyjność – tak opiewana w Dolinie Krzemowej – na niewiele się zdaje, jeśli twoja konkurencja to jedne z największych, a przede wszystkim najbogatszych firm świata. 

To, jak duże firmy zjadają innowacyjne startupy, dobrze pokazuje historia Nuance, założonego w 1992 roku startupu, który pracował nad technologią rozpoznawania mowy w czasie rzeczywistym. Szło mu tak dobrze, że sam Apple w 2009 roku wykorzystał jego produkty do iPhone'a 3GS. Za jego przykładem poszli inni producenci telefonów oraz Google, Amazon i Microsoft.

Jednak gdy potencjał tej technologii stawał się coraz bardziej oczywisty, giganci postanowili postawić na stworzenie własnych rozwiązań. Święcący triumfy startup z przychodami 1,7 mld dol. za 2013 rok nie miał szans. Zaczęło się podbieranie z firmy najlepszych pracowników, którym Big Techy mogły zaoferować większe zarobki i większe zaplecze finansowe dla projektów. Z czasem nie tylko przestały polegać na produktach Nuance'a, ale zaczęły z nim konkurować. Relatywnie młoda firma nie miała szans z gigantami, którzy mieli sieć wiernych klientów, chętnie kupujących to, co obrandowane nadgryzionym jabłkiem, oknem lub kolorową literką G. Nuance próbował się jeszcze bronić, znajdując niszę w postaci rynku zdrowia, ale w 2021 roku został kupiony przez Microsoft.

Teraz podobny los może spotkać mniejsze firmy zajmujące się AI, które nie będą w stanie konkurować finansowo z gigantami o talenty i nie będą miały dostępu do takich ilości danych jak konkurencja. Na razie giganci technologiczni raczej ostrożnie odnoszą się do przejmowania mniejszych firm i raczej w nie inwestują, w zamian zdobywając wpływ na ich działania.

Nie zawsze wpływy te są aż tak widoczne jak w wypadku OpenAI, w którego Microsoft zainwestował 10 mld dol. i w którym ma 49 proc. akcji. Gdy w listopadzie zeszłego roku Sam Altman został zwolniony z funkcji dyrektora generalnego, Microsoft skrytykował tę decyzję i zaoferował, że chętnie przyjmie do siebie jego i grupę wiernych mu pracowników, która w geście solidarności chciała odejść z szefem. Choć o tym, co się działo za kulisami, wiemy niewiele, spekuluje się, że pozycja Microsoftu i osobiste zaangażowanie jego CEO, Satyi Nadelli, wpłynęły na to, że dramat szybko się skończył i to po myśli Altmana, który wrócił do Open AI. Rada, która go odwołała, została powoli rozmontowana.

Taka jednak demonstracja wpływu była niebezpieczna. Klimat dla wielkich firm technologicznych zmienił się dramatycznie w ciągu ostatnich kilku lat. Korporacje te długo były hołubione w Stanach Zjednoczonych jako pionierzy innowacji i duma nowoczesnego kraju. Wraz z kolejnymi procesami, przesłuchaniami w kongresie i aferami ten obraz zaczął się jednak zmieniać i teraz wielkim firmom technologicznym nie tylko patrzy się na ręce, ale też zaczyna się zadawać coraz więcej trudnych pytań – na przykład o to, czy Big Techy nie korzystają z nieuczciwej przewagi konkurencyjnej na rynku rozwijania AI. 

Korporacje technologiczne były hołubione w Stanach Zjednoczonych jako pionierzy innowacji i duma nowoczesnego kraju.

Dlatego, jak się spekuluje, firmy sięgają po nietypowe rozwiązania. 19 marca 2024 roku Microsoft zatrudnił Mustafę Suleymana, jednego z najlepszych ekspertów w dziedzinie rozwiązań AI i założyciela stratupu Inflection AI. Zamiast kupić jego firmę bezpośrednio, Microsoft kupił jej ludzi – samego Suleymana i jego zespół ekspertów. To nietypowe przejęcie, a raczej nieprzejęcie, które ma ochronić Microsoft przed oskarżeniami o działania monopolistyczne.

Jeśli rzeczywiście taki był cel, trik nie wypalił.

"The Wall Street Journal" poinformował, że FTC (Federalna Komisja Handlu) zaczęła dochodzenie antymonopolowe przeciwko Microsoftowi właśnie w związku ze współpracą z Inflection AI. 

Wcześniej Amerykański Departament Sprawiedliwości i Federalna Komisja Handlu dogadały się w sprawie dochodzenia antymonopolowego w branży AI. Urzędnicy planują zbadać, czy Nvidia i Microsoft swoje dominujące pozycje na rynku osiągnęły bez stosowania praktyk monopolistycznych. Badaniem Microsoftu zajmie się FTC, którego szefowa Lina Khan zamierza przyjrzeć się bliżej działalności gigantów z Doliny Krzemowej. 

Bo na razie AI to technologia, która, jak się nam obiecuje, ma zmienić wszystko, poza własną branżą i tym, kto w niej rozdaje karty. Choć w mediach pojawia się mnóstwo nazw nowych firm, takich jak Anthropic, Inflection AI czy Open AI, to za nimi często kryją się pieniądze i wpływy starych dobrych Big Techów. Jak twierdzi w rozmowie z Bloombergiem Clément Delangue, CEO i współzałożyciel Hugging Face, jednego z najwyżej wycenianych startupów z obszaru AI, małe firmy niemal masowo szukają na rynku większych, które je wykupią. Sam ma dostawać średnio 10 takich ofert tygodniowo. Kto więc myślał, że innowacyjna technologia sprawi, że na rynku pojawiają się nowe innowacyjne firmy, może się srogo zawieść. Sam świetny produkt nie wystarczy, jeśli można go skopiować, wyskalować, a potem wykupić pracowników mniejszej firmy. 

Trwa bezpardonowy wyścig – etyka i lęk przed pozwami muszą zejść na dalszy plan. Zresztą łzy spowodowane wyrzutami sumienia można wytrzeć plikiem studolarówek, a pozwami zajmą się sztaby prawników. A my obudzimy się w świecie, w którym firmy, które już i tak zgromadziły niepokojąco dużo władzy, będą jej miały jeszcze więcej. Oczywiście w imię zwiększenia naszej wydajności, pozbawienia ludzi konieczności kreatywnego myślenia i dla dobra ludzkości.