Te dwie litery wpłyną na życie każdego z nas. W 2023 r. nie było ważniejszego tematu
Choć tegoroczne podsumowanie najczęściej wyszukiwanych fraz w Google pokazuje, że żyliśmy wyborami to w rzeczywistości 2023 jest rokiem sztucznej inteligencji. Dowodów nie trzeba szukać daleko.
Kiedy rok temu świat zachwycał się ChatGPT, miałam bardzo mylne przekonanie, że to minie, że to tymczasowe, że w końcu się znudzi, bo to już było. A jednak sukces eksperymentalnego chatbota dosłownie zdefiniował cały mijający rok. W zasadzie nie było tygodnia bez newsa o AI, nie było miesiąca bez wydarzenia, które w jakiś sposób nie wpłynęło na to, jakie AI jest (lub jak je postrzegamy) dzisiaj.
Dlatego zatrzymajmy się na przeglądzie jedynie tych najważniejszych wydarzeń.
Preludium - ChatGPT
Aby zrozumieć mijający rok należy cofnąć się do ostatniego miesiąca 2022 r. Pod koniec listopada OpenAI udostępnił chatbota ChatGPT. Wbrew pozorom i powszechnym opiniom ChatGPT nie był przełomowy - był jedynie eksperymentem, który miał sprawdzić, co może się stać, jeżeli inżynierowie startupu dostroją istniejący już duży model językowy GPT-3, by był bardziej płynny w konwersacjach i oddadzą go za darmo w ręce internetu. Na efekty nie trzeba było długo czekać, bowiem globalna społeczność zachłysnęła się chatbotem, który z nadzwyczajną prędkością językową potrafił odpowiedzieć na każde zapytanie. Prawie każde, bo na niektóre odpowiadał błędnie, a na inne odmawiał odpowiedzi (np. zapytania związane z treściami nielegalnymi czy rasistowskimi).
Mimo wszystko kości zostały rzucone, a niemalże zabawkowy ChatGPT popchnął ogromne domino.
Microsoft zacieśnia współpracę z OpenAI, a jej owoc podbija internet
Partnerstwo Microsoftu i OpenAI sięga 2019 r., gdy koncern z Redmond zainwestował miliard dolarów w nowopowstały startup (do 2019 OpenAI miał charakter organizacji non-profit). Ponadto efektem kontraktów pomiędzy obiema firmami było przeniesienie usług OpenAI na platformę Microsoft Azure oraz uzyskanie przez Microsoft statusu preferowanego partnera OpenAI w zakresie komercjalizacji nowych technologii AI.
Partnerstwo obu firm wskoczyło na wyższy poziom pod koniec stycznia 2023 r., kiedy Microsoft zainwestował rekordową sumę 10 miliardów dolarów w OpenAI, a zaledwie dwa tygodnie później Satya Nadella przedstawił światu kolejnego chatbota - Bing (obecnego Copilota). Bing korzystał ze sztucznej inteligencji OpenAI (a konkretnie modelu GPT-4, o czym świat przekonał się trochę później) i był konkurencyjny wobec zarówno samego ChatGPT, mając stały dostęp do internetu i w wielu przypadkach lepiej formułował odpowiedzi, jak i chatbota Google'a, który premierę miał zaledwie dzień później i przez wiele tygodni był dostępny jedynie dla użytkowników ze Stanów Zjednoczonych.
Lutowa premiera chatbota Microsoftu to jedynie początek, bowiem w ciągu roku Microsoft znacznie rozszerzył dostępność AI w swoich produktach. Warto tu wspomnieć choćby Microsoft Designer, uwolnienie chatbota z więzienia zwanego Microsoft Edge, integrację Copilota z pakietem Microsoft 365 i systemem Windows czy dodanie multimodalności do chatbota.
Bard miał być królem, lecz Google spadł z tronu
Przez wiele lat utożsamialiśmy Google z pionierem w dziedzinie sztucznej inteligencji. W końcu to Google ma w swoim posiadaniu DeepMind, które stworzyło AlphaZero - AI, która potrafi nauczyć się grać w gry w ciągu kilku godzin - czy architekturę transformer, bez której nie istniałby żaden z modeli generatywnej sztucznej inteligencji, o których dziś mówimy.
Bard miał być chatbotem, który odpowie na ChatGPT, jednocześnie dając Google'owi przewagę w wyścigu generatywnej AI. W praktyce okazał się ogromną porażką. Zawiódł nie tylko PR-owo, prześcignięty o jeden dzień przez Binga (w promocyjnym wideo naukowcy wskazali błędy rzeczowe, jakie wygenerował bot), ale i konsumencko. W przypadku chatbota Bing globalna dystrybucja narzędzia zajęła niecały miesiąc, a w jeśli chodzi o Barda - pięć miesięcy. A i tak okazał się być półproduktem, nierzadko gorszym od ChatGPT.
GPT-4 w centrum zainteresowania... właściwie wszystkich
Po ogromnym sukcesie ChatGPT - ale i narastającej presji na OpenAI, by wypuścić następcę leciwego GPT-3 - w marcu do konsumentów trafił model GPT-4 i z miejsca wywołał furorę. Bardziej pojętny, bardziej rozgadany, mniej halucynujący, a do tego poliglota i artysta-malarz. Pomimo że na OpenAI spadła fala krytyki po tym, jak GPT-4 oddano w ręce użytkowników bez właściwej dokumentacji technicznej, stał się modelem wyznaczającym standard dla innych modeli generatywnej AI.
Gemini miało pomóc odzyskać chwałę
Po tym jak okazało się, że chatbot Google oraz inne modele generatywnej AI kulały, podczas konferencji Google I/O 2023 w maju koncern zapowiedział Gemini, mający stanowić bezpośrednią odpowiedź na GPT-4. Doczekał się premiery w grudniu i choć na papierze wygląda imponująco - pokonując zarówno GPT-4 - jak i ludzkich ekspertów, to narracja Google'a o świetności Gemini jest trochę dziurawa.
LLaMA Mety z wpadką i pytaniami
W mijającym roku Meta zaprezentowała dwa modele generatywnej AI, którymi może pobawić się każdy: LLaMA i jego następca LLaMA 2. O obu zrobiło się głośno, lecz z różnych powodów. Pierwsza LLaMA miała być udostępniona jedynie dla środowisk badawczych i edukacyjnych, a skończyła na internetowym forum 4chan. Druga inkarnacja LLaMA wywołała falę krytyki skierowaną w stronę Mety, gdyż zapewnienia o otwartoźródłowości w przypadku LLaMA 2 okazały się jedynie reklamą. Model ten jest dostępny do pobrania na licencji, która nijak nie przypomina open source, a Meta nie udostępniła kodu źródłowego i danych treningowych LLaMA 2.
I chciałabym napisać tu coś więcej o Mecie, lecz zdecydowana większość dokonań Meta AI pozostała w kuchni. Bowiem koncern dokonał kilku imponujących osiągnięć w dziedzinie AI, a nawet załadował ją do swoich produktów. Niemniej jednak te osiągnięcia - poza buńczucznymi materiałami prasowymi - nie są dostępne dla świata, a sztuczna inteligencja w naszych ulubionych społecznościówkach to nadal United States only.
Meta AI - trzy najważniejsze dokonania tego roku:
"Now and Then", czyli nowa piosenka Beatelsów
"Now and Then" to nie tyle przełom technologiczny co nowy element otaczającej nas rzeczywistości. To wydany w listopadzie bieżącego roku utwór The Beatles - a konkretnie ballada, którą John Lennon napisał i której demo nagrał w 1977 r., lecz nieukończona przeleżała ponad 30 lat w beatlesowej szufladzie.
Za sprawą wysiłków Paula McCartneya oraz Ringo Starra, którzy za pomocą AI odtworzyli głos Lennona oraz wpletli w ścieżkę dźwiękową gitarę George Harrisona, utwór ostatecznie został wydany.
Choć "Now and Then" nie jest przełomem - bo obecnie YouTube i TikTok zalane są utworami wykonanymi przez AI za pomocą próbek głosów żyjących artystów (tu warto wspomnieć choćby "utwór" Drake'a i The Weekend) - to otwiera nowe kwestie, które muszą zostać uregulowane przez prawo i etykę. Czy utwór wygenerowany przez AI za pomocą ludzkich próbek należy do właścicieli głosu, AI czy pomysłodawcy? Ile warte są próbki ludzkiego głosu? Kto ma prawa autorskie do głosu artysty po jego śmierci? Czy generowana w ten sposób muzyka może być definiowana jako utwór? Czy możemy uczynić artystów muzycznych nieśmiertelnymi?
Sam Altman zwolniony z OpenAI. Dramat w trzech aktach
Jeszcze miesiąc temu wydawało się, że druga połowa roku w AI obędzie się bez fajerwerków. Jednak nic bardziej mylnego, bowiem zarząd OpenAI niczym grom z jasnego nieba wręczył Samowi Altmanowi wypowiedzenie, co rozpoczęło sagę negocjacji, odejść, powrotów i oficjalnych deklaracji szefa Microsoftu. Po zwolnieniu Altman najpierw wrócił do OpenAI, by negocjować z zarządem, jednak gdy to nie dało efektu, Altmana oraz innych zwolnionych (ale także tych, którzy w ramach solidarności odeszli) z OpenAI zadeklarował się przyjąć Microsoft. Koniec końców Sam Altman wraz z przychylnymi mu pracownikami wrócił do OpenAI, a zarząd uległ restrukturyzacji. Wkroczył do niego także przedstawiciel Microsoftu.
Mamy tu problem dotyczący firmy, a nie AI - jednak biorąc pod uwagę rolę, jaką odgrywa OpenAI nie tylko w świecie sztucznej inteligencji, ale i technologii jako takiej, było ono masywnym tąpnięciem, które uwidoczniło dwa fakty. Po pierwsze relacja z Microsoftem to nie tylko partnerstwo, ale wręcz zależność i w interesie koncernu jest utrzymanie OpenAI takim, jakim jest obecnie. Po drugie OpenAI nie jest jednomyślne, bo trawi go spory wewnętrzny konflikt - komercjalizacja. Przypomnijmy, że OpenAI zaczęło jako organizacja non-profit, a obecnie posiada dwa człony: organizację non-profit i organizację (de facto firmę) o strukturze capped for-profit, a same modele AI zostały skomercjalizowane. To właśnie wywołało konflikt w OpenAI, bowiem Sam Altman dążył do komercjalizacji, co nie podobało się części zarządu. I naiwnie byłoby myśleć, że konflikt jakkolwiek się zakończył. Po prostu już nie jest medialny.
AI Act bezprecedensowym posunięciem Unii Europejskiej
9 grudnia Unia Europejska ogłosiła osiągnięcie wstępnych porozumień w sprawie pierwszych na świecie przepisów dotyczących sztucznej inteligencji, tzw. ustawy o sztucznej inteligencji (AI Act). AI Act ma na celu zapewnienie, że systemy sztucznej inteligencji są bezpieczne, zgodne z prawem i przestrzegają praw podstawowych i wartości UE. Ustawa ta reguluje sztuczną inteligencję, opierając się na jej potencjalnej zdolności do wyrządzania szkód społeczeństwu. Określa bardziej rygorystyczne zasady dla systemów sztucznej inteligencji o wyższym ryzyku oraz zakazuje niedopuszczalnych zastosowań sztucznej inteligencji, takich jak ocena społeczna lub rozpoznawanie emocji w niektórych kontekstach. Ustanawia ona również grzywny za naruszenia ustawy o sztucznej inteligencji jako procent globalnego rocznego obrotu firmy naruszającej przepisy lub z góry określoną kwotę, w zależności od tego, która z nich jest wyższa.
W dużym uproszczeniu prawo europejskie ma być wzorcem dla świata w zakresie korzystania z AI w sposób korzystny i bezpieczny dla człowieka. Ma ono dotyczyć nie tylko zagadnień związanych z automatyzacją, dezinformacją i bezpieczeństwem, ale także zastosowań SI w różnych sektorach, tj. edukacja, zdrowie i bankowość. Prawo to będzie miało znaczenie dla głównych koncernów przodujących w AI, tj. Google, Meta i Microsoft. Choć nie weszło jeszcze w życie, jest pierwszym w historii kompleksowym aktem prawnym, który jasno nakreśla granice i obowiązki w tworzeniu i wykorzystywaniu AI.
Sztuczna inteligencja w 2023 r. wkroczyła na zupełnie nowe tory
Jeszcze w ubiegłym roku fraza sztuczna inteligencja miała dość negatywne konotacje, kojarzyliśmy ją z robotami i fascynującymi systemami komputerowymi równie inteligentnymi co my. Jednak wyścig AI zapoczątkowany jeszcze w zeszłym roku przez OpenAI odwrócił trend i zmienił nasze skojarzenia. Jednak czy na dobre?
Z jednej strony zaakceptowaliśmy AI jako część otaczającej nas rzeczywistości, z drugiej sztuczna inteligencja stała się modnym zwrotem. Każda firma technologiczna chce ją mieć, każdy o niej mówi, każdy chce ją zrozumieć i wypróbować. Z innej strony nabrała ona także negatywnych konotacji, bowiem powiedziałabym, że jedną z popularniejszych obelg tego roku wobec wszelkiego rodzaju twórczości jest wygląda (lub brzmi) jak wygenerowane przez AI.
Co warto podkreślić nadal mówimy tu o generatywnej sztucznej inteligencji, czyli AI, która tworzy treści na podstawie pewnych prawidłowości zauważonych przez komputerowy system w danych treningowych. AI w 2023 r. nadal stała daleko od silnej sztucznej inteligencji, czyli AI, o której myślimy oczami wyobraźni, widząc roboty podobne do człowieka.
AI 2023 r. to przede wszystkim komercyjna generatywna AI, której rozwój był priorytetem dla każdej organizacji zaangażowanej w AI. Nawet Google i OpenAI, które przez lata były synonimem naukowego postępu w uczeniu maszynowym i sztucznej inteligencji, w mijającym roku przestawiły się na rozwój komercyjnych rozwiązać generatywnej AI.
I 2024 zapowiada się wyglądać podobnie.
Więcej na temat sztucznej inteligencji:
- Zabierze ci pracę, ale wygeneruje osiem krzywych palców. Dlaczego SI jest beznadziejna w tworzeniu dłoni?
- Mój syn ma 6 lat. Jak czegoś nie wiem, to mówi „zapytaj tego swojego dżi pi ti”. AI weszła w naszym domu na pełnej
- Zrobili ze sztucznej inteligencji produkt na sprzedaż. To już koniec SI, jako przedmiotu nauki