REKLAMA

Apple pokazał OpenELM - swoją sztuczną inteligencję. Jest do pobrania za darmo

OpenELM to najnowsze dziecko inżynierów Apple'a, które konkurencję w swojej randze bije na głowę o... 2,36 proc. Choć wynik ten może nie być imponujący, to sama praca naukowców pokazuje w jakim kierunku zmierza Apple.

Apple pokazał OpenELM - swoją sztuczną inteligencję. Jest do pobrania za darmo
REKLAMA

Pomimo bycia technologicznym gigantem, Apple nie podjął znaczących działań wobec wyścigu w rozwoju generatywnej AI, który nieoczekiwanie rozpoczął ChatGPT. Nie oznacza to jednak, że w ogóle nie posiada własnej sztucznej inteligencji. Bowiem koncern ma własną jednostkę badawczą odpowiedzialną za rozwój uczenia maszynowego i sztucznej inteligencji.

Jednak obecne osiągnięcia koncernu nie porwały opinii publicznej, wobec Apple rośnie presja na implementację AI w tegorocznych produktach, a dodatkowo pojawiły się plotki, że gigant z Cupertino posłuży się rozwiązaniami konkurencji. Wobec czego doniesienia o modelu OpenELM, które opublikował sam koncern są całkiem interesujące.

REKLAMA

OpenELM nie wywrócił uczenia maszynowego do góry nogami, ale daje Apple'owi solidną dawkę wiedzy

24 kwietnia na stronie Badań nad uczeniem maszynowym Apple opublikowano publikację poświęconą OpenELM, serii dużych modeli językowych opracowanych przez naukowców i inżynierów Apple z pionu uczenia maszynowego.

Seria OpenELM jest otwartoźródłowa co oznacza, że każdy może zarówno pobrać model (udostępniony poprzez repozytorium Hugging Face) i uruchomić na własnym urządzeniu, jak i spojrzeć w techniczne szczegóły modelu.

OpenELM stworzono w czterech wariantach rozmiarowych: 270 milionów parametrów, 450 milionów parametrów, 1,1 miliarda parametrów i 3 miliardy parametrów. Parametry określają ile zmiennych model rozumie w procesie podejmowania decyzji na podstawie danych, na których został wyszkolony.

Dla porównania, zaprezentowany dwa dni temu model Phi-3-mini Microsoftu posiada 3,8 miliarda parametrów, z kolei GPT-3 - model poprzedzający GPT-4 i stanowiący podstawę dla działania GPT-3.5 (czyli ChatGPT) posiada 175 mld parametrów. Choć kilkaset milionów czy kilka miliardów wypada blado na papierze, to w praktyce są one pożądane przez koncerny technologiczne. A to ze względu na fakt, że koszt utrzymania działania małych modeli jest o wiele niższy, a ich mały rozmiar pozwala im na bycie uruchomionymi bezpośrednio na urządzeniach takich jak telefony i laptopy (tak jak ma to miejsce w przypadku Gemini na smartfonach Samsung i Pixel).

Dumą naukowców jest fakt, że OpenELM został wytrenowany jedynie na publicznie dostępnych zbiorach, m.in. zbiorze RedPajama czy Dolma. W porównaniu do innych otwartoźródłowych modeli, również wytrenowanych na publicznych zbiorach danych, OpenELM wykazał 2,36 proc. większą skuteczność w wykonywaniu zadań. Przede wszystkim tych związanych z przetwarzaniem tekstu, takich jak pisanie wiadomości email.

Co ważniejsze, owe testy zostały przeprowadzone na MLX, frameworku uczenia maszynowego dzięki któremu lokalnie uruchomione modele AI działają lepiej na czipsetach Apple Silicon, uruchomionym na MacBooku Pro M2 z 64 GB pamieci RAM. Oprócz udostępnienia OpenELM w repozytorium Hugging Face, Apple udostępniło także "kod do konwersji modeli do biblioteki MLX w celu wnioskowania i dostrajania [modelu] na urządzeniach Apple".

Wobec czego OpenELM wydaje się być kolejnym eksperymentem Apple na drodze do AI w pełni działającej na urządzeniu. Tym razem na większą skalę, a to ze względu na otwartoźródłowy charakter OpenELM. Udostępnienie go praktycznie każdej osobie w internecie, która ma odpowienie zasoby by uruchomić model, może dostarczyć koncernowi z Cuperitno danych o działaniu AI, których normalnie pion uczenia maszynowego nie posiadłby w ramach zamkniętych prac badawczych.

REKLAMA

Więcej na temat sztucznej inteligencji:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA