Dlaczego DeepSeek jest taki dobry? Biały Dom, OpenAI i Microsoft: bo kradł
Według doniesień anonimowych informatorów powiązanych z Microsoftem i OpenAI firmy obecnie próbują udowodnić, że sukces DeepSeek został zbudowany na kradzieży danych.
Pokazany niespodziewanie czatbot DeepSeek R1 - a wczoraj także generator obrazów DeepSeek Janus Pro - spędzają sen z powiek Dolinie Krzemowej. Stworzenie dużego modelu językowego, porównywalnego, a w testach nierzadko wypadającego lepiej niż modele OpenAI, to jedno. Ale ogłoszenie, że dokonano tego wręcz symbolicznym kosztem i przy niewielkim nakładzie mocy obliczeniowej, to drugie.
DeepSeek kradnie? Tak twierdzą OpenAI i Microsoft
Obecnie inżynierowie i naukowcy należącej do Marka Zuckerberga Mety dwoją się i troją, by w racjonalny sposób wyjaśnić sekret sukcesu DeepSeek. Podobnie jest w siedzibach OpenAI i Microsoftu - z tą różnicą, że eksperci obu firm badają twory DeepSeek pod kątem kradzieży.
Jak informuje Bloomberg, powołując się na anonimowych informatorów, Microsoft i OpenAI sprawdzają, czy DeepSeek do treningu swojej generatywnej sztucznej inteligencji użyło danych wyjściowych modeli OpenAI - czyli po prostu odpowiedzi, jakie czatboty i modele do generowania obrazu zwracały w odpowiedzi na polecenia tekstowe.
Zgodnie z przekazem serwisu, eksperci ds. bezpieczeństwa Microsoftu jesienią ubiegłego roku zaobserwowali aktywność osób, które ich zdaniem mogą być powiązane z DeepSeek. Osoby te "eksfiltrowały dużą ilość danych za pomocą interfejsu programowania aplikacji OpenAI (API)".
API (Application Programming Interface) to narzędzie, które pozwala różnym systemom oprogramowania komunikować się i współpracować ze sobą. OpenAI odpłatnie udostępnia API swojej generatywnej sztucznej inteligencji tak, aby każda zainteresowana osoba mogła wykorzystać systemy firmy do zbudowania własnych narzędzi - np. czatbota do obsługi klienta na stronie internetowej linii lotniczych.
Microsoft jako partner technologiczny OpenAI udostępnia firmie swoją infrastrukturę Microsoft Azure do działania systemów AI. Wobec czego koncern z Redmond może w czasie rzeczywistym obserwować i analizować ruch sieciowy przesyłany z i do usług OpenAI.
Microsoft ówcześnie zawiadomił OpenAI o nietypowej aktywności z użyciem API. Jak przekazali informatorzy Bloomberga, tego typu aktywność może naruszać warunki korzystania z usług OpenAI lub może wskazywać, że grupa działała w celu usunięcia ograniczeń OpenAI dotyczących ilości danych, które mogą uzyskać od modeli generatywnej AI.
Z teorią, że DeepSeek osiągnęło sukces dzięki danym pozyskanym od OpenAI, zgadza się David Sacks - przedsiębiorca, który z ręki Donalda Trumpa został powołany do administracji w roli przewodniczącego Rady Doradców Prezydenta ds. Nauki i Technologii.
David Sacks powiedział we wtorek, że istnieją „istotne dowody” na to, że DeepSeek korzystało z danych wyjściowych modeli OpenAI, aby pomóc w rozwoju własnej technologii. W wywiadzie dla Fox News Sacks opisał technikę zwaną w uczeniu maszynowym destylacją wiedzy, w ramach której jeden model sztucznej inteligencji wykorzystuje dane wyjściowe innego do celów szkoleniowych, aby rozwinąć podobne możliwości.
"Istnieją poważne dowody na to, że DeepSeek wydestylował wiedzę z modeli OpenAI i nie sądzę, by OpenAI był z tego powodu zadowolony"
- powiedział David Sacks na antenie Fox News.
Biały Dom ma interes w poznaniu tajemnic sukcesu DeepSeek, a to ze względu na projekt Stargate, który - choć finansowany czysto ze środków prywatnych - otrzymał aprobatę Donalda Trumpa i deklaracje niezbędnego wsparcia, jakiego prezydent może udzielić przedsięwzięciu. Nowy prezydent Stanów Zjednoczonych widzi w Stargate szansę na dominację nad Chinami pod względem rozwoju sztucznej inteligencji.
Więcej na temat DeepSeek: