OpenAI płaci Polakowi za wciskanie hamulca. Profesor Mądry ma ważne zadanie

Pochodzący z Wrocławia informatyk i matematyk prof. Aleksander Mądry jest kierownikiem Center for Deployable Machine Learning na prestiżowej uczelni MIT, a w OpenAI zajmuje się przewidywaniem negatywnych skutków rozwoju sztucznej inteligencji. Czy praca dla twórców ChataGPT stoi w sprzeczności z misją akademicką? 

OpenAI płaci Polakowi za wciskanie hamulca. Profesor Mądry ma ważne zadanie

– Na pewno nie jestem koniem trojańskim, który przyszedł do OpenAI, aby powstrzymać tę firmę przed pracami nad sztuczną inteligencją – mówił otwarcie profesor Mądry, którego marcowy wykład w Polsce ściągnął tłumy. Teraz, na początku lipca, znów gości w Polsce na zaproszenie IDEAS NCBR i bierze udział w debacie "Science czy fiction? Jak sztuczna inteligencja zmienia naukę". Jednak po kilku miesiącach sytuacja w OpenAI daleka jest od idealnej. Po zawirowaniach, które dotknęły twórcę ChataGPT, czyli fali odejść i zwolnień, prasa lidera AI nie jest najlepsza.

Sam Altman odwiedził Polskę, gdy OpenAI miało problemy i cele lobbingowe. Jak jest z wizytą profesora Mądrego? Przekonamy się.

Ale wróćmy do początków. Przenieśmy się nad Odrę, skąd pochodzi prof. Mądry, który jest kolejnym – obok m.in. Jakuba Pachockiego, Szymona Sidora i Wojciecha Zaremby – Polakiem w firmie, która rozpoczęła rewolucję technologiczną na świecie. Rola Mądrego, który dołączył do OpenAI w maju 2023 roku, jest wyjątkowa. Ma dbać o to, żeby sztuczna inteligencja była bezpieczna dla ludzi i miała pozytywny wpływ społeczny. Brzmi to jak karkołomne wyzwanie albo zabieg czysto PR-owy.

Trudne zadanie, bo na razie ChatGPT czasami halucynuje, jego działania i trenowanie zżerają mnóstwo energii i wody, a standardy współpracy OpenAI z innymi podmiotami trudno nazwać przyjacielskimi.

Jako PR też brzmi to dziwacznie, bo po co gigantowi technologicznemu, którego celem jest skalowanie biznesu, etyk, ktoś kto na pierwszy rzut oka kojarzy się z hamulcowym? 

– Ludzie, którzy nie są blisko tego, nie rozumieją, jak szybko rozwija się sztuczna inteligencja, jak wielki jest wzrost jej mocy. Wiele osób, także polityków, myśli, że wciąż mamy czas. Ja wiem, że nie ma czasu. 
W krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały ogólną sztuczną inteligencję – tłumaczy Mądry i dodaje, że zmiana, którą przyniesie rozwój AI, będzie większa, niż wielu osobom się wydaje.

Z Wrocławia do Bostonu 

Droga na MIT (Massachusetts Institute of Technology) i do OpenAI wiodła przez Wrocław. W ogóle stolica Dolnego Śląska może pochwalić się szeroką reprezentacją Polaków na globalnym rynku sztucznej inteligencji. Z Wrocławia pochodzi kontrowersyjny biznesmen Miron Mironiuk, twórca CosmoseAI i inicjator Rady AI przy Ministerstwie Cyfryzacji (chodzi m.in. o powiązania z Chinami i narzędzia do śledzenia użytkowników, o czym pisał m.in. Piotr Szostak na łamach TVN24.pl), a także Jack (Jacek) Krawczyk - jedna z najważniejszych osób w Stanach Zjednoczonych, gdy chodzi o AI - który rozwija modele dla Google’a. 

– Jestem z Wrocławia. Tam robiłem studia magisterskie z informatyki i matematyki, a także osobno z fizyki. Na początku chciałem po prostu pisać gry komputerowe, ale jakoś tak wciągnąłem się w bardziej teoretyczną informatykę, pracę naukową i tak mi zostało – opowiada Mądry i dodaje, że pierwotnie chciał kontynuować studia w Polsce, ale mentorzy, których poznał na swojej drodze, m.in. prof. Leszek Pacholski (w latach 2005–2008 rektor Uniwersytetu Wrocławskiego) i prof. Krzysztof Loryś (dyrektor Instytutu Informatyki w latach 2005-2008), przekonali go do kontynuowania kariery akademickiej za Oceanem. 

Profesor Pacholski wspomina, że Mądry był studentem niezwykle ambitnym. 

– Gdy był na pierwszym roku studiów, uczestniczył w dość zaawansowanych zajęciach, które wtedy prowadziłem. Po zakończeniu semestru zaprosiłem go do mojego gabinetu i zaproponowałem, żeby w czasie wakacji popracował nad otwartym problemem z teorii baz danych, postawionym przez dwóch badaczy z Doliny Krzemowej. Zaraz po wakacjach Olek przedstawił rozwiązanie, napisane w takiej formie, że bez większych poprawek mogło zostać opublikowane w przyzwoitym, wydawanym przez Elsevier, czasopiśmie “Information Processing Letters” – opowiada Pacholski.

Mądry, idąc na studia doktoranckie, brał pod uwagę tylko dwie najlepsze uczelnie: MIT i Stanford. 

– Wolał przez rok intensywnie zabiegać o pozytywną decyzję jednej z nich, niż wybrać inną, także bardzo dobrą uczelnię – wspomina prof. Pacholski.

W końcu student z Wrocławia zdecydował się na Boston. 

–  Na MIT wciąż pracują ludzie, których prace i działania mnie inspirowały. To była ogromna szansa poznać takie osoby – podkreśla Mądry. 

Amerykański MIT jest uczelnią techniczną, ale w przeciwieństwie do politechnik, jakie znamy w Polsce, bardzo mocne są tam takie dziedziny nauki jak filozofia czy nauki społeczne. 

– W polskim systemie akademickim panuje duże rozróżnienie na nauki ścisłe i społeczne, w Stanach jest inaczej. Tutaj inżynierii blisko do filozofii. Nie aplikuje się na kierunek, ale na Uniwersytet i samemu dobiera plan studiów – wyjaśnia. 

Na MIT, pod kierunkiem Michela Goemansa i Jonathana A. Kelnera, Mądry napisał pracę doktorską “From Graphs to Matrices, and Back: New Techniques for Graph Algorithms” (pol. "Od grafów do macierzy i z powrotem: nowe techniki dla algorytmów grafowych"). W  2011 r. obronił ją i przez rok pracował w Microsoft New England Research w ramach badań postdoktorskich. Potem był adiunktem w dziedzinie informatyki w École Polytechnique Fédérale w szwajcarskiej Lozannie. Następnie miał kilkumiesięczny epizod pracy w  Google'u. W 2015 Mądry wrócił do Bostonu i zaczął pracę na MIT.  

"Wszyscy naukowcy są idealistami. Jak nie jesteś idealistą, to idziesz do przemysłu i robisz rzeczy, które dają więcej pieniędzy"

W 2018 roku został laureatem Nagrody Presburgera przyznawanej “młodemu naukowcowi za wybitny wkład w informatykę teoretyczną, udokumentowany opublikowanym artykułem lub serią opublikowanych artykułów”. 

W 2020 roku uzyskał tytuł profesora i został dyrektorem MIT Center for Deployable Machine Learning.

Jak sam mówi, jest idealistą.

– Wszyscy naukowcy są idealistami. Jak nie jesteś idealistą, to idziesz do przemysłu i robisz rzeczy, które dają więcej pieniędzy – podkreśla i dodaje, że jego główną motywacją była chęć zmiany świata.

– Lubię uczyć, ale nie uważam, żeby było to moje powołanie. Zdecydowanie lepiej sprawdzam się jako badacz – utrzymuje. 

W Polsce o Mądrym zrobiło się głośno, gdy trafił do OpenAI. 

Koń trojański w OpenAI czy wielki hamulcowy?

Mądry przekonuje, że niezależnie od jego zaangażowania sztuczna inteligencja będzie się rozwijać.

W wywiadzie udzielonym "Gazecie Wyborczej" mówił: "Nie można dopuścić do tego, że pewnego dnia obudzimy się w świecie, w którym to my musimy dostosować się do jakiejś leniwej AI, a nie odwrotnie".

I w tym stwierdzeniu streszczają się motywacje Mądrego. Dlatego też dla niego dołączenie do OpenAI, czyli biznesu, nie stoi w sprzeczności z misją akademicką, której celem nie jest mnożenie zysku, ale czynienie świata lepszym albo po prostu bardziej znośnym. 

– Od dawna znałem ludzi z OpenAI, rozmawialiśmy o różnych problemach. W końcu doszliśmy do wniosku, że możemy współpracować. Na pewno nie było tak, że ja się do nich zgłosiłem albo że oni uznali, że potrzebują kogoś, żeby się wybielić – opowiada Mądry i tłumaczy, że ani nie przyszedł, by “zniszczyć OpenAI od środka”, ani nie czuje się jak “paprotka, która ma ocieplać wizerunek korporacji”. 

– Zostałem naukowcem, bo chciałem mieć wpływ na rzeczywistość. I ta potrzeba zaprowadziła mnie też do OpenAI. W tej firmie mam realny wpływ na technologię, która może zmienić ludzkość – podkreśla. 

Zmiana świata na lepsze faktycznie brzmi kuriozalnie, gdy spojrzeć na dotychczasowe "dokonania OpenAI". Ale Mądry podkreśla, że sztuczna inteligencja może być bezpieczna i przynieść "więcej dobra niż zła".

– Sam Altman pyta mnie, czy pewne rozwiązania są bezpieczne, jakie mogą być konsekwencje ich wprowadzenia. Nie chodzi mu o to, żeby przygotować się na krytykę albo mieć alibi. Jemu naprawdę chodzi o to, żeby było bezpiecznie, bo ostatecznie to się opłaca – wyjaśnia Mądry. 

Faktem jest, że gdy w kwietniu rozmawialiśmy z prof. Mądrym, można było uwierzyć w takie zapewnienia, dziś, po majowej i czerwcowej aferze ze zwolnieniami, wpisem na X Jana Leike'a trudno w to uwierzyć.

Po roku pracy w OpenAI Mądry przyznaje, że firma stara się unikać silosowości. Poszczególne zespoły mocno ze sobą współpracują. Zdaniem Mądrego nie ma też mikrozarządzania i zbytniej kontroli.

– Ani Altman, ani nikt z zarządu nie chciał wpływać na naszą pracę. Nie było sytuacji, że ktoś chciał torpedować nasze plany, bo uznał, że obawy związane z bezpieczeństwem mogą opóźnić dalsze prace – tłumaczy. 

Etyczny inżynier, jakim jest Mądry, to ktoś zgoła inny niż etyk. 

– Myślę, że background techniczny, doświadczenie inżynierskie są bardzo ważne. Dyskusje nad sztuczną inteligencją, które prowadzą filozofowie, są też istotne, ale często brakuje im realnej wiedzy o tym, co może działać, a co nie – wyjaśnia. 

Promotor Mądrego z Wrocławia, wspominany już prof. Pacholski, wierzy, że jego były student ma dobre intencje. – Olek jest uczonym bardzo ambitnym. Jestem też przekonany, że jest bardzo uczciwy, szanuje wkład współpracowników w prowadzone badania oraz informuje o korzyściach z prowadzonych z kolegami dyskusji – przekonuje. 

O swoim stosunku do AI, a także szerzej do pracy byłego studenta w OpenAI, prof. Pacholski mówi tak:

– AI, karmiąc się, wykorzystuje wszystkie dostępne dane, ale trudno powiedzieć, że okrada twórców. Wpływ pojedynczego dzieła na zbudowany model jest bardzo niewielki. Żywi artyści także inspirują się pracami innych twórców. Akceptujemy to, że czasem jedni korzystają z pomysłów innych, a czasem naśladują ich styl – zauważa prof. Pacholski i dodaje, że nie widzi problemów w działalności OpenAI.

Przypomnijmy tylko, że w ostatnich miesiącach z OpenAI odeszli pracownicy zajmujący się właśnie bezpieczeństwem tworzonych systemów AI, w tym Jan Leike, który miał dbać o to, by działały zgodnie z oczekiwaniami ludzi. A ci chcą transparentnych rozwiązań, które nie manipulują danymi.

Leike pisał później na X, że w OpenAI "bezpieczeństwo zostało zepchnięte na boczny tor, a liczą się jedynie błyszczące produkty".

Czy faktycznie tak jest? Prof. Mądry nie odpowiedział. 

Nie udało nam się także uzyskać komentarza dotyczącego innych palących problemów wewnątrz OpenAI.

Na początku czerwca kilkunastu pracowników OpenAI (byłych i obecnych, część anonimowo) oraz dwóch Google’a podpisało list otwarty z apelem o większą transparentność i ochronę sygnalistów w branży AI. 

Autorzy petycji zwracają uwagę, że chociaż AI może przynieść wiele korzyści, to technologia ta obarczona jest wieloma ryzykami. Ich zdaniem “bezmyślny wyścig po świadomą sztuczną inteligencję może skończyć się katastrofą”. 

Mity i MIT 

Mądry kilkukrotnie zeznawał przed Kongresem USA w przesłuchaniach na temat rozwoju sztucznej inteligencji. 

W marcu 2023 roku w trakcie spotkania Podkomisji Izby Reprezentantów ds. Cyberbezpieczeństwa, Technologii Informacyjnych i Innowacji Rządu wezwał polityków do regulacji sztucznej inteligencji. 

“Jesteśmy w punkcie zwrotnym” – alarmował wówczas i zaznaczał, że “rząd nie powinien opuszczać swoich obowiązków i zostawiać przyszłej ścieżki rozwoju sztucznej inteligencji wyłącznie big techowi”. 

Mówił także, że sztuczna inteligencja „nie jest już kwestią science fiction ani nie ogranicza się do laboratoriów badawczych. Występuje w świecie, gdzie może przynieść ogromne korzyści, ale stwarza również ryzyko”.

Na chwilę przed rozpoczęciem pracy dla OpenAI (nastąpiło to niecałe 2 miesiące później) mówił także o zagrożeniu ze strony narzędzi takich jak ChatGPT. 

“Narzędzia sztucznej inteligencji, takie jak ChatGPT, naśladują komunikację międzyludzką, a ludzie są zbyt skłonni bezkrytycznie wierzyć w to, co produkują tak duże modele językowe. W najgorszym przypadku ludzkie zdolności analityczne ulegną zanikowi" – wyjaśniał.

Profesor Massachusetts Institute of Technology krytykuje antropomorfizację AI. Nie chodzi o to, byśmy traktowali sztuczną inteligencję na tym samym poziomie co ludzi. W ostatecznym rozrachunku AI nie jest ani głupia, ani nieomylna, a tym bardziej nie kieruje się jakimikolwiek uprzedzeniami. 

– Mitów i przekonań wokół AI jest wiele, ale wszystko zależy od danych. Musimy zdecydować, czego od tej technologii oczekujemy – podkreśla Mądry i wyjaśnia, że narracje o niekontrolowanym rozwoju AI są fałszywe. Mądry podkreśla, że AI zarówno można “oszukać”, jak i sama może błądzić, czego przykładem są halucynacje ChataGPT.

– Dziś musimy przemyśleć więc, co tak naprawdę chcemy, by AI robiła. I kto ma podejmować decyzję, co jest właściwe. Firma czy społeczeństwo? – tłumaczy. 

– Wszystkie opowieści o dżinie mają jeden morał: nie zawsze to, czego chcesz, się spełnia – wskazuje ekspert. I podkreśla, że rzeczywistość często wypacza oczekiwania – zauważa prof. Mądry. 

Science czy fiction? Czy sztuczna inteligencja zmieni naukę i naszą przyszłość?

Przykładem, który często powtarza (mówił o nim w wywiadach, a także podczas marcowego wykładu), jest ten z analizą zdjęć rentgenowskich.

Pewna grupa badaczy pracowała nad stworzeniem systemu sztucznej inteligencji, który miał być w stanie rozpoznawać gruźlicę na podstawie analizy zdjęć rentgenowskich. Pomimo wielu prób szkolenia algorytmów na różnorodnych danych system nie działał poprawnie. Po długich analizach okazało się, że problem leżał w procesie szkolenia AI. Odkryto, że sztuczna inteligencja była szkolona głównie na danych (zdjęciach) z krajów o niższym poziomie rozwoju, gdzie występowało więcej przypadków tej choroby. W rezultacie system miał trudności z rozpoznawaniem gruźlicy w krajach o wyższym standardzie opieki medycznej. Okazało się, że lepsze zdjęcia, z bardziej rozwiniętych krajów, były automatycznie uznawane za przedstawiające zdrowe płuca.

Kolejnym mitem, z którym stara się rozprawić prof. Mądry, jest przekonanie o nieuniknionym wyścigu na technologie między Stanami Zjednoczonymi a Chinami. Zresztą już w rozmowie z Sylwią Czubkowską na łamach miesięcznika "Znak" podkreślał, że termin “wyścig na AI" kompletnie mu nie odpowiada. 

– Niektórzy mówią, że przez regulacje AI przegramy z Chinami. Podobnie było w latach 80., gdy mówiono, że przez regulacje w kwestiach bezpieczeństwa w przemyśle motoryzacyjnym zniszczymy branżę. Okazało się, że poprawienie tych kwestii nie tylko nie zabiło sektora, ale wręcz wpłynęło na rozwój przemysłu samochodowego – podkreśla Mądry. 

Bezpieczna sztuczna inteligencja leży w interesie jej twórców, bo jest zgodna z zachodnimi wartościami. Ścigając się z Chinami na technologie, bez względu na cenę, nie dość, że przegramy, to jeszcze pogrzebiemy nasz system wartości. To jest to, czym różnimy się od Chin.

– Czy zwycięstwem będzie to, że staniemy się drugimi Chinami? No chyba nie. Z jakiegoś powodu naukowcy wciąż chcą pracować w bardziej demokratycznych krajach – puentuje Mądry.