REKLAMA

Wzięli GTA 4 i poprosili AI: upiększ grę. Efekt jest oszałamiający

Sztuczna inteligencja jest coraz szerzej wykorzystywana w produkcji gier wideo, lecz znajdujemy się dopiero na samym początku tej drogi, wciąż szacując prawdziwy potencjał AI w tym obszarze. Doskonale pokazuje to gameplay z GTA 4, upiększony za sprawą narzędzia Runway.

Wzięli GTA 4 i poprosili AI: upiększ grę. Efekt jest oszałamiający
REKLAMA

Sztuczna inteligencja już teraz potrafi tworzyć proste „gry” w oparciu o pojedyncze grafiki. Co prawda działają w maksymalnie kilku klatkach na sekundę, na bazie predykcji zachowań użytkownika, ale to dopiero początek możliwości, jakie AI wprowadzi do branży interaktywnej rozrywki.

Co nas czeka zaraz za zakrętem? Świetnie pokazuje to rozgrywka z GTA 4, upiększona przez sztuczną inteligencję.

REKLAMA

AI zostało poproszone aby upiększyć rozgrywkę w Grand Theft Auto 4. Efekt jest niesamowity.

Uzyskane wideo to owoc wykorzystania Runway - popularnego narzędzia AI do modyfikowania treści wideo. Jedną z nowych możliwości zaktualizowanego modelu SI jest Runway Vid2Vid - funkcja analizująca gotowy plik wideo i tworząca na jego podstawie nowe treści, na zasadzie hiperzaawansowanytch filtrów. Przykładowo, osoby spacerujące po dębowym lesie mogą zostać zamienione w patrol orków krążący pośród iglaków, w środku mroźnej zimy.

Mamy typowy kadr z youtuberem...
... i pyk, wchodzi Runway. źrodło

Runway Vid2Vid pozwala odmieniać ujęcia w niesamowity sposób, zamieniając miejskie plenery w cukierkowe królestwa albo steampunkowe aglomeracje. Tła, osoby, powierzchnie, obiekty - wszystko może zostać zmienione za pstryknięciem palca, aby później specjaliści od wideo zajęli się dopracowywaniem detali. Słowem, zyskujemy hollywoodzkie rezultaty z obszaru scenografii, kostiumów i efektów, bardzo niskim kosztem i bez wykorzystania greenscreena.

Korzystając z funkcji Vid2Vid, Runway zamienił gameplay z gry Grand Thet Auto 4, zwiększając jakość oprawy oraz nadając jej wizualnego realizmu. Na rozgrywkę zostały nałożone nie tylko dodatkowe efekty świetlne. Kompletnemu przebudowaniu uległa cała scena: tła, budynki, pojazdy, ludzie i tona mniejszych obiektów. Wizualny efekt jest powalający i dopiero analiza animacji pokazuje, że przed sztuczną inteligencją jeszcze długa droga.

Chociaż animacje kuleją, efekt jest naprawdę imponujący. Podobną operację da się zastosować do każdej gry wideo, na przykład Fortnite czy Call of Duty. Dzięki temu Runway już teraz może stanowić gigantyczne wsparcie dla gamingowych youtuberów i twórców treści, ale najciekawsze jest to, co czeka nas w niedalekiej przyszłości.

No dobra Szymon, ale czym to się różni od rozbudowanego filtra z Instagrama?

Z perspektywy niekomercyjnego zastosowania, bez wchodzenia w sam stopień zaawansowania modelu - niczym. Jednak dla twórców treści wideo narzędzie takie jak Runway zapewni gigantyczne oszczędności. Pozwoli bowiem pominąć konieczność budowania mniej istotnych planów zdjęciowych, poszukiwania rekwizytów, opłacania charakteryzacji i tak dalej. Narzędzia tego typu wniosą także masę oszczędności w obszarze efektów, oświetlenia i postprodukcji, skracając czas pracy nad filmem czy serialem.

W przypadku gier wideo sprawa jest bardziej skomplikowana. Mówimy bowiem o renderowanych natywnie trójwymiarowych środowiskach, bez jasno określonego, liniowego przebiegu wydarzeń. Mimo tego Runway już teraz bez problemu zamienia wyeksportowane animacje Cinema4D w piękne klipy, co może być przydatne jako narzędzie narracyjne. Przykładowo, tworzymy prostą animację z udziałem gotowych modeli z gry, dokonujemy eksportu, a następnie AI zamienia ją w wysokobudżetowy klip godny przerywników w World of Warcraft. W sam raz na scenkę przerywnikową.

W przyszłości narzędzia takie jak Runway mogą też drastycznie zoptymalizować działanie gier, serwując przy tym niesamowitą grafikę. Jeśli takie modele będą zdolne do działania w czasie rzeczywistym, bez opóźnienia, bez wsparcia chmury i w całości na urządzeniu lokalnym (powiedzmy, na karcie RTX 6080 w 2030 roku), mogą stanowić filtry drastycznie upiększające rozgrywkę. Włączałoby się je niczym DLSS w ustawieniach, zapewniając sobie opad szczęki.

REKLAMA

Każdy może już korzystać z rozwiązań takich jak Runway, wrzucając własne klipy z rozgrywką i nagrania.

Runway oparty o model AI trzeciej generacji działa z wykorzystaniem prostego interfejsu graficznego w przeglądarce. Tam wrzucamy nasz plik wideo, a platforma wsparta chmurą generuje rezultat w zaledwie kilkanaście sekund. Na ten moment ograniczenia Runway Gen3 tyczą się przede wszystkim długości materiału wideo. Pojedynczy plik nie może być dłuższy niż 10 sekund, do tego obraz musi zachowywać proporcje 16:9.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA