Sztuczna inteligencja Google po mistrzowsku opanowała grę w Quake III Arena
To już kolejna niezbędna do życia w normalnym społeczeństwie umiejętność, która przybliża Google DeepMind do stania się pełnoprawnym członkiem naszego społeczeństwa.
No dobrze, żarty na bok. Najnowsze osiągnięcie sztucznej inteligencji Google'a jest rzeczywiście imponujące. Co prawda DeepMind ma już na swoim koncie wygraną z mistrzem Go i spore sukcesy w rozgrywkach w Starcrafta 2, ale Quake III to - zdaniem twórców DeepMind - to zupełnie inna para kaloszy.
Google DeepMind kontra Quake III Arena
SI Google'a uczyła się grać w Quake'a w trybie Capture the Flag, w który gra się drużynowo, a cała rozgrywka polega na kradzieży flagi z (silnie bronionej) bazy przeciwnika i dostarczeniu jej do swojej bazy.
Pomijając aspekty zręcznościowe, główna różnica pomiędzy Q3 a takim Go czy Starcraftem polega na drużynowej rozgrywce. Zarówno w Go, jak i w Starcrafcie, DeepMind uczyła się gry 1 na 1, tymczasem w tryb ctf w Quake'u to klasyczna rozgrywka drużynowa, w której - wiem, że dla niektórych graczy zabrzmi to jak herezja - bez współpracy drużynowej nie osiągnie się zbyt wielu sukcesów.
Współpraca między awatarami sterowanymi przez sztuczną inteligencję to całkowicie nowe wyzwanie dla DeepMind, jednak po kilkuset tysiącach rozegranych meczy SI Google'a zaczęła radzić sobie całkiem nieźle z tym nowym stylem gry. Na tyle, żeby po 12h grania samej ze sobą (oczywiście w mocno przyspieszonym tempie) móc stawić czoło ludzkiej drużynie.
Sztuczna inteligencja dość szybko nauczyła się grać lepiej niż ludzie.
Rezultat? Ludzie byli w stanie pokonać SI zaledwie w 25 proc. rozegranych meczy. Co ciekawe, ludzcy gracze okazali się o wiele lepszymi strzelcami wyborowymi - DeepMind nadal ma problemy z celowaniem na większe odległości. Za to SI radziła sobie o wiele lepiej, jeśli chodzi o poruszanie się po mapie i planowanie najlepszych dróg do dostarczenia flagi.
Bardzo ciekawym doświadczeniem okazało się też pomieszanie drużyn. Okazało się bowiem, że drużyny złożone z człowieka i algorytmu wygrywały o 5 proc. więcej gier niż drużyny w pełni ludzkie lub kontrolowane tylko przez DeepMind. Twórcy sztucznej inteligencji Google twierdzą, że tak owocna kooperacja wynika z tego, że ich algorytm potrafi dostosowywać swój styl gry do człowieka z tej samej drużyny. Odkrycie to może sugerować, że SI poradzi sobie tak samo dobrze ze wspomaganiem nas w nieco bardziej dorosłych zadaniach niż bieganie za flagą w Quake'u.
Nie przegap nowych tekstów. Obserwuj Spider's Web w Google News.