REKLAMA

Właśnie powstała agencja modelek stworzonych przez sztuczną inteligencję

Sami o sobie mówią „studio fotograficzne” bez aparatów, prawdziwych ludzi czy fizycznej lokalizacji. Właśnie ruszyła wirtualna agencja modelingowa, w której można zamówić obrazy w 100 proc. wygenerowane przez sztuczną inteligencję. Czy prawdziwe agencje i fotografowie mają się czego bać?

Właśnie powstała agencja modelek stworzonych przez sztuczną inteligencję
REKLAMA

Deep Agency wykorzystuje najnowsze modele syntezy obrazu, pozwalając użytkownikom wybrać model i jego pozę. Wystarczy wejść na stronę, zarejestrować się i mamy dostęp do wirtualnego studia. Trial z ograniczeniem do tylko jednego modela jest darmowy, a normalny dostęp kosztuje 29 dol./ miesiąc, czyli ok. 130 zł. W tej cenie dostajemy możliwość wyboru spośród wszystkich modeli w dowolnej liczbie sesji zdjęciowych, pełną licencję komercyjną, a z powstałymi obrazami, możemy „robić co tylko chcemy". Poza tym istnieje opcja stworzenia własnego cyfrowego bliźniaka. 

Czytaj także:
- Jak działa ChatGPT bez cenzury? Wyjaśniamy
- Szef Microsoftu: Siri, Alexa i Cortana są głupie jak but

REKLAMA

Póki co Deep Agency to (nie) śmieszny żart, ale...

Pełen entuzjazmu, zarejestrowałem się, aby sprawdzić, czy nowa agencja zabierze pracę fotografom i modelkom. Pierwsze testy wskazują, że jesteśmy na samym początku drogi. Deep Agency można traktować raczej jako ciekawostkę niż użyteczne narzędzie. 

Generowane obrazy są sztuczne i widać to na pierwszy rzut oka. Próbują udawać zdjęcia, ale chyba nikt nie będzie miał wątpliwości, że to, co otrzymujemy, zdjęciem nie jest. Za 29 dolarów, czułbym się źle potraktowany. Na szczęście twórcy gwarantują 14-dniowy okres na zwrot środków albo utrzymanie ceny w przyszłości, jeśli zaczniemy płacić jeszcze na etapie wersji beta. Potem ma być tylko drożej.

Sam panel jest prosty w obsłudze. Po lewej stronie możemy wybrać wzór zdjęcia do odwzorowania z modelką. Dodajemy różne parametry, a samo generowanie obrazu, zajmuje zazwyczaj około kilkunastu sekund. Po prawej stronie znajdują się ustawienia dodatkowe. Tu wybierzemy porę dnia, ogniskową obiektywu, oświetlenie czy czas naświetlania. Większość parametrów jest z góry określona i nie mamy wielkiego wpływu na ich dokładność. Zresztą cokolwiek tam nie klikanąłem, to i tak nie miało to wpływu na finalny obraz. Być może to problem wersji beta albo triala.

Najbardziej rozbawiły mnie trzy dostępne aparaty: Fujifilm XT3, Canon EOS Mark II oraz Sony a7. Nazwa pierwszego z nich jest napisana z błędem: powinno być Fujifilm X-T3. Druga nazwa jest wymyślona: Canon EOS to nazwa serii aparatów. Nie ma takiego aparatu jak Canon EOS Mark II. Trzeci model rzeczywiście istnieje, ale tu znów zrobiono błąd (Sony A7), a poza tym, to korpus z 2013 roku, który od dawien dawna nie jest dostępny w sklepach. Czyżby te nazwy wymyślił ChatGPT? Nie zdziwiłbym się.

 

Na wygenerowanych obrazach też jest trochę błędów. Oprócz ogólnej sztuczności, którą czuć na odległość, na niektórych kadrach, widać też zrośnięte dłonie, amputowane palce czy mutacje uszu. To częste błędy sztucznej inteligencji, która nie radzi sobie (jeszcze) z detalami, a w szczególności z dłońmi. Co ciekawe, na każdym z ujęć, które wygenerowałem, powinna być ta sama modelka. Tymczasem, widzę tu kilka różnych kobiet, w tym jedną z azjatyckimi rysami.

Pokaż na dłonie, a powiem ci, czy istniejesz naprawdę.

Twórca Deep Agency jest Danny Postma, holenderski przedsiębiorca. Danny reklamuje swój produkt, jako skrojony pod rynek influencerów, mediów społecznościowych, marketerów i fotografii produktowej e-commerce. Reklamuje się na Twitterze, gdzie jego post ma tysiące serduszek, udostępnień i komentarzy. Wiele z nich jest jednak negatywnych. 

„Od teraz, jeśli nie widzę na zdjęciu rąk lub zębów, zakładam, że osoba na wspomnianym zdjęciu nie istnieje" - pisze jeden z użytkowników Twittera.

Dlaczego tak się dzieje? Jednym z powodów, przez które generatory obrazów AI tak źle radzą sobie z rękami, jest to, że w zestawach danych używanych do szkolenia syntezatorów obrazu, ludzie wyświetlają swoje dłonie w sposób mniej widoczny niż ich twarze. To obecnie jeden z testów na obecność AI w zdjęciach.

Fotografowie i modelki mogą spać spokojnie, ale do czasu...

Jak widać, efekty wirtualnej agencji modelek są póki co słabe, ale postęp w tym zakresie jest tak szybki, że nie zdziwię się, jeśli za 3-5 lat, sytuacja zupełnie się zmieni. Myślę, że to wyłączenie kwestia kiedy, a nie czy sztuczna inteligencja będzie w stanie generować obrazy jak prawdziwe. 

REKLAMA

Mam wrażenie, że za kilka lat, AI zacznie dominować w prostych produkcjach fotograficznych. Serwisy jak Deep Agency będą w stanie generować obrazy nie tylko produktowe, ale też z modelami. Widzę to tak: wystarczy „nakarmić” algorytm zdjęciami ubrania, aby ten z łatwością, generował nam całe sesje z ludźmi je noszącymi. To samo tyczy się zdjęć produktowych. Wystarczy prosty packshot produktu z kilku stron i cyk dostaniemy sesje w różnych miejscach czy wnętrzach. Takie rozwiązania będą tańsze i szybsze niż dedykowane sesje. Z czasem zapewne zacznie się dyskusja na temat etyki tego typu działań, podobnie jak kiedyś zaczęto dyskutować o mocnej ingerencji w zdjęcia modelek. 

Myślę, że rynek podzieli się na tańsze sesje AI oraz jeszcze bardziej ekskluzywne sesje realizowane przez ludzi najlepszych w swojej branży. Niektóre marki będą się wręcz chwalić, ich zdjęcia czy inne treści są „wolne od AI”, podobnie jak dzisiaj, chwalą się, że ich produkty są tworzone z naturalnych składników. 

Czy jesteście na to gotowi? A może inaczej postrzegacie przyszłość? Dajcie znać.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA