Trwa wojna na coraz lepsze obrazki. I to jest fatalna wiadomość
OpenAI ogłosiło nową generację narzędzia do generowania obrazów - ChatGPT Images 2 - oraz pokazało przykłady, które natychmiast wywołały dyskusję o jakości, realizmie i… granicach etycznych.

ChatGPT Images 2 to nowa generacja modelu do generowania obrazów, która ma być „bardziej realistyczna, bardziej precyzyjna i bardziej posłuszna poleceniom użytkownika”. Brzmi jak klasyczna marketingowa formułka, ale tym razem faktycznie jest o czym mówić - bo przykłady, które OpenAI pokazało w mediach społecznościowych, wyglądają jak prace zawodowych fotografów, a nie syntetyczne wizje algorytmu.
Jednocześnie to kolejny krok w kierunku, który dla branży kreatywnej jest jednocześnie fascynujący i niepokojący. Bo jeśli AI potrafi już generować obrazy, które trudno odróżnić od zdjęć z pełnoklatkowego aparatu, to co będzie dalej?
Czytaj też:
Co właściwie potrafi ChatGPT Images 2?
Nowy model ma być - według OpenAI - znacznie lepszy w rozumieniu kontekstu i złożonych poleceń. To nie jest już etap, w którym trzeba podawać precyzyjne, quasi-programistyczne prompty. Wystarczy zwykłe zdanie, a model sam „domyśli się”, o co chodzi.
OpenAI chwali się m.in. lepszą anatomią ludzi i zwierząt, bardziej naturalnym światłem, większą spójnością między kolejnymi obrazami i dokładniejszym odwzorowaniem tekstu (co dotąd było piętą achillesową modeli graficznych).
W praktyce oznacza to, że jeśli poprosisz o „zdjęcie psa biegnącego po plaży o zachodzie słońca, w stylu fotografii sportowej z obiektywem 200 mm”, to dostaniesz obraz, który wygląda jak kadr z portfolio fotografa pracującego dla National Geographic. Przynajmniej według obietnic. Model radzi sobie z detalami, które wcześniej były problematyczne: palce, proporcje twarzy, odbicia w okularach, a nawet drobne elementy ubioru. To właśnie te szczegóły sprawiają, że obraz wygląda „prawdziwie”, a nie jak syntetyczna fantazja.
OpenAI pokazuje przykłady - i od razu wybucha dyskusja
W poście na X OpenAI wrzuciło kilka grafik, które mają demonstrować możliwości nowego modelu. I trzeba przyznać: wyglądają świetnie. Realistyczne portrety, sceny uliczne, stylizowane fotografie produktowe - wszystko to wygląda jak prace z profesjonalnych sesji.
Ale jak to zwykle bywa, im bardziej realistyczne obrazy generuje AI, tym szybciej pojawiają się pytania: czy to jeszcze narzędzie, czy już konkurencja dla fotografów? Jak odróżnić syntetyczne zdjęcie od prawdziwego? Co z prawami autorskimi, skoro model uczy się na obrazach z Internetu?
To nie są nowe wątki, ale wraz z każdą kolejną generacją modeli wracają ze zdwojoną siłą. Tym bardziej że OpenAI nie podało szczegółów dotyczących datasetu, na którym trenowano Images 2 - a to zawsze budzi emocje.
Technologia technologią, ale co z praktyką?
Modele graficzne już teraz są w stanie generować obrazy na poziomie, który jeszcze dwa lata temu wydawał się nierealny. A teraz wchodzimy w etap, w którym te obrazy zaczynają wyglądać jak fotografie z aparatów za 10 tys. zł. To nie jest rewolucja, która wydarzy się w jeden dzień. Ale to kolejny krok w kierunku świata, w którym granica między obrazem wygenerowanym a zrobionym aparatem będzie coraz bardziej rozmyta. I to właśnie ta granica - a nie sama technologia - będzie w najbliższych miesiącach najgorętszym tematem dyskusji.



















