REKLAMA

Już nie tylko tekst i obrazy. Popularny chatbot ma nową funkcję, którą pokochasz

Jeżeli musisz przeanalizować dużą ilość danych, albo wykazać się kreatywnością przy streszczaniu dłuższej publikacji, inwestycja 110 zł w ChatGPT Plus może okazać się zbawienna. Bowiem od teraz w ramach jednego chatu możesz poprosić GPT-4 o przeszukanie internetu, wygenerowanie i przeanalizowanie obrazka, a następnie wygenerowanie dokumentu z danymi na jego podstawie.

Już nie tylko tekst i obrazy. Popularny chatbot ma nową funkcję, którą pokochasz
REKLAMA

Kiedy OpenAI ogłaszało wydanie modelu GPT-4, świat zachwycał się nie tylko perspektywą bardziej "inteligentnego" modelu - w porównaniu do poprzednika GPT-3 i światowego fenomenu ChatGPT, ale i multimodalnością. Owa multimodalność objawia się faktem, że GPT-4 jest w stanie np. odczytać tekst z obrazu, zidentyfikować obecne na nim przedmioty i postaci czy wyjaśnić, dlaczego dany obrazek jest zabawny. No i nie zapominajmy o integracji z DALL-E 3, która pozwala na generowanie fascynujących ilustracji za pomocą rozbudowanych opisów.

Jak się okazuje, to nie ostatnia sztuczka, którą ma w rękawie OpenAI. Nowa aktualizacja przyniosła ze sobą kolejną możliwość wykorzystania modelu GPT-4.

REKLAMA

Do GPT-4 wrzucisz dokumenty - albo całe książki w PDFie. Tak wygląda GPT-4 All Tools

W ciągu ostatnich dwóch dni na platformie X (dawnym Twitterze) subskrybenci ChatGPT Plus informują o pojawieniu się dwóch nowych funkcji modelu GPT-4. Pierwszą z nich jest możliwość ładowania do GPT-4 różnych typów dokumentów, na czele z popularnymi formatami PDF, docx i xlsx - i rozmowy z AI na temat ich treści.

Drugą nowością jest automatyczne wykrywanie przez sztuczną inteligencję tego, co wykonuje z użytkownikiem i płynne zmiany pomiędzy nimi. Dotychczas chcąc wykonać z botem np. przeszukiwanie internetu, należało rozpocząć konwersację poprzez wybranie odpowiedniej wtyczki z menu GPT-4. Teraz będzie działo się to automatycznie, w zależności od promptu użytkownika (wpisanego tekstu lub załadowanego pliku).

Przykład multimodalności GPT-4 zaprezentował użytkownik Twittera Bryan McAnulty, który najpierw wrzucił do GPT-4 zdjęcie wraz z promptem proszącym o "wygenerowanie podobnego obrazu". DALL-E 3 wygenerował ilustrację, a ponownie zapytany GPT-4 wygenerował raport w pliku CSV z wartościami odżywczymi każdej potrawy obecnej na wygenerowanej ilustracji.

Co ciekawe, inny użytkownik X - programista Tibor Blaho zwrócił uwagę, że najnowsze wydanie GPT-4 nie zawiera wtyczek, a jedynie nowe narzędzia dostarczone przez OpenAI.

Teoretycznie może to oznaczać, że OpenAI dąży do pozbycia się wtyczek firm trzecich o podobnych zastosowaniach, które mogą pogłębić problemy firmy z oskarżeniami o niewłaściwe przetwarzanie danych.

Zdjęcie główne: Imago / Shutterstock

REKLAMA

Więcej na temat OpenAI:

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA