REKLAMA

Już nie tylko tekst i obrazy. Popularny chatbot ma nową funkcję, którą pokochasz

Jeżeli musisz przeanalizować dużą ilość danych, albo wykazać się kreatywnością przy streszczaniu dłuższej publikacji, inwestycja 110 zł w ChatGPT Plus może okazać się zbawienna. Bowiem od teraz w ramach jednego chatu możesz poprosić GPT-4 o przeszukanie internetu, wygenerowanie i przeanalizowanie obrazka, a następnie wygenerowanie dokumentu z danymi na jego podstawie.

Już nie tylko tekst i obrazy. Popularny chatbot ma nową funkcję, którą pokochasz
REKLAMA

Kiedy OpenAI ogłaszało wydanie modelu GPT-4, świat zachwycał się nie tylko perspektywą bardziej "inteligentnego" modelu - w porównaniu do poprzednika GPT-3 i światowego fenomenu ChatGPT, ale i multimodalnością. Owa multimodalność objawia się faktem, że GPT-4 jest w stanie np. odczytać tekst z obrazu, zidentyfikować obecne na nim przedmioty i postaci czy wyjaśnić, dlaczego dany obrazek jest zabawny. No i nie zapominajmy o integracji z DALL-E 3, która pozwala na generowanie fascynujących ilustracji za pomocą rozbudowanych opisów.

Jak się okazuje, to nie ostatnia sztuczka, którą ma w rękawie OpenAI. Nowa aktualizacja przyniosła ze sobą kolejną możliwość wykorzystania modelu GPT-4.

REKLAMA

Do GPT-4 wrzucisz dokumenty - albo całe książki w PDFie. Tak wygląda GPT-4 All Tools

W ciągu ostatnich dwóch dni na platformie X (dawnym Twitterze) subskrybenci ChatGPT Plus informują o pojawieniu się dwóch nowych funkcji modelu GPT-4. Pierwszą z nich jest możliwość ładowania do GPT-4 różnych typów dokumentów, na czele z popularnymi formatami PDF, docx i xlsx - i rozmowy z AI na temat ich treści.

Drugą nowością jest automatyczne wykrywanie przez sztuczną inteligencję tego, co wykonuje z użytkownikiem i płynne zmiany pomiędzy nimi. Dotychczas chcąc wykonać z botem np. przeszukiwanie internetu, należało rozpocząć konwersację poprzez wybranie odpowiedniej wtyczki z menu GPT-4. Teraz będzie działo się to automatycznie, w zależności od promptu użytkownika (wpisanego tekstu lub załadowanego pliku).

Przykład multimodalności GPT-4 zaprezentował użytkownik Twittera Bryan McAnulty, który najpierw wrzucił do GPT-4 zdjęcie wraz z promptem proszącym o "wygenerowanie podobnego obrazu". DALL-E 3 wygenerował ilustrację, a ponownie zapytany GPT-4 wygenerował raport w pliku CSV z wartościami odżywczymi każdej potrawy obecnej na wygenerowanej ilustracji.

Co ciekawe, inny użytkownik X - programista Tibor Blaho zwrócił uwagę, że najnowsze wydanie GPT-4 nie zawiera wtyczek, a jedynie nowe narzędzia dostarczone przez OpenAI.

Teoretycznie może to oznaczać, że OpenAI dąży do pozbycia się wtyczek firm trzecich o podobnych zastosowaniach, które mogą pogłębić problemy firmy z oskarżeniami o niewłaściwe przetwarzanie danych.

Zdjęcie główne: Imago / Shutterstock

REKLAMA

Więcej na temat OpenAI:

REKLAMA
Najnowsze
Aktualizacja: 2026-01-13T07:29:00+01:00
Aktualizacja: 2026-01-12T20:38:13+01:00
Aktualizacja: 2026-01-12T19:32:29+01:00
Aktualizacja: 2026-01-12T19:24:18+01:00
Aktualizacja: 2026-01-12T18:49:39+01:00
Aktualizacja: 2026-01-12T17:49:27+01:00
Aktualizacja: 2026-01-12T16:08:15+01:00
Aktualizacja: 2026-01-12T15:04:31+01:00
Aktualizacja: 2026-01-12T11:41:31+01:00
Aktualizacja: 2026-01-12T10:50:53+01:00
Aktualizacja: 2026-01-12T08:50:07+01:00
Aktualizacja: 2026-01-12T08:14:20+01:00
Aktualizacja: 2026-01-12T08:06:52+01:00
Aktualizacja: 2026-01-12T06:42:07+01:00
Aktualizacja: 2026-01-12T06:20:00+01:00
Aktualizacja: 2026-01-12T06:10:00+01:00
REKLAMA
REKLAMA
REKLAMA