Ostrzegali, że Bing będzie pisał głupoty. Oto co zrobił Microsoft
Z nowego raportu wynika, że OpenAI odpowiednio wcześniej ostrzegał Microsoft przed implementacją nowego wówczas modelu GPT-4 do przeglądarki Bing, twierdząc, że mogą pojawiać się błędy. Microsoft nie posłuchał.
Microsoft i OpenAI mają dziwną relację - z jednej strony są partnerami biznesowymi, a z drugiej konkurują ze sobą - pierwsza firma ma Czat Bing druga zaś ChatGPT. Oba rozwiązania nie są idealne, ale Bing przez kilka miesięcy był wyjątkowo skłonny do zmyślania. Do tego stopnia, że Microsoft musiał przepraszać za jego działania. A można było tego uniknąć.
OpenAI dobrze radził Microsoftowi w kwestii integracji GPT do Binga.
Bing od początku działał na modelu GPT-4. Jednak gdy OpenAI testował nowy model w zamkniętym gronie użytkowników, Microsoft robił wszystko, aby jak najszybciej wprowadzić swojego czatbota. I faktycznie to zrobił, ale poniósł konsekwencje. Jak podaje The Wall Street Journal, OpenAI jasno ostrzegał firmę znaną z systemu Windows, że wydanie czatbota na GPT-4 może wywołać problemy.
No i faktycznie po wydaniu w lutym Bing Czat przejawiał wiele zachowań, które nie powinny mieć miejsca. Firma zaczęła na własną rękę łatać odpowiedzi, zmniejszając możliwość „buntu” do minimum, ale to zajęło parę miesięcy. Wciąż nie jest idealnie, ale widać znaczny progres w odpowiedziach.
Taki, że czatbot przynajmniej nie twierdzi, iż w słowie „Ketchup” są dwie litery „e” (bo z tym jeszcze w maju miał problem). Microsoft miał wdrażać już GPT-4 do Binga, gdy OpenAI dopiero przygotowywał się do publicznych testów tego modelu w ChatGPT.
Cóż, wystarczyło posłuchać - finalnie integracja czatbota nie sprawiła, że wyszukiwarka Bing stał się hitem.