Chcą uczyć AI, czym jest moralność. Cóż, powodzenia
Odpowiedzialna za technologie GPT i DALL-E firma OpenAI otworzyła nowy projekt badawczy, za sprawą którego będziemy mogli nieco pewniej i z mniejszymi obawami coraz szerzej wdrażać generatywną sztuczną inteligencję. Patrząc na skalę i budżet, mam duże wątpliwości.
Czy milion dolarów to dużo, czy też mało? Dla mnie i większości czytelników Spider’s Web to zmieniająca życie fortuna. Dla wielkiego biznesu IT są to jednak grosze. Dla przykładu według bardzo ogólnych szacunków, każde zapytanie wysłane do ChatGPT kosztuje OpenAI około 0,01 dol. Przy założeniu, że dziennie czatbot obsługuje 10 mln zapytań, jego dzienny koszt to 100 tys. dol. A to bardzo ostrożne założenia. Milion dolarów to grosze w kontekście GenAI.
Mając na uwadze powyższe, z dużym dystansem i ostrożnością podchodzę do nowego projektu Duke University, finansowanego przez OpenAI. Uczelnia otrzymała grant na trzyletnie badania nad moralnością sztucznej inteligencji. Mając na uwadze ogromny wpływ tej technologii na rzeczywistość, prowadzenie takich badań wydaje się przedsięwzięciem bardzo zasadnym. Problem w tym, że uczelnia na te trzy lata otrzymała od OpenAI grant w kwocie wspomnianego miliona dolarów.
Sprawdź też:
Milion dolarów by nauczyć AI moralności. To jak kupić dziecku bryka z lektur i liczyć, że wygra olimpiadę z literaturoznawstwa
Dyrektorami projektu badawczego zostali prof. Walter Sinott-Armstrong specjalizujący się w filozofii etyce oraz prof. Jana Shaich Borg, która już wcześniej prowadziła badania nad podejmowaniem decyzji przez AI w kontekście moralności - jak chociażby podejmowanie przez algorytm decyzji która ofiara wypadku ma otrzymać przeszczep organów przy założeniu, że nie staczy dla wszystkich poszkodowanych.
Zespół uczonych ma za zadanie opracować algorytmy przewidujące ludzkie decyzje w takich dziedzinach wiedzy, jak medycyna, prawo i finanse. Mają przy tym rozwiązać fundamentalny problem technologii Dużych Modeli Językowych jak odmienne odpowiedzi na to samo, ale zadane w innej formie pytanie - co utrudnia opracowanie dla takich modeli funkcji bezpieczeństwa, chroniących użytkowników przed generowanymi potencjalnie niewłaściwymi treściami. Przedmiotem badań będzie też wpływ danych, na których GenAI jest szkolona, na proklamowany przez nią system wartości.
Pierwsze wnioski z badań mają być opublikowane pod koniec przyszłego roku. Projekt badawczy niestety wydaje się mieć tu głównie wartość wizerunkową dla OpenAI. Ów dobry wizerunek jest teraz dla tej firmy na wagę złota, mając na uwadze problemy etyczne związane z modelami GPT.
Miejmy tylko nadzieję, że poza kreowaniem odpowiedzialnego image’u badania finansowane przez OpenAI przyniosą pożytek też samym użytkownikom.