Sztuczna inteligencja zawstydza specjalistów. Algorytmy zdają egzaminy specjalistyczne bez przygotowania
Od kilku miesięcy cały świat zachwyca się możliwościami chatbota ChatGPT, który na tyle dobrze imituje język naturalny, że posiadając dostęp do ogromnej ilości danych o świecie, jest w stanie swoimi wywodami zachwycić każdego. Uczniowie próbują zlecać mu pisanie wypracowań, a studenci informatyki sprawdzają za jego pomocą poprawność tworzonego przez siebie kodu. Czy jednak sztuczna inteligencja może zastąpić prawdziwych specjalistów?
Tak zawsze wyglądały wizje apokaliptyczne: najpierw pojawiają się na świecie roboty, które są w stanie odpowiadać na proste pytania i podawać kawę, a z czasem sztuczna inteligencja staje się coraz bardziej inteligentna, aż w końcu zaczyna swoimi zdolnościami przewyższać człowieka.
W ramach eksperymentu badawczego naukowcy z firmy Axios postanowili sprawdzić, czy święcący triumfy ChatGPT byłby w stanie zdać amerykański egzamin lekarski. Co ważne, przed podejściem do egzaminu, chatbot nie był w żaden sposób do niego przygotowywany i trenowany.
Dostępne na portalu medRxiv wyniki eksperymentu wciąż jeszcze są analizowane przez specjalistów i powinny wkrótce zostać opublikowane w jednym z periodyków naukowych. Z tego, co wiadomo na chwilę obecną, ChatGPT zdał wszystkie trzy części standardowego amerykańskiego egzaminu lekarskiego. Autorzy eksperymentu wskazują, że odpowiedzi udzielone przez algorytm były spójne, dogłębne i wyczerpujące.
Co to właściwie znaczy?
Spokojnie, algorytm nie zastąpi nam lekarzy. Nie zmienia to jednak faktu, że tak zaawansowane i obszerne modele językowe mogą w przyszłości z jednej strony wydajnie wspomagać proces kształcenia lekarzy, a nawet może wspomagać lekarzy w podejmowaniu decyzji dotyczących leczenia.
Nie tylko medycyna, nie tylko ChatGPT
Myli się jednak ten, kto sądzi, że oto ChatGPT jest ukoronowaniem pracy wszystkich specjalistów od sztucznej inteligencji. Ten konkretny model językowy po prostu zrobił ostatnio furorę i przedostał się do świadomości szerokiej opinii publicznej. Takich modeli językowych jest jednak więcej i ich zdolności są równie imponujące.
Dobrym przykładem jest chociażby algorytm sztucznej inteligencji Claude opracowany przez firmę Anthropic. Jak donoszą naukowcy, Claude podobnie jak ChatGPT został ostatnio przetestowany na Uniwersytecie George’a Masona. Efekt? Claude zaliczył egzamin z prawa i ekonomii. Co więcej, algorytm nie tylko udzielał spójnych odpowiedzi na złożone pytania, ale był w stanie nawet wygenerować opinię dotyczącą tego, jakie zmiany powinny zostać wprowadzone do przepisów o ochronie własności intelektualnej. Osoby oceniające odpowiedzi w trakcie egzaminu nie miały świadomości, że ich autorem jest algorytm sztucznej inteligencji.
O tym konkretnym algorytmie nie słyszeliśmy jedynie dlatego, że Anthropic testuje go wewnętrznie i nie udziela jak na razie dostępu do niego opinii publicznej.
Wszystko zatem wskazuje na to, że ludzkość będzie musiała w najbliższym czasie przyzwyczaić się do obecności sztucznej inteligencji wszędzie wokół. Skoro modele językowe są już w stanie napisać zrozumiały i wyczerpujący tekst, którego nie da się odróżnić od tekstu pisanego przez człowieka, to już nie długo nie będziemy mogli mieć pewności, czy to, co czytamy stworzył człowiek, czy tylko program komputerowy. To wizja z jednej strony zachwycająca, a z drugiej przerażająca. Nie jestem jednak w stanie stwierdzić, czy sam jestem nią bardziej zachwycony, czy przerażony. Może powinienem spytać ChatGPT?