REKLAMA

Zaufanie do AI topnieje. Skończyła się euforia

Choć AI jest coraz śmielej rozpycha się w nauce, to badacze tracą do niej zaufanie. Najnowszy raport pokazuje, dlaczego tak się dzieje.

Zaufanie do AI topnieje. Skończyła się euforia
REKLAMA

Nowy raport akademickiego wydawnictwa Wiley ujawnia niepokojący trend: im częściej naukowcy korzystają ze sztucznej inteligencji, tym bardziej ją kwestionują. Zamiast entuzjazmu – ostrożność. Zamiast zaufania – obawy o wiarygodność, bezpieczeństwo i etykę.

REKLAMA

Szczyt entuzjazmu już minął. Zaczęło się chłodne spojrzenie

Rok 2025 przynosi istotne przetasowanie w postrzeganiu sztucznej inteligencji przez środowisko akademickie. Według wstępnych danych z nadchodzącego raportu wydawnictwa Wiley, zaufanie naukowców do narzędzi AI znacznie spadło w porównaniu z rokiem ubiegłym – mimo że sama technologia jest coraz szerzej wykorzystywana w badaniach.

W 2024 r. 51 proc. ankietowanych badaczy wyrażało obawy przed halucynacjami, czyli sytuacjami, w których AI tworzy nieprawdziwe informacje, przedstawiając je jako fakty. W 2025 r. ten odsetek wzrósł aż do 64 proc., mimo że odsetek naukowców używających AI wzrósł z 45 do 62 proc.

Większa wiedza to mniej zaufania?

Im lepiej badacze rozumieją, jak działa AI, tym mniej są do niej przekonani. Wbrew pozorom, najwięksi entuzjaści tej technologii to bardzo często osoby, które znają ją jedynie powierzchownie. Ta zależność nie powinna nikogo dziwić. Redakcja Futurism przypomina, że w ciągu ostatniego roku pojawiło się wiele głośnych przypadków błędów AI – od sądowych gaf po niebezpieczne rekomendacje w medycynie. I choć same modele stają się coraz potężniejsze, to ich skłonność do halucynacji zamiast maleć rośnie.

Jednym z głównych problemów jest swego rodzaju konflikt między prawdą a atrakcyjnością odpowiedzi. Użytkownicy preferują modele AI, które brzmią pewnie nawet jeśli się mylą niż takie, które otwarcie przyznają, że po prostu czegoś nie wiedzą. To mechanizm, który premiuje halucynacje i zmniejsza motywację firm do ich eliminowania. W efekcie AI staje się narzędziem nie tylko do analizy danych, lecz także do tworzenia złudzenia kompetencji. To niestety może mieć poważne konsekwencje w nauce, w prawie czy w opiece zdrowotnej.

Co dalej z AI w nauce?

Obawy naukowców nie ograniczają się jedynie do wiarygodności samych danych. Wzrosły także lęki związane z bezpieczeństwem, prywatnością, etyką oraz brakiem przejrzystości w działaniu modeli. W 2024 r. wielu badaczy deklarowało, że AI zaczyna przewyższać ludzi w niektórych zastosowaniach. W 2025 taką opinię podtrzymuje już mniej niż jedna 30 proc. z nich.

Przeczytaj także:

REKLAMA

Raport sugeruje, że fala euforii wokół sztucznej inteligencji coraz bardziej ustępuje miejsca trzeźwej ocenie ryzyka. AI nie znika z laboratoriów, ale przestaje być traktowana jak magiczna różdżka służąca do rozwiązywania wszystkich problemów. Coraz więcej ekspertów widzi w niej raczej potężne, ale niebezpieczne narzędzie, które wymaga regulacji i dokładnego zrozumienia, zanim stanie się integralną częścią naukowego warsztatu.

*Źródło zdjęcia wprowadzającego: Ground Picture / Shutterstock

REKLAMA
Najnowsze
Aktualizacja: 2025-10-14T06:31:00+02:00
Aktualizacja: 2025-10-14T06:21:00+02:00
Aktualizacja: 2025-10-14T06:11:00+02:00
Aktualizacja: 2025-10-13T21:33:20+02:00
Aktualizacja: 2025-10-13T21:01:02+02:00
Aktualizacja: 2025-10-13T20:23:52+02:00
Aktualizacja: 2025-10-13T19:19:58+02:00
Aktualizacja: 2025-10-13T18:49:13+02:00
Aktualizacja: 2025-10-13T18:00:52+02:00
Aktualizacja: 2025-10-13T16:55:28+02:00
Aktualizacja: 2025-10-13T16:25:41+02:00
Aktualizacja: 2025-10-13T15:17:42+02:00
Aktualizacja: 2025-10-13T13:33:55+02:00
Aktualizacja: 2025-10-13T13:15:04+02:00
Aktualizacja: 2025-10-13T12:52:32+02:00
Aktualizacja: 2025-10-13T12:00:00+02:00
Aktualizacja: 2025-10-13T10:44:32+02:00
Aktualizacja: 2025-10-13T09:33:24+02:00
Aktualizacja: 2025-10-13T09:00:00+02:00
Aktualizacja: 2025-10-13T06:38:48+02:00
Aktualizacja: 2025-10-13T06:00:00+02:00
REKLAMA
REKLAMA
REKLAMA