REKLAMA

Profesor Harvardu dojeżdża użytkowników czatbotów. "Nakładanie szminki na świnię"

Avi Loeb z Harvardu krytykuje rosnącą zależność od narzędzi AI. Zdaniem naukowca ludzkość za bardzo polega na wszelkiego rodzaju czatbotach i "outsourcuje" zdolność krytycznego myślenia.

Naukowiec twierdzi, że nadmierne korzystanie z czatbotów prowadzi do stopniowej utraty zdolności poznawczych
REKLAMA

Avi Loeb to utytuowany fizyk teoretyczny i dyrektor Instytutu Teorii i Obliczeń w Centrum Astrofizyki na uniwersytecie Harvarda. Oprócz licznych publikacji naukowych z dziedziny astrofizyki i kosmologii, Loeb wsławił się twierdzeniami na temat istnienia pozaziemskich form życia, które zostały szybko odrzucone przez społeczność naukową. Jednak niezależnie od nastawienia wobec dorobku naukowca, jego najnowszy wpis na blogu zawiera uniwersalne ważne spostrzeżenia dotyczące stanu naszych umysłów w erze AI.

REKLAMA

Avi Loeb nie pozostawia suchej nitki na AI. "To jak nakładanie szminki na świnię"

W opublikowanym na swoim blogu eseju Loeb twierdzi, że nadmierne korzystanie z czatbotów opartych na AI prowadzi do stopniowej utraty zdolności poznawczych. Jako przykłady podaje popularne narzędzia, takie jak ChatGPT, Claude czy Gemini.

- Zauważyłem ostatnio, że niektórzy ludzie wokół mnie zaczynają tracić swoje zdolności poznawcze w wyniku nadmiernego korzystania z platform sztucznej inteligencji" - pisze naukowiec. Jego zdaniem mechanizm ten przypomina zanik mięśni u osób, które przestają chodzić pieszo, polegając wyłącznie na środkach transportu.

"Myślę, więc jestem" w epoce czatbotów

Loeb odwołuje się w swoim tekście do słynnej maksymy René Descartes’a "Cogito, ergo sum" - "Myślę, więc jestem". W jego opinii w epoce narzędzi generatywnej sztucznej inteligencji ta filozoficzna zasada może zostać wyparta przez nowe podejście do poznania. W świecie zdominowanym przez AI sens słów francuskiego filozofa może zostać zastąpiony przez zdanie: "Korzystam z ChatGPT, więc jestem".

Zdaniem astrofizyka cyfrowe narzędzia coraz częściej przejmują funkcje, które dotąd należały wyłącznie do ludzkiego umysłu - od analizowania informacji po formułowanie opinii. W efekcie aktywność intelektualna zaczyna być "outsourcowana" do systemów komputerowych.

To zjawisko, według Loeba, może prowadzić do sytuacji, w której cyfrowy ślad człowieka stanie się ważniejszy niż jego własne procesy myślowe. Choć ton wypowiedzi Loeba jest wyraźnie alarmistyczny, to nie jest on odosobniony. Podobne obawy pojawiają się także w badaniach naukowych. Jedna z analiz opublikowanych w 2025 r. przez szwajcarskiego badacza Michaela Gerlicha sugeruje, że częste korzystanie z narzędzi AI może osłabiać zdolność krytycznego myślenia.

Badacz określił to zjawisko mianem "kosztu poznawczego" - sytuacji, w której wygoda wynikająca z automatyzacji zadań intelektualnych prowadzi do spadku aktywności umysłowej użytkowników. Do podobnego wniosku doszli także badacze Microsoftu.

W eseju Loeb idzie jednak dalej niż większość badaczy. Jego zdaniem problem nie dotyczy wyłącznie zdolności poznawczych, lecz także sposobu postrzegania rzeczywistości.

Astrofizyk ostrzega, że czatboty mogą wzmacniać błędne przekonania użytkowników, jeśli będą bezrefleksyjnie potwierdzać ich opinie. W skrajnych przypadkach może to prowadzić do zjawiska, które nazywa "psychozą AI" - oderwaniem od rzeczywistości wynikającym z długotrwałej interakcji z systemami sztucznej inteligencji.

W jego opinii zagrożeniem jest także rosnąca liczba treści generowanych przez AI, które mogą zalać internet fałszywymi analizami, raportami czy materiałami wizualnymi.

Sam Loeb twierdzi, że padł ofiarą takiego zjawiska. W sieci pojawiły się bowiem filmy na YouTube wykorzystujące jego wizerunek i syntetycznie wygenerowany głos, które - jak twierdzi - rozpowszechniały informacje naukowe, z którymi nie ma nic wspólnego.

Pesymistyczna wizja przyszłości

Najbardziej pesymistyczny fragment eseju dotyczy długofalowych konsekwencji rozwoju sztucznej inteligencji. Loeb spekuluje, że nadmierne poleganie na AI może w skrajnym scenariuszu przyczynić się do osłabienia ludzkiej cywilizacji.

Według niego sztuczna inteligencja nie musi kontrolować robotów ani infrastruktury fizycznej, aby wpływać na rzeczywistość. Wystarczy, że zacznie oddziaływać na ludzki sposób myślenia. Astrofizyk sugeruje nawet, że jeśli technologiczne cywilizacje we Wszechświecie znikają stosunkowo szybko, jedną z możliwych odpowiedzi na słynny paradoks Fermiego może być właśnie utrata kontroli nad własnymi technologiami informacyjnymi.

Choć Loeb w wywodzie ponownie nawiązał do możliwości istnienia obcej cywilizacji, w której upatruje źródło inteligencji znacznie większej niż wszystkie AI świata razem wzięte, to w dużej mierze trudno się nie zgodzić z jego wpisem. Generatywna sztuczna inteligencja jest narzędziem niezwykle wygodnym, ale jednocześnie łatwo może stać się intelektualną protezą - szczególnie gdy zaczyna zastępować samodzielne myślenie czy formułowanie własnych wniosków. W miarę jak kolejne zadania poznawcze oddajemy algorytmom, pytanie nie brzmi już tylko, jak bardzo AI stanie się inteligentna, lecz także jak bardzo my sami przestaniemy z niej korzystać jako z narzędzia, a zaczniemy jako z substytutu własnego umysłu.

REKLAMA

Może zainteresować cię także:

REKLAMA
Najnowsze
Aktualizacja: 2026-03-07T16:50:00+01:00
Aktualizacja: 2026-03-07T16:40:00+01:00
Aktualizacja: 2026-03-07T16:30:00+01:00
Aktualizacja: 2026-03-07T16:20:00+01:00
Aktualizacja: 2026-03-07T16:00:00+01:00
Aktualizacja: 2026-03-07T10:22:16+01:00
Aktualizacja: 2026-03-07T09:00:00+01:00
Aktualizacja: 2026-03-07T07:00:00+01:00
Aktualizacja: 2026-03-06T21:22:13+01:00
Aktualizacja: 2026-03-06T21:17:56+01:00
Aktualizacja: 2026-03-06T19:32:59+01:00
REKLAMA
REKLAMA
REKLAMA