#B69AFF

Grozi nam nowy analfabetyzm. "Studiowanie tylko dla papierka nie ma sensu"

– Sztuczna inteligencja działa jak zwierciadło. Obnaża cały układ, w którym funkcjonujemy od dawna. Już od lat 90., a im bardziej wchodziliśmy w XXI wiek, tym było to bardziej widoczne. Zarówno uczący się, jak i uczący – wszyscy męczyliśmy się w tym systemie. Studiowanie tylko dla papierka nie miało sensu wtedy i nie ma go teraz. Może z tą różnicą, że dziś widać to i czuć dużo wyraźniej – mówi filozof technologii, dr hab. Michał Krzykawski, profesor Uniwersytetu Śląskiego.

Grozi nam nowy analfabetyzm. "Studiowanie tylko dla papierka nie ma sensu"

"Po co mam pisać pracę sam, skoro sztuczna inteligencja napisze ją za mnie, a ja będę miał więcej czasu?" – pytają studenci rozpoczynający nowy rok akademicki. Pokusa automatyzacji własnej edukacji jest ogromna. Jednak kolejne badania wskazują, że człowiek, który zbyt często wyręcza się AI, niepostrzeżenie traci własne kompetencje. Taki proces niesie ryzyko, bo skutkuje zubożeniem wiedzy.

Dr hab. Michał Krzykawski, dyrektor Centrum Badań Krytycznych nad Technologiami Uniwersytetu Śląskiego, nie pozostawia złudzeń: jeśli jesteś biegły w czytaniu i pisaniu, masz solidniejszą podstawę do tego, by uzyskać biegłość w innych umiejętnościach i formach wiedzy.

Krzykawski przekonuje także, że musimy przestać mówić o AI językiem kapitalizmu. Problem nie tkwi w samej AI, tylko w społeczeństwie, do którego ona przyszła.

Jeśli w 2025 roku młodzi ludzie nie mają materialnej możliwości poświęcić pięciu lat na szukanie własnej drogi, to znaczy, że społeczeństwo źle funkcjonuje.

– Potrzebujemy odwagi i eksperymentowania, by stworzyć nowe modele społeczno-ekonomiczne, które pozwolą młodym naprawdę studiować: podjąć wysiłek, wiedząc, że to się im opłaci. Ale nie w sensie kapitalistycznym, tylko rozwojowym, ludzkim – wyjaśnia badacz.

– Trzeba zapytać: czy naprawdę chcemy, aby edukacja – najważniejszy proces socjalizacyjny – była podporządkowana imperatywom wydajnościowo-produktywnościowym? – pyta naukowiec w rozmowie z magazynem Spiders Web+.

Zapraszamy do lektury wywiadu.

Filozof technologii, dr hab. Michał Krzykawski, profesor Uniwersytetu Śląskiego. Fot. Jakub Sobczak/NASK.



Rafał Pikuła: Według danych, na które powołuje się The Atlantic w głośnym tekście "College Students Have Already Changed Forever", niemal dwie trzecie studentów Harvardu korzystało ze sztucznej inteligencji co najmniej raz w tygodniu i aż 92 proc. studentów użyło AI przynajmniej raz w ciągu roku akademickiego. Czyli niemal wszyscy korzystają. Dziś studiowanie to korzystanie ze sztucznej inteligencji. Czy zatem tradycyjne studiowanie, pisanie pracy ma w ogóle sens?

dr hab. Michał Krzykawski, prof. UŚ: Studiowanie ma sens – tak samo jak pisanie. Musimy jednak odpowiedzieć sobie na pytanie: po co piszemy? I co pisanie wnosi do procesu uczenia się na uczelni wyższej? Spójrzmy na oddawanie esejów czy prac semestralnych. Pisanie służy nie tylko temu, by coś zaliczyć – ono przede wszystkim formuje umysł. To technika intelektualna porządkowania myśli, nadawania im kształtu, panowania nad obrazami, które podsuwa nam wyobraźnia. Ma to ogromne znaczenie poznawcze, niezależnie od tego, czy studiujemy filozofię, matematykę, czy prawo. W tym sensie nic się nie zmienia – także w epoce AI.

Z tym się zgodzę. Pisanie rozwija, ale dla wielu studentów pisanie esejów, prac rocznych czy dyplomowych to zwykły przykry obowiązek. Trzeba zaliczyć. Rozumiem, że na filozofii potrzeba poznania i porządkowania myśli ma znaczenie, ale dla studenta takiego zarządzania liczy się efekt w postaci wpisu w indeksie.

Może więc to sygnał, że studia od dawna nie miały głębszego sensu, a AI jedynie ten brak obnaża? Może problem polega na tym, że studentów interesuje wyłącznie efekt końcowy, bo wiedzą, iż nie otrzymają od wykładowcy porządnej informacji zwrotnej – chociażby dlatego, że na roku jest ich kilkudziesięciu, a wykładowca rozliczany jest z innych obowiązków niż czytanie prac semestralnych i dyskutowanie o nich ze studentami? To zatem pytanie także o systemowe niedomagania dydaktyki akademickiej, w której generatory tekstów stają się dostępne i naturalnie wykorzystywane.

Jednocześnie chodzi o to, aby na czytanie i pisanie – bo jedno z drugim się ściśle wiąże – spojrzeć w szerszej perspektywie. Nie chodzi przecież o to, by wszyscy pisali piękne eseje, lecz o to, że bez biegłości w pisaniu i czytaniu nie jesteśmy w stanie zgłębiać żadnej dziedziny wiedzy. W wymiarze psychospołecznym brak tej biegłości sprawia natomiast, że przestajemy być świadomi, co nami kieruje i kim chcemy być. Bo czytanie i pisanie nie oznacza jedynie odszyfrowywania znaków. A nabycie tej zdolności dzisiaj to również jedyny sposób na nieuleganie algorytmicznej manipulacji. Na bardziej zaawansowanym poziomie to także zdolność krytykowania własnego społeczeństwa oraz sposobów sprawowania w nim władzy.

Już teraz mamy coraz częściej do czynienia ze zjawiskiem nowego analfabetyzmu. Pisał o tym głośno już w 2018 roku prof. Marcin Król w "Piśmie. Magazynie Opinii", na długo przed pojawieniem się czatbotów.  Ludzie nie rozumieją, tego co czytają. Nie rozumieją, bo nie piszą, nie formułują myśli, często posługują się jakimiś równoważnikami zdań, rodem z mediów społecznościowych.  

Tu akurat rzeczywiście o wiele większym problemem niż generatory tekstów są media społecznościowe, które wciągają nas w krótkie, hipnotyzujące czasowości, sprawiając, że tracimy zdolność skupienia uwagi potrzebnej do przeczytania i zrozumienia dłuższych, bardziej wymagających tekstów. W tym aspekcie TikTok, sama koncepcja tego medium, wyrządza dużo więcej szkód poznawczych. Zbyt rzadko zresztą w debacie publicznej o AI mówi się, że jej upowszechnienie dokonało się w świecie rozregulowanym przez media społecznościowe.

Z drugiej strony AI działa jak zwierciadło. Obnaża cały układ, w którym od dawna funkcjonujemy. Już od lat 90., a im bardziej wchodziliśmy w XXI wiek, tym to było bardziej widoczne. Zarówno uczący się, jak i uczący – wszyscy męczyliśmy się w tym układzie. Studiowanie tylko dla papierka nie miało sensu wtedy i nie ma sensu teraz. Może z tą różnicą, że dzisiaj widać to i czuć dużo wyraźniej.

Amerykańska filozofka Shannon Valor w książce The AI Mirror pisze, że sztuczna inteligencja odbija niczym w lustrze wartości, którymi kierują się bogate społeczeństwa. Za kluczową koncepcję w dziedzinie bezpieczeństwa AI uchodzi dopasowanie wartości sztucznej inteligencji do wartości ludzkich (tzw. AI alignment). Ona jednak twierdzi – nieco przekornie – że to nie tędy droga, bo AI te wartości wyraża aż nazbyt dobrze. To właśnie te wartości doprowadziły nas z jednej strony na szczyty innowacji naukowo-technicznej, a z drugiej – do szóstego masowego wymierania. Dodałbym, poszerzając ten obraz, że w społeczeństwach bogatych owo wymieranie przejawia się także w uogólnionym poczuciu wyczerpania. Pojawia się więc pytanie, czy nasze rozumienie innowacji nie jest głęboko oderwane od wyzwań ekologicznych i psychospołecznych, z jakimi się zmagamy. Do jakiego modelu rozwoju i wizji człowieczeństwa właściwie chcemy dopasowywać AI? I kto o tym decyduje?

To są pytania kluczowe, bo sztuczna inteligencja nie tylko odbija dotychczasowe problemy, ale także je intensyfikuje – i dodaje nowe.

W tym sensie nie mamy do czynienia z radykalną zmianą, lecz raczej z obnażeniem sytuacji, która już wcześniej była trudna do zniesienia. Nasz błąd polega na tym, że zamiast zastanawiać się nad głębszymi przyczynami, dlaczego studiowanie stało się studiowaniem dla papierka, pytamy: "czy pisanie ma sens?".

Najlepszych, opartych na dowodach argumentów na rzecz czytania i pisania dostarcza neuronauka. Pisanie i czytanie tekstów drukowanych reorganizuje mózg. Jeśli jesteś biegły w czytaniu i pisaniu, masz solidniejszą podstawę do zdobywania innych umiejętności i form wiedzy. Krótko mówiąc: jeśli nie czytasz i nie piszesz, nie możesz naprawdę studiować – ani tym bardziej robić tego w poczuciu, że ma to sens. Doskonale pisze o tym francuski neurobiolog Stanislas Dehaene. Polecam jego prace, choć nie we wszystkim się z nim zgadzam. Wniosek jest jednak jasny: trzeba zapewniać odpowiednie warunki do podtrzymywania tej meta-umiejętności czytania i pisania. Idealnie byłoby zadbać o to już na wcześniejszych etapach edukacji – wówczas problem studentów, którzy nie czytają ani nie piszą, w ogóle by nie istniał.

Nie chodzi przy tym o to, by ignorować nowe możliwości, jakie daje technologia, i romantyzować czytanie czy pisanie. Chodzi raczej o zmianę sposobu myślenia o AI: przestańmy pytać, w czym może nas zastąpić, a zacznijmy pytać, w czym może nas realnie wspomóc.

Czyli mówisz, że AI powinno być wsparciem tego, co w nas najlepsze, a nie uwypuklać tego, co najgorsze. Ale wróćmy jeszcze do pytania o studia. Jeśli ktoś studiuje, korzystając z AI – czyli w pewien sposób sabotuje samego siebie – to potem, wchodząc w dorosłe życie i pierwszą pracę, siłą rzeczy będzie musiał tkwić dalej w tym systemie autosabotażu. Tak jak używał AI do napisania pracy zaliczeniowej, tak będzie używał jej do pisania maili, przygotowania prezentacji, do wszystkiego.

Rzecz w tym, aby wiedzieć, kiedy użycie AI jest poznawczo korzystne, a kiedy nie. Bez takiej samowiedzy i głębszego rozumienia technologii możemy przepaść. Człowiek bezwiednie nadużywający sztucznej inteligencji z czasem po prostu straci te umiejętności, które odda maszynie. I to jest potencjalnie bardzo niebezpieczne, bo prowadzi do proletaryzacji – czyli utraty wiedzy.

To pojęcie pochodzi od francuskiego filozofa Bernarda Stieglera. Chodzi o sytuację, w której nie tyle maszyny przejmują umiejętności związane z ludzkim intelektem, ile my nie tworzymy odpowiednich warunków, żeby te umiejętności odzyskać, kiedy są nam potrzebne. A one są nam potrzebne żywotnie. Bo stawką są wszystkie formy wiedzy, od wiedzy życiowej i praktycznej, po umiejętności projektowania, opracowywania problemów, ich oglądu teoretycznego czy wreszcie różnorodne formy ludzkiej ekspresji, które AI wtłacza we wzorce, uśredni. Generuje to efekt społecznokulturowego spłaszczenia. W pamięć zapadło mi coś, co na jednym z naszych roboczych seminariów powiedział Dan Ross, australijski tłumacz większości prac Stieglera na angielski: AI różnorodności życia umysłu robi to, co tradycyjny przemysł robi z życiem lasu. Zamienia leśny ekosystem w monokulturę.

Dlatego kluczowe jest pytanie o to, czym właściwie jest dziś świadomość technologiczna. To świadomość, która pozwala mi ocenić, kiedy używanie narzędzi mnie wzmacnia, rozwija jako podmiot poznający, a kiedy lepiej z nich zrezygnować.

Ale przecież wielkie firmy technologiczne przekonują nas, że właśnie sztuczna inteligencja da nam przewagę. Wzmocni nas. Człowiek, który nie korzysta ze sztucznej inteligencji przegra z tym, który jest biegły w wykorzystaniu tej technologii. 

I tu właśnie musimy przestać mówić o AI językiem kapitalizmu. Bo dziś największy problem polega na tym, że AI jest właściwością kapitału. O związanych z nią korzyściach mówi się w kategoriach wydajności, produktywności i efektywności. Lub optymalizacji procesów. 

Ale po to jest AI, bym robił więcej, szybciej, wydajniej. 

To jest dokładnie ABC neoliberalnego kapitalizmu. Ale trzeba zapytać: czy naprawdę chcemy, żeby edukacja – najważniejszy proces socjalizacyjny – była podporządkowana imperatywom wydajnościowo-produktywnościowym?

Czy może edukacja powinna być czymś innym – czasem wolnym przeznaczonym na naukę i rozwijanie zainteresowań?

Naprawdę musimy dziś rozmawiać tak, jakbyśmy znów byli w latach 90., kiedy kapitalizm zaczął wkraczać w sferę relacji międzyludzkich, by z czasem opanować szkoły i uniwersytety ze swoją manią efektywności? Dziś mamy szansę, żeby się z tej matni wyrwać. A tymczasem wciąż słyszymy argumenty: że szybciej, skuteczniej, wydajniej. Tylko… po co? Jaki jest cel? Samokomputeryzacja nie służy naszemu rozwojowi psychospołecznemu. Jest natomiast w interesie korporacji, które wciskają nam bajkę o nadludzkiej inteligencji. 

Ale co jest złego w samokomputeryzacji? Ja plus komputer równa się lepsze możliwości. 

To, że funkcjonując w ten sposób w wysoko rozwiniętych społeczeństwach, stajemy się coraz bardziej wyczerpani. Pracujemy więcej, a jednocześnie czujemy się nieszczęśliwi.

Mówiąc wprost: mamy więcej, ale nie jesteśmy szczęśliwsi. Obietnica zwiększonej produktywności nie działa na korzyść pracowników ani osób uczących się – bo zaczynamy upodabniać się do maszyn. Działamy na najwyższych obrotach. A z perspektywy elementarnej wiedzy biologicznej permanentne funkcjonowanie na najwyższych obrotach prowadzi do przegrzania organizmu. I do utraty zdolności regeneracji.

Obietnica zwiększonej produktywności nie działa na korzyść pracowników ani osób uczących się – bo zaczynamy upodabniać się do maszyn. Fot: shutterstock / Master1305

Czyli dewiza olimpijska "szybciej, wyżej, silniej" też prowadzi nas do autodestrukcji. Ja jednak chciałbym być sprawniejszy dzięki technologii, mieć tę przewagę nad innymi. 

W dewizie olimpijskiej było jeszcze jedno słowo po tych trzech: razem. Możesz szybciej biec, wyżej skakać i ćwiczyć swoją siłę tylko dlatego, że możemy razem te czynności wykonywać. Na tym polega współzawodniczenie. Wizja jednostki, którą wtłoczył nam do głów kapitalizm z wolnorynkowym prymatem konkurencji, jest przestarzała i toksyczna. 

Natomiast w byciu sprawniejszym dzięki technologii nie chodzi tylko o sprawność techniczną – o to, że ktoś potrafi zgrabnie pisać jak copywriter.

Sztuczna inteligencja obnaża coś innego: zmusza nas do zadania pytania, czy rzeczywiście automatyzuje procesy kreatywne, czy też takie, które kreatywnymi były tylko z nazwy. To jest bardzo trudny i delikatny temat, bo chodzi o ludzi, którzy boją się, że stracą pracę. Ale nie uciekniemy od dyskusji o tym, czy copywriting, marketing i cały przemysł kreatywny w dotychczasowej formie były nam naprawdę potrzebne, czy pełniły jakąś istotną funkcję społeczną. Co chcemy z nich zachować, a z czym lepiej się pożegnać? Gdzie lepiej wykorzystać umiejętności ludzi z branży kreatywnej? 

Kilka dni temu brałem udział w spotkaniu roboczym w ramach projektu, który realizujemy we współpracy ze znaną czeską firmą z branży kreatywnej, używającą AI do przeróżnych celów. Jej szef powiedział mi, że jego pracownicy kompletnie tracą motywację do pracy i są wręcz wkurzeni, widząc jak sprawność maszyn obliczeniowych rośnie. Czują, że tracą sprawstwo. A jednocześnie są przerażeni rzeczywistością, którą sami tworzą, więc to jest trochę błędne koło. Żeby z niego wyjść musimy wzmocnić zdolność krytycznego myślenia. I tu znowu wracamy do fundamentu, jakim jest nawyk pisania i czytania, bo bez niego nie ma krytycznego myślenia.

Rzeczywiście, w epoce niepewności, kiedy automatyzacja odbiera miejsca pracy, coraz częściej mówi się, że krytyczne myślenie i empatia mogą stać się kluczowymi kompetencjami. Nawet raport Światowego Forum Ekonomicznego podkreśla, że właśnie te dwie umiejętności będą decydować o przyszłości.

Tylko że krytyczne myślenie to także zdolność podważania systemu, które owo Forum legitymizuje. Dlaczego mówi się tam, że mamy myśleć krytycznie i być empatyczni? Żeby utrzymać status quo. Żeby machina kapitału dalej mogła się kręcić. Przekaz brzmi: AI przejęła twoje umiejętności, więc musisz się jeszcze bardziej wykazać, jeszcze mocniej postarać, żeby zostać w grze. Więcej empatii, więcej troski, więcej "ciebie dla systemu".

Mam być jeszcze bardziej wydajny. Także emocjonalnie. 

Tak. A to droga donikąd. Bo AI nie daje nam żadnych perspektyw na przyszłość – podporządkowana jest systemowi rozwoju gospodarczego, który etycznie i ekologicznie jest nie do utrzymania. To tylko kolejny mechanizm generowania zysku i poszerzania władzy.

Problem w tym, że dominująca perspektywa to perspektywa biznesowa, którą przenosimy na życie, jak gdyby było ono przedsiębiorstwem, gdzie musisz "zarządzać" nie tylko czasem, ale również zdrowiem, ciałem, relacjami i projektem życiowym, a im wcześniej zaczniesz to robić, tym większa szansa na sukces. Wszystkie firmy chcą korzystać z AI, bo to obniża koszty, zwiększa przewagę konkurencyjną, przyspiesza produkcję. Mam różnych studentów, ale łączy ich jedno: powszechna niezgoda na życie w takiej kulturze pracy".

Myślenie krytyczne w erze myślenia maszynowego trzeba powiązać z krytyką ekonomii politycznej kapitalizmu i stojących za nim ideologii. Nie musisz być od razu marksistą, aby się w tym myśleniu ćwiczyć. Chodzi o intelektualną uczciwość, rzetelną wiedzę z zakresu współczesnej teorii społeczeństwa i zdolność dostrzeżenia, że w wymiarze ideologicznym ten, kto posiada technologię wpisuje w nią pewien system wartości, pewną wizję świata. To dlatego powinniśmy budować własne maszyny. Nie po to, żeby konkurować, lecz po to, żeby móc w nie wpisać inny system wartości i inne wzorce wartościowania.

Zatem AI jest zbyt ważna, by zostawiać ją w rękach informatyków i biznesmenów.

Podobny błąd popełniliśmy w latach 90., kiedy ekonomię oddano grupce ekonomistów. Dziś nobliści, tacy jak Esther Duflo i Abhijit Banerjee, piszą wprost, że "ekonomia jest zbyt ważna, żeby zostawić ją tylko ekonomistom", że "dobra ekonomia na ciężkie czasy" to taka, która uznaje głęboko ludzkie poczucie godności i nie ustaje w wysiłkach na rzecz jego zaspokojenia. Problem w tym, że dotychczasowy rozwój AI przebiegał pod dyktando złej ekonomii. 

A przecież Dolina Krzemowa pierwotnie była związana z kontrkulturą – wolnością, hipisami, którzy chcieli technologie wojskowe wykorzystać do celów społecznych. To miała być nowa przestrzeń wolności i alternatywnych sposobów pracy. Tymczasem zatoczyliśmy koło.

Tylko że w latach 90 amerykańscy konserwatyści dostrzegli w cyfryzacji narzędzie do własnych celów. Rozmontowali amerykańskie państwo dobrobytu, drastycznie obniżyli podatki od zysków kapitałowych, a rewolucja cyfrowa stała się częścią konserwatywnej agendy, która w Polsce posłużyła za model do przeprowadzenia transformacji ustrojowej według planu Balcerowicza. W każdym razie sojusz Trumpa z wielkimi graczami Doliny Krzemowej nie jest przypadkiem. Newt Gingrich, kluczowa postać ultraliberalnej rewolucji lat 90. i ówczesny spiker w Izbie Reprezentantów, jest przyjacielem Trumpa, kierował jego kampanią, a także napisał kilka książek na jego temat. Ostatnia nosi tytuł Trump’s Triumph: America’s Greatest Comeback.  

AI nie daje nam żadnych perspektyw na przyszłość – podporządkowana jest systemowi rozwoju gospodarczego, który etycznie i ekologicznie jest nie do utrzymania. Fot: shutterstock / Master1305

Jeszcze dekadę temu, za Obamy, media społecznościowe były postrzegane jako liberalne. Zuckerberg uchodził za liberała, o Facebooku mówiło się wręcz, że to "lewackie" medium. Dziś wielu dziwi konserwatywny zwrot.

Ale konserwatywna interpretacja rewolucji cyfrowej trwa w USA nieprzerwanie od lat 90. I to nie jest najlepszy kraj do naśladowania niezależnie, kto był jego prezydentem. Tymczasem my kopiujemy z niego to, co najgorsze, ignorując to, co w Stanach jest naprawdę fajne. Jeśli naprawdę chcemy zrozumieć AI, musimy szukać inspiracji gdzie indziej. Budować inną kulturę innowacji, a przede wszystkim połączyć innowację technologiczną z politycznym nowatorstwem tej samej miary. 

Wspomniałeś, że Dolina Krzemowa miała być przeciwwagą dla technologii wojskowych. Tyle że to skonstruowany mit założycielski, który nie ma nic wspólnego z rzeczywistością. Dolina i ogromne rzesze firm z nią związanych znów orientują się na cele militarne. A AI na naszych oczach dogłębnie zmienia konflikty, sposoby prowadzenia wojny i zabijania ludzi. Warto o tym pamiętać, żeby mieć pełniejszy ogląd tego, czym AI jest jako obiekt technopolityczny.

Ale wróćmy do świata akademickiego, od którego trochę uciekliśmy. Mam wrażenie, że to jedyne miejsce, gdzie jeszcze można próbować odwrócić ten bieg rzeczy. Nie korporacje, nie Dolina Krzemowa, tylko właśnie uniwersytety – przestrzenie, gdzie uczymy się rozumienia świata i zadawania pytań. 

Wszyscy byśmy sobie życzyli, aby tak było, ale tak nie jest, a moja wiara w to, że mogłoby tak być ciąży ku zeru. Na podstawie przeżytych doświadczeń coraz mniej wierzę w tę instytucję i jej zdolność do przeorganizowania celów swojego istnienia. Być może trzeba już myśleć o tym, co przyjdzie w jej miejsce. 

Bo jeśli mówiłem, że AI coś obnaża, to obnaża również fakt, że na polskich uczelniach od dawna nie toczy się poważna debata naukowa angażująca społeczeństwo.  W zamian mamy celebrowanie pustych form lub festiwalizację nauki, czyli takie pozorne, marketingowe "wyjście do publiczności", które sprzyja raczej infantylizacji niż podnoszeniu poziomu debaty. I w żaden sposób nie może przesłonić faktu, że społeczna rola uniwersytetu czy jego wpływ na kształt realnych polityk publicznych jest niska.

Myślisz, że ten trend da się odwrócić? 

Musiałaby nastąpić zmiana tam, gdzie o nią najtrudniej, czyli na płaszczyźnie mentalnej, a na taką zmianę, jak już powiedziałem, raczej się nie zanosi. To nie tak, że na uniwersytetach, również polskich, nie ma dobrych badaczy, dydaktyków, pracowników administracji. Ale jako drużyna prezentujemy się raczej mizernie. Przestaliśmy ze sobą rozmawiać, tymczasem kultura naukowa jest kulturą rozmowy, dialogu, wymiany myśli. Zdaje się, że w Dolinie Krzemowej dobrze to rozumieją. Mają czas, żeby rozmawiać, wymieniać się ideami, a potem zapisywać ich efekty w algorytmach.

Ale właśnie na tym polega uniwersytet! Pamiętam swoje studia – wykłady, seminaria, a potem przenosiliśmy dyskusje do barów i gadaliśmy dalej, przy piwie.

Tak, sam pamiętam takie epizody. Ale w idealizowanie uniwersytetu mnie nie wciągniesz. Nie tego oczekują studenci. W ubiegłym semestrze wraz ze studentami i studentkami Wydziału Socjologii Uniwersytetu Warszawskiego pracowaliśmy nad projektem „Więcej ze studiowania”, do którego zaprosili również Uniwersytet Śląski. Dzięki temu mogłem włączyć do niego naszych studentów kognitywistyki i doktorantów. Celem projektu było przyjrzenie się przyczynom odspołecznienia procesu studiowania oraz proletaryzacji pracy akademickiej wykonywanej zarówno przez pracowników naukowo-dydaktycznych, jak i przez studentów. Chodziło też o to, jak moglibyśmy się przeorganizować, aby zmienić ten stan rzeczy – nie przez rewolucję w sensie wychodzenia na barykady, lecz poprzez dokładniejsze rozeznanie sytuacji i lepsze wykorzystanie narzędzi, które już mamy.

Nie jest więc tak, że w studentach zamarła chęć dyskusji – przeciwnie, rozmawialiśmy bardzo dużo, wspólnie zastanawiając się, jak najlepiej zrealizować ten projekt naukowy. Pytanie brzmi raczej: dlaczego takie deliberacje nie są codziennością na uczelni?

Brutalna prawda jest taka, że uczymy na uniwersytecie, w którym dydaktyka po pierwsze się nie opłaca, bo jako część pracy akademickiej nie daje się łatwo ocenić ani skwantyfikować, a po drugie – funkcjonujący pod presją tej kwantyfikacji wykładowcy nie mają na nią czasu. To jest główny problem – problem systemowy. To jego rozwiązania potrzebujemy. Wówczas kwestia AI na uczelniach wyższych rozwiąże się sama.

Dodam jeszcze jedno – wielu studentów nawet nie ma czasu, żeby naprawdę studiować. Szacuję, że 20–30 procent pracuje równolegle, żeby się utrzymać. To jest ta sama logika wydajności, o której mówiliśmy wcześniej.

Dla nich AI jest rozwiązaniem: nie napiszą pracy sami, zrobi to za nich maszyna. Ale wiesz, wielu z nich mi mówi: "chciałabym się bardziej przyłożyć, zrobić porządny research, pójść do biblioteki". Tylko że nie mają na to czasu, bo muszą zarabiać na czynsz. Tu wracamy do kwestii ekonomicznych.

Problem nie tkwi więc w samej AI, tylko w społeczeństwie, do którego ona przyszła. Jeśli w 2025 roku młodzi ludzie nie mają materialnej możliwości poświęcić pięciu lat na szukanie własnej drogi, to znaczy, że społeczeństwo źle funkcjonuje. Zresztą niektórzy z nich, a z roku na rok ich przybywa, są na antydepresantach i czasem nie są w stanie uczestniczyć w zajęciach.

Potrzebujemy odwagi i eksperymentowania, by stworzyć nowe modele społeczno-ekonomiczne, które pozwolą młodym naprawdę studiować – podjąć wysiłek, wiedząc, że to się im opłaci. Ale nie w sensie kapitalistycznym, tylko rozwojowym, ludzkim.

Masz rację, tylko że dziś dominująca narracja jest inna: "dlaczego studia są bezpłatne? Dlaczego mamy finansować historię sztuki? Dlaczego podatnicy mają płacić za coś, co nie przynosi gospodarczego zwrotu?". I to dotyczy nawet kierunków ścisłych czy medycznych – pyta się, po co mają być darmowe.

Znam tę narrację. Ale czy ona rzeczywiście jest dominująca? Bez przesady. Płatne studia to jedynie element idealnego świata Sławomira Mentzena. Uzyskał on spore poparcie wśród młodych jako kandydat na prezydenta, ale trudno powiedzieć,  na ile wynika ono z poparcia jego wolnorynkowej wizji edukacji, a na ile z tego, że niesie go fala masowego sprzeciwu wobec politycznego klinczu PO-PiS i to, że dobrze się klika na TikToku. 

W każdym razie bezpłatna edukacja i inwestycja w edukację wiążą się z pytaniem o model społeczeństwa, w jakim chcemy żyć. Bezpłatna edukacja to niezbywalny element europejskiej nowoczesności. Najlepsza rzecz, jaką ona nam przyniosła. Tylko to jest kwestia wartości.

To trochę jak w 1944 roku, gdy Międzynarodowa Organizacja Pracy ogłosiła Deklarację Filadelfijską – akt normatywny oparty na wartościach, w którym potwierdza się, że "praca nie jest towarem". Nie ma "ekonomicznych" argumentów na rzecz darmowych studiów. To sprawa wyborów cywilizacyjnych i aksjologicznych. Dobrze o tym pisze Jerzy Hausner w swoich pracach poświęconych "ekonomii wartości".

Potrzebujemy odwagi i eksperymentowania, by stworzyć nowe modele społeczno-ekonomiczne, które pozwolą młodym naprawdę studiować – podjąć wysiłek, wiedząc, że to się im opłaci. Ale nie w sensie kapitalistycznym, tylko rozwojowym, ludzkim. Fot: shutterstock / Master1305


Czyli nawet jeśli rynkowo to się nie opłaca, to mamy z tego korzyść społeczną? 

Oczywiście. Życie to nie rynek, przede wszystkim dlatego, że składa się na nie, w dużej mierze, jego część nieobliczalna. I właśnie teraz, gdy rosnące moce obliczeniowe kwestionują tak wiele dogmatów, zmieniają rozumienie tego, czym są siły wytwórcze i gdzie bije źródło sensu pracy, powinniśmy się odważyć zadać pytanie: czy kapitalistyczna organizacja społeczeństwa jest jedyną możliwą? Może istnieją inne miary wartości, które warto wziąć pod uwagę? A jeśli tak, to jak wyglądałoby codzienne życie naukowe na uczelniach publicznych po ich wdrożeniu?

To jest bardzo ciekawe pytanie. A czasami zastanawiam się, czy przyszły uniwersytet nie będzie wyglądał tak: tradycyjne studiowanie – wykłady, czytanie książek, kontakt z profesorem – będzie luksusem dla wąskiej elity. A masy dostaną edukację z chatbotem: zdalną, bez kontaktu z ludźmi, z egzaminami pisanymi z pomocą AI.

To wizja dystopijna – może nie spełni się w stu procentach, ale zagrożenie jest realne. Tyle że my te dystopie sami wytwarzamy, tracąc poczucie realizmu. A pytanie jest takie, co zrobić, by do tego nie dopuścić i spojrzeć na AI realistycznie, a więc usytuować ją w kontekście psychospołecznym. Moim zdaniem jedynym sposobem jest inwestowanie w nauczycieli i ich dowartościowanie. To zawód, który powinien zyskać nowy prestiż społeczny.

Musimy dokonać wyboru: jako społeczeństwo stwierdzić, że wolimy, by uczący byli ludźmi z powołaniem, czasem na kształcenie i godziwą pensją, a nie chatbotami. Że krytyczne myślenie, deliberacja, empatia są wartościami, w które warto inwestować.

Zobacz: z KPO przeznaczamy miliardy na laboratoria STEM i AI. To dobrze, ale równie ważne są nauki humanistyczne i społeczne – filozofia techniki, antropologia, krytyka technologii, ekologia polityczna, wiedza o tym, jak się dokonuje zmiana społeczna. Dzięki nim młodzi ludzie mogliby sami wpaść na to, że w tych laboratoriach można projektować zupełnie inne maszyny, a nawet kminić, jak przeprojektować internet, bo to, w co wyewoluował tworzy środowisko poznawcze, w którym żyje się coraz trudniej.

Brzmi pięknie, ale to z kolei utopia. Wizja rodem z futurologicznych esejów z lat 50. – roboty przejmują żmudną pracę, a ludzie zajmują się rozwojem duchowym. Przecież dziś pracujemy więcej i bardziej jesteśmy obciążeni mentalnie pracą. 


Jest tak dlatego, że rozwój techniczny został podporządkowany takiemu, a nie innemu modelowi rozwoju gospodarczego. Ale to kwestia wyborów: technologicznych i politycznych. Możemy dokonać innych. 

Nie zajmują mnie utopie. Nigdy nie byłem fanem literatury fantastyczno-naukowej, a eseje futurologiczne mnie trochę nudzą, bo są najczęściej oderwane od świata społecznego. Nie widzę natomiast nic złego w dążeniu do świata, w którym maszyny przejmują żmudne zadania kojarzone z przymusem pracy, a ludzie odzyskują czas na to, żeby zajmować się matematyką, tworzyć nowe koncepcje filozoficzne, wytwarzać na własne potrzeby lub marzyć. Czy to myślenie utopijne? Na pewno ekosocjalistyczne, patrzące nie na technologie rozwijane w laboratoriach, lecz na potrzeby społeczne. Ale chodzi mi przede wszystkim o próbę analizy tego, co wielkie moce obliczeniowe mogłyby nam dać, gdybyśmy je odprzęgnęli od imperatywów zysku kapitalistycznego modelu rozwoju. Bo utopią na pewno jest kurczowe trzymanie się tego modelu. Jednocześnie chodzi o osiągnięcie technopolitycznej dojrzałości. Weźmy przykład podatku cyfrowego. Gdyby Polska miała odwagę go wprowadzić, zyskalibyśmy około 2 miliardów złotych rocznie. Dla porównania – budżet na kulturę to dziś około 10 miliardów.

Wyobraź sobie, że część tych pieniędzy przeznaczamy nie tylko na media, które cierpią przez odpływ reklam, ale także na wzmocnienie edukacji, kultury krytycznego myślenia, demokratyzację społeczeństwa.

To kwestia politycznych decyzji i odwagi. Wyobrażam sobie spotkanie ministra edukacji, ministra kultury i ministra cyfryzacji, którzy mówią: "nasze dzieci tracą zdolności poznawcze, musimy działać, bo to przesądzi o stanie demokracji w Polsce za 20 lat".

To nie utopia. To wizja i odwaga polityczna.