ChatGPT powie ci, kim będzie twoje dziecko. Wystarczy rozprawka
Zaledwie jedna praca domowa może zdradzić, jak potoczy się edukacyjna ścieżka dziecka. Nowe badanie pokazuje, że sztuczna inteligencja może w kilka sekund odczytać z dziecięcych prac informacje, które kiedyś wymagały lat doświadczeń nauczycieli.

Czy kilkaset słów zapisanych w szkolnym zeszycie może zdradzić, jak potoczy się życie ich autora? Najnowsze badania sugerują, że tak - a odpowiedzi dostarczają duże modele językowe sztucznej inteligencji (LLM).
Zawarte w nich zaawansowane algorytmy analizujące język naturalny pozwoliły sprawdzić, w jakim stopniu dziecięce wypracowania mogą prognozować przyszłe osiągnięcia edukacyjne, zdolności poznawcze oraz cechy psychologiczne.
AI jest w stanie przewidzieć życiowe sukcesy na podstawie wypracowania ucznia
Do takich wniosków doszedł dr Tobias Wolfram z Uniwersytetu w Bielefeld, specjalizujący się w socjogenomice, który swoje badanie i jego wyniki opisał na łamach czasopisma Communications Psychology.
Do badania wykorzystał on niezwykle cenny zbiór danych z brytyjskiego badania kohortowego National Child Development Study, obejmującego osoby urodzone w 1958 roku. W wieku 11 lat uczestnicy zostali poproszeni o napisanie krótkiego wypracowania pod tytułem "Wyobraź sobie, że masz 25 lat". Teksty te - często zaledwie 250-słowne - po dziesięcioleciach zdigitalizowano i obecnie wykorzystuje się je w badaniach naukowych.
Dr Tobias Wolfram w eksperymencie zastosował metodę zwaną text embedding, czyli komputerowe przekształcenie każdego wypracowania w zestaw liczb opisujących jego treść i styl. W praktyce oznaczało to stworzenie "profilów" tekstów w ponad 1500 różnych kategoriach, które uwzględniały m.in. znaczenie słów, sposób budowania zdań czy ogólny ton wypowiedzi. Dodatkowo badacz wyróżnił ponad 500 innych cech językowych, takich jak bogactwo słownictwa, poziom skomplikowania zdań, łatwość czytania tekstu oraz liczba błędów gramatycznych i ortograficznych. Wszystkie te informacje stały się podstawą do dalszych analiz i przewidywań.
Daj mi swoją rozprawkę, a ja powiem ci kim zostaniesz w przyszłości
Do prognozowania wykorzystano model SuperLearner - zaawansowany system łączący różne algorytmy, m.in. sieci neuronowe, lasy losowe i maszyny wektorów wspierających. Każdy z nich analizował dane z innej perspektywy, a następnie wyniki były łączone, by uzyskać najbardziej trafną prognozę.
Okazało się, że LLM potrafi przewidzieć zdolności czytania, pisania czy matematyczne w wieku 11 i 16 lat z dokładnością zbliżoną do szczegółowych ocen nauczycieli, a w niektórych przypadkach równą im lub wyższą. Co ważne, wyniki te przewyższały prognozy oparte jedynie na danych genetycznych.
Badacze sprawdzili też, co się stanie, gdy połączą wyniki z trzech różnych źródeł: analizy wypracowań, ocen nauczycieli oraz danych genetycznych. Wspólne wykorzystanie tych informacji pozwoliło przewidzieć najwyższy poziom wykształcenia osiągnięty przez uczestników z około 38-procentową trafnością. Zdaniem Wolframa to bardzo wysoki wynik w porównaniu z innymi metodami stosowanymi w naukach społecznych, szczególnie w prognozach długoterminowych.
AI jest bystra, ale nie powinna zastępować nauczycieli
Wolfram podkreśla, że choć modele językowe oferują ogromny potencjał, oceny nauczycieli pozostają niezwykle wartościowe - szczególnie w kontekście interpretacji wyników i uwzględniania czynników, których algorytm może nie wychwycić. Według badacza, LLM mogą pełnić rolę wsparcia w procesie edukacyjnym, wspomagając identyfikację talentów lub obszarów wymagających pomocy, ale nie powinny całkowicie zastępować ludzkiego osądu.
Badanie wpisuje się w szerszy trend wykorzystywania analizy językowej do przewidywania cech i zachowań ludzi. Wcześniejsze próby, oparte na krótkich tekstach lub ankietach, były znacznie mniej skuteczne - trafność prognoz wynosiła często tylko kilka procent. Postęp technologiczny w przetwarzaniu języka naturalnego diametralnie zmienił ten obraz.
Wyzwania i wątpliwości etyczne
Oprócz potencjału, badanie ujawnia też ryzyka. Coraz większa dokładność przewidywań może prowadzić do nadużyć - np. w procesach rekrutacyjnych, ocenach szkolnych czy decyzjach kredytowych. Historia zna przypadki błędnych ocen opartych na modelach predykcyjnych, które utrwalały nierówności lub działały na niekorzyść określonych grup społecznych.
"Już dziś modele potrafią wyciągać z krótkich tekstów informacje, które dawniej wymagały lat obserwacji. To ogromna szansa, ale i odpowiedzialność" - podsumowuje Wolfram, dodając, że potrzebna jest jasna regulacja wykorzystania takich narzędzi w praktyce.
Może zainteresować cię także: