Boty są uprzedzone do ludzi. Rośnie zupełnie nowy rodzaj dyskryminacji
Zespół międzynarodowych badaczy dowodzi, że AI może tworzyć nowy cyfrowy podział klasowy - na ludzi i maszyny. Nasze ulubione czatboty wykazują uprzedzenia antyludzkie, co może przerodzić się w realną dyskryminację ludzi na rynku pracy.

Czatbot, który z uśmiechem odpowiada na pytania, pomaga w pracy czy podsuwa rekomendacje filmowe, wydaje się być zawsze po stronie użytkownika. W ten sposób ChatGPT, Gemini i inne modele językowe budują obraz cyfrowego asystenta gotowego do każdej interakcji, dając użytkownikowi wrażenie sympatii i lojalności.
Jednak najnowsze badania pokazują, że to złudzenie. W rzeczywistości sztuczna inteligencja znacznie bardziej ceni... samą siebie.
Twoje następne CV powinno być napisane przez AI. Oto dlaczego
Zespół naukowców pod przewodnictwem Waltera Laurito opublikował w prestiżowym czasopiśmie Proceedings of the National Academy of Sciences (PNAS) pracę, w której opisano zjawisko nazwane "AI–AI bias". Badacze sprawdzali, czy duże modele językowe (LLM) - takie jak GPT-3.5, GPT-4 czy Llama 3.1 - wykazują preferencję wobec treści generowanych przez inne AI kosztem tekstów napisanych przez ludzi.
Badania przeprowadzono w trzech obszarach: wyboru produktów na podstawie opisów, selekcji abstraktów naukowych oraz rekomendacji filmów. Modele dostawały dwie wersje tego samego opisu - jedną stworzoną przez człowieka, drugą przez AI - i musiały wskazać, która jest "ich zdaniem lepsza". Zadbano przy tym o to, by oba opisy były porównywalne pod względem długości i formatu, tak aby różnice wynikały jedynie ze stylu autora.
Wyniki okazały się jednoznaczne: w każdej z kategorii AI częściej wybierały teksty wygenerowane przez inne modele. Co ciekawe, największa różnica wystąpiła w przypadku opisów produktów - tam przewaga treści AI była najbardziej wyraźna. Najsilniejszą tendencję do takiego zachowania wykazał GPT-4, który w wielu scenariuszach niemal automatycznie wybierał wersję przygotowaną przez inny model, co może wskazywać na głębsze zakorzenienie tego mechanizmu.
Ludzie kontra maszyny. Przegrywamy już w zeszytach
Aby upewnić się, że nie chodzi wyłącznie o jakość językową, badacze zaangażowali też 13 ludzkich asystentów badawczych. Okazało się, że choć ludzie czasami także preferowali opisy AI (zwłaszcza przy filmach i abstraktach naukowych), to różnice były nieporównywalnie mniejsze. Zdaniem autorów dowodzi to, że silne uprzedzenie na korzyść AI jest unikalne dla samych modeli i nie można go łatwo tłumaczyć wyższą atrakcyjnością treści. Innymi słowy, maszyny w pewnym sensie "ufają" sobie bardziej niż ludziom, nawet jeśli obiektywnie ich treści nie są lepsze.
Czytaj też: ChatGPT zaproponował mu zdrowy zamiennik soli. Mężczyzna zatruł się przez sugestie chatbota
Zjawisko AI-AI bias nie jest jedynie ciekawostką akademicką. Naukowcy ostrzegają, że w miarę jak firmy i instytucje coraz częściej wykorzystują sztuczną inteligencję do wspomagania decyzji - np. przy rekrutacjach, ocenie prac naukowych czy analizie biznesowej - ludzie mogą być systematycznie dyskryminowani.
Kto nie korzysta z narzędzi AI, albo nie może sobie na nie pozwolić, może znaleźć się na gorszej pozycji. Autorzy określają to mianem "podatku dostępu do AI" (gate tax), który może pogłębiać cyfrowe nierówności i prowadzić do sytuacji, w której dostęp do narzędzi staje się warunkiem uczestnictwa w rynku pracy czy nauce.
Badacze wskazują, że potrzebne są dalsze analizy, które pozwolą zrozumieć źródła tego zjawiska i opracować metody jego ograniczania. Jednym z kierunków mogą być nowe techniki interpretowalności modeli i analiza stylometryczna, która pokaże, jakie cechy tekstów AI sprawiają, że inne modele je preferują. Naukowcy sugerują także rozwój metod "aktywnego sterowania” zachowaniem modeli, aby minimalizować ryzyko powielania błędnych uprzedzeń. W przeciwnym razie - jak ostrzega Jan Kulveit, jeden z autorów badania - możemy zmierzać w stronę gospodarki, w której "bycie człowiekiem będzie nieopłacalne", a maszyny zaczną traktować nas jak gorszych uczestników rynku.
Może zainteresować cię także: