REKLAMA

AI ma leczyć ludzi? Spełnia się dramatyczna wizja

Sztuczna inteligencja miała zrewolucjonizować badania naukowe i medycynę. Problem jednak w tym, że coraz częściej uczy się na danych, które nigdy nie istniały. Eksperci ostrzegają - jeśli nie zaczniemy ich weryfikować, zamiast postępu czeka nas cyfrowe błędne koło.

AI uczy się na fikcji. Naukowcy ostrzegają przed katastrofą
REKLAMA

Wyobraź sobie ucznia, który zamiast czytać książki i obserwować świat, bazuje wyłącznie na własnych domysłach i notatkach kolegów. Tak dziś wygląda rozwój sztucznej inteligencji w wielu obszarach nauki, a zwłaszcza w medycynie. Algorytmy uczą się na tzw. danych syntetycznych, czyli cyfrowych symulacjach rzeczywistych informacji. Zamiast tysięcy prawdziwych zdjęć rentgenowskich, dostają wygenerowane obrazy stworzone przez inne algorytmy.

Jak czytamy na łamach Nature, tak właśnie wygląda rzeczywistość, która na pierwszy rzut oka ma same zalety: dane syntetyczne są tanie, łatwo dostępne, nie wymagają klauzul RODO i można ich używać tam, gdzie brakuje zasobów,  np. w szpitalach w Afryce czy w Azji. Tyle że z czasem modele uczą się nie na rzeczywistości, a na wcześniejszych syntetycznych wersjach tej rzeczywistości. I tu zaczyna się problem.

REKLAMA

Sztuczna inteligencja zaczyna wierzyć we własne kłamstwa

Coraz więcej algorytmów przetwarza dane, które nie mają już wiele wspólnego ze światem rzeczywistym. To jak robienie kopii kopii kopii. W końcu obraz staje się nieczytelny. Naukowcy mówią wprost: może dojść do zjawiska model collapse, czyli cyfrowego załamania, w którym AI zacznie tworzyć nonsensowne wyniki, choć na pozór będą wyglądać logicznie.

Tymczasem część uczelni rezygnuje z konieczności opiniowania takich badań przez komisje etyczne. Bo przecież to tylko sztuczne dane. Prawda? Problem jednak w tym, że wiele z tych danych bazuje na prawdziwych informacjach pacjentów i istnieje ryzyko, że ktoś kiedyś powiąże je z konkretną osobą. W erze AI nic nie jest całkowicie anonimowe.

Naukowcy biją na alarm. Nie wszyscy chcą jednak słuchać

Zisis Kozlakidis z WHO zwraca uwagę na brak przejrzystości: twórcy modeli rzadko ujawniają, jak dokładnie wygenerowali dane, na których AI się uczyła. W efekcie nie da się zweryfikować wyników. A bez tego nie ma mowy o rzetelnej nauce. Randi Foraker z Uniwersytetu Missouri apeluje z kolei o wprowadzenie standardów raportowania dla danych syntetycznych. Inni badacze, jak Marcel Binz z Niemiec, celowo udostępniają swoje modele publicznie, by mogły być sprawdzone przez innych.

Przeczytaj także:

REKLAMA

Choć temat może brzmieć dla nas odlegle, to nie dotyczy tylko USA czy Niemiec. W Polsce również wdraża się AI w szpitalach, na uczelniach czy w instytutach badawczych. Jeśli chcemy rozwijać nasze modele uczciwie i odpowiedzialnie, musimy zadbać o walidację, czyli niezależne sprawdzenie, czy wyniki mają sens. Jeśli tego nie zrobimy, zamiast rewolucji czeka nas cyfrowa katastrofa: AI, która świetnie rozumie świat, który sama sobie wymyśliła.

*Grafika wprowadzająca wygenerowana przez AI

REKLAMA
Najnowsze
Aktualizacja: 2025-09-11T19:31:53+02:00
Aktualizacja: 2025-09-11T19:18:30+02:00
Aktualizacja: 2025-09-11T18:02:04+02:00
Aktualizacja: 2025-09-11T17:41:37+02:00
Aktualizacja: 2025-09-11T17:21:52+02:00
Aktualizacja: 2025-09-11T14:18:38+02:00
Aktualizacja: 2025-09-11T11:08:25+02:00
Aktualizacja: 2025-09-11T06:01:00+02:00
Aktualizacja: 2025-09-10T19:16:46+02:00
REKLAMA
REKLAMA
REKLAMA