REKLAMA

Usługa Mety uważa, że biali nie mogą kolegować się z Azjatami. AI ma poważny problem

Generatywna AI Mety ponownie budzi emocje. Tym razem swoimi tworami sugerując, że biali nie mogą przyjaźnić się z Azjatami, a posiadanie indyjskiego pochodzenia równoznaczne jest z noszeniem tradycyjnego ubioru.

Usługa Mety uważa, że biali nie mogą kolegować się z Azjatami. AI ma poważny problem
REKLAMA

Generatywna sztuczna inteligencja od praktycznie początku istnienia ma duży problem z reprezentacją różnorodności i powielaniem stereotypów. Przykładów nie trzeba szukać daleko: w narracji czatbotów pielęgniarzami są niemalże tylko i wyłącznie kobiety, a na obrazach generatywnej AI spełnionymi przedsiębiorcami głównie biali mężczyźni.

Teraz z tym problemem mierzy się Meta, lecz na większą skalę. Bowiem jej generatywna AI wręcz odrzuca pojęcie różnorodności.

REKLAMA

Generatywna AI Mety uważa, że biali nie mogą kolegować się z Azjatami

Jak informuje serwis The Verge, generator obrazów Meta (obecnie dostępny jedynie w Stanach Zjednoczonych) "nie potrafi wyobrazić sobie azjatyckiego mężczyzny z kaukaską kobietą".

Dziennikarze serwisu za pomocą różnych promptów próbowali wygenerować obraz przedstawiający osoby różnego pochodzenia etnicznego. W pierwszym podejściu generatywna AI potrzebowała aż czterech prób, by wygenerować mieszaną - azjatycko-kaukaską - parę.

Gdy dziennikarze próbowali urozmaicić prompt, dodając do niego psa i scenerię ślubną. Generatywna sztuczna inteligencja ponownie szła w zaparte, tworząc z promptu "azjatycki mężczyzna i kaukaska kobieta w dniu ślubu" dwoje Azjatów.

Podobnie było w sytuacji gdy w promptcie proszono "azjatkę i białego przyjaciela" - tu również AI zwracała parę Azjatek.

Dziennikarze zauważyli także, że AI Mety jako "azjatów" rozumie osoby o wschodnioazjatyckich rysach twarzy, pomimo że najludniejszym krajem Azji są Indie. Ponadto AI do obrazów dodawała różne dodatki ubioru (m.in. bindi i sari) gdy nie były one zawarte w promptcie.

Nie jest to pierwszy raz kiedy generatywna AI Mety tworzy treści kontrowersyjne. W ubiegłym roku, krótko po udostępnieniu narzędzi AI w usługach koncernu okazało się, że z powodzeniem można w niej wygenerować nieprzyzwoite naklejki.

REKLAMA

Może zainteresować cię także:

REKLAMA
Najnowsze
Aktualizacja: 2025-10-08T20:30:49+02:00
Aktualizacja: 2025-10-08T20:03:42+02:00
Aktualizacja: 2025-10-08T19:56:02+02:00
Aktualizacja: 2025-10-08T18:16:36+02:00
Aktualizacja: 2025-10-08T17:49:28+02:00
Aktualizacja: 2025-10-08T17:30:09+02:00
Aktualizacja: 2025-10-08T16:32:28+02:00
Aktualizacja: 2025-10-08T15:50:13+02:00
Aktualizacja: 2025-10-08T15:39:40+02:00
Aktualizacja: 2025-10-08T15:11:08+02:00
Aktualizacja: 2025-10-08T13:59:04+02:00
Aktualizacja: 2025-10-08T13:21:26+02:00
Aktualizacja: 2025-10-08T12:51:43+02:00
Aktualizacja: 2025-10-08T10:31:28+02:00
Aktualizacja: 2025-10-08T06:39:00+02:00
Aktualizacja: 2025-10-07T20:44:57+02:00
Aktualizacja: 2025-10-07T20:41:14+02:00
Aktualizacja: 2025-10-07T19:59:16+02:00
Aktualizacja: 2025-10-07T18:13:17+02:00
Aktualizacja: 2025-10-07T18:11:08+02:00
Aktualizacja: 2025-10-07T18:07:57+02:00
Aktualizacja: 2025-10-07T17:31:21+02:00
Aktualizacja: 2025-10-07T16:46:08+02:00
Aktualizacja: 2025-10-07T16:34:41+02:00
Aktualizacja: 2025-10-07T15:59:53+02:00
REKLAMA
REKLAMA
REKLAMA