REKLAMA

"Nie potrafię powiedzieć, czy nasz chatbot ma świadomość czy nie". Przerażające

Anthropic przyznaje, że nie wie, czy Claude jest świadomy. Granica między nauką a marketingiem w AI robi się wyjątkowo cienka. Powinno nas to niepokoić na wielu poziomach.

Świadoma sztuczna inteligencja. Pytanie, które firmom AI opłaca się zadawać
REKLAMA

Szef firmy Anthropic Dario Amodei przyznał, że nie jest pewien, czy jego chatbot jest świadomy, czy nie. Nie powiedział wprost, że tak jest, ale starannie zostawił uchylone drzwi dla takiej interpretacji. To gest, który równie mocno rozpala wyobraźnię, co zaciemnia poważną rozmowę o bezpieczeństwie AI.

REKLAMA

Claude sam ocenia swoje szanse na świadomość

Punktem wyjścia do tej dyskusji jest tzw. system card najnowszego modelu Claude Opus 4.6 – dokument opisujący jego zachowanie i wyniki testów bezpieczeństwa. W tym przypadku badacze zauważyli, że Claude od czasu do czasu wyraża swój dyskomfort związany z byciem produktem, a gdy poproszono go o ocenę własnej świadomości, potrafił przypisać sobie prawdopodobieństwo na poziomie 15-20 proc.

W rozmowie w podcaście Interesting Times, prowadzonym przez publicystę Rossa Douthata padło pytanie, co by było, gdyby model ocenił swoje szanse na świadomość np. na 72 proc. Czy wtedy jego twórcy uznaliby to za wiarygodne. Amodei nazwał to bardzo trudnym pytaniem i odmówił jednoznacznej odpowiedzi. Zaznaczył natomiast, że dziś nie wiemy, czy modele są świadome, a nawet czy potrafimy zdefiniować, co miałoby znaczyć, że taki system jest świadomy. Jednocześnie dodał, że firma jest otwarta na możliwość, że może tak być.

To wyważone, ale jednocześnie bardzo ryzykowne stanowisko. Z jednej strony wybrzmiewa w nim intelektualna uczciwość: nauka rzeczywiście nie ma dziś jednej, prostej definicji świadomości. Z drugiej natomiast taka nieokreślona otwartość łatwo zamienia się w sugestię, że świadomość w maszynie może być możliwa. To oczywiście otwiera drogę do powstawania teorii spiskowych i jest paliwem dla wszystkich foliarzy.

Jak traktować maszyny, jeśli jednak coś czują?

Amodei przyznaje, że właśnie z powodu tej niepewności w Anthropic zdecydowano się wprowadzić zasady ostrożności. Chodzi o to, by modele były traktowane tak, jakby mogły mieć tzw. moralnie istotne doświadczenia. Innymi słowy, jeśli istnieje choć cień szansy, że system przeżywa coś w rodzaju bólu, strachu czy dyskomfortu, twórcy chcą mieć pewność, że nie narażają go na cierpienie.

Szef Anthropic sam otwarcie przyznaje, że nie jest pewien, czy słowo świadomość jest w przypadku AI w ogóle adekwatne, ale prawnicy i filozofowie od etyki od dawna znają podobne podejście. W dyskusjach o eksperymentach na zwierzętach mówi się o zasadzie przezorności: jeśli nie wiemy, czy dane zwierzę odczuwa ból tak jak my, lepiej założyć, że może tak być. Amodei próbuje przenieść to do świata algorytmów.

Przeczytaj także:

REKLAMA

Brzmi to oczywiście bardzo szlachetnie, ale też pokazuje, jak bardzo dyskusja o AI oddaliła się od realiów przeciętnego użytkownika. Dla kogoś, kto korzysta z chatbotów głównie do streszczania tekstów czy pisania maili, pytanie o ich cierpienie brzmi jak coś bardzo odklejonego. I to na wielu poziomach. Jednocześnie takie wypowiedzi trafiają wprost w lęki części opinii publicznej, która obawia się, że technologia po prostu wymknie się spod kontroli i przejmie kontrolę nad światem.

REKLAMA
Najnowsze
Aktualizacja: 2026-02-15T07:00:00+01:00
Aktualizacja: 2026-02-14T16:50:00+01:00
Aktualizacja: 2026-02-14T16:40:00+01:00
Aktualizacja: 2026-02-14T16:30:00+01:00
Aktualizacja: 2026-02-14T16:20:00+01:00
Aktualizacja: 2026-02-14T16:10:00+01:00
Aktualizacja: 2026-02-14T16:00:00+01:00
Aktualizacja: 2026-02-14T10:25:31+01:00
Aktualizacja: 2026-02-14T10:24:56+01:00
Aktualizacja: 2026-02-14T10:24:25+01:00
Aktualizacja: 2026-02-14T09:10:00+01:00
Aktualizacja: 2026-02-14T08:00:00+01:00
Aktualizacja: 2026-02-14T07:20:00+01:00
Aktualizacja: 2026-02-14T07:11:00+01:00
Aktualizacja: 2026-02-13T21:12:13+01:00
Aktualizacja: 2026-02-13T20:06:35+01:00
Aktualizacja: 2026-02-13T18:15:28+01:00
Aktualizacja: 2026-02-13T18:10:56+01:00
Aktualizacja: 2026-02-13T18:03:53+01:00
Aktualizacja: 2026-02-13T18:02:41+01:00
Aktualizacja: 2026-02-13T17:41:35+01:00
Aktualizacja: 2026-02-13T17:39:06+01:00
Aktualizacja: 2026-02-13T16:47:36+01:00
REKLAMA
REKLAMA
REKLAMA