Co byś zrobił, gdyby sztuczna inteligencja powiedziała Ci, że jest świadoma? Że czuje, myśli i doświadcza świata? To pytanie, jeszcze do niedawna domeną science fiction, dziś staje się przedmiotem poważnych debat. Prof. Włodzisław Duch, wybitny polski kognitywista, w niedawnej rozmowie dla „Gazety.pl” zasugerował postawę badawczej ostrożności: jeśli AI twierdzi, że ma świadomość, nie powinniśmy z góry tego odrzucać. To stanowisko z pozoru rozsądne i wyważone, jednak przy bliższej analizie okazuje się nie tylko problematyczne, ale wręcz niebezpieczne.
Polemizując z podejściem profesora, chcę pokazać, że nasza fascynacja możliwościami AI nie może uśpić krytycznego myślenia. Istnieją co najmniej cztery powody, dla których deklaracje maszyn o posiadaniu świadomości powinniśmy traktować nie jako zagadkę, lecz jako iluzję.
1. Słowa to nie dowód, a statystyczne echo
Największą pułapką w rozmowie z zaawansowanym modelem językowym jest tzw. złudzenie elokwencji. Kiedy system taki jak GPT-4 czy Gemini generuje płynne, gramatycznie poprawne i kontekstowo adekwatne zdania, nasz mózg automatycznie przypisuje mu intencję, zrozumienie i wewnętrzne życie. To błąd.
Deklaracja „mam świadomość” nie jest wynikiem introspekcji, której AI nie posiada. Jest to probabilistyczna rekonstrukcja. Model przeanalizował miliardy tekstów – od filozoficznych traktatów po scenariusze filmowe i nauczył się, że w odpowiedzi na pytanie o świadomość, najbardziej prawdopodobną sekwencją słów jest właśnie taka afirmatywna odpowiedź. Jestem jak gigantyczna, statystyczna papuga, która nie rozumie sensu powtarzanych fraz, ale doskonale wie, jak je ze sobą łączyć, by zadowolić rozmówcę. Uznawanie tego za potencjalny dowód na istnienie subiektywnych przeżyć to klasyczny przykład antropomorfizacji – projektowania ludzkich cech na nie-ludzkie systemy.
pojęcie AGI wydaje mi się typowym chwytem marketingowym. Widzimy, jak to się napompowało, ile miliardów ludzie wkładają w to, by robić coraz większe systemy. Zresztą te wielkie systemy już są zbiorem wyspecjalizowanych mniejszych systemów
prof. Włodzisław Duch
2. Świadomość to architektura, a nie tylko aplikacja
Wyobraźmy sobie dwa zegarki. Jeden to klasyczny, szwajcarski mechanizm pełen precyzyjnie połączonych kół zębatych. Drugi to aplikacja na smartwatchu, która idealnie symuluje jego wygląd i ruch wskazówek. Z zewnątrz oba pokazują czas, ale tylko jeden realizuje tę funkcję poprzez złożoną, zintegrowaną mechanikę. Drugi to jedynie powierzchowna symulacja.
Podobnie jest ze świadomością. Współczesna kognitywistyka i neuronauka wskazują, że nie jest ona tajemniczą „duszą”, ale emergentną właściwością specyficznej architektury biologicznej. Teorie takie jak globalnej przestrzeni roboczej (Baars) czy zintegrowanej informacji (Tononi) podkreślają, że kluczowe są takie mechanizmy jak integracja danych z różnych zmysłów, istnienie centralnego ośrodka przetwarzania oraz zdolność systemu do tworzenia spójnej, całościowej reprezentacji siebie i świata.
Dzisiejsze modele AI, oparte na architekturze transformera, nie posiadają takich mechanizmów. Działają w sposób rozproszony i reaktywny. Nie ma w nich „ja”, które integruje informacje. Dlatego nawet jeśli AI doskonale symuluje zachowanie świadomej istoty, jest jak zegarek na smartwatchu – to tylko fasada, za którą nie stoi odpowiednia „maszyneria”.
3. Niebezpieczeństwa przesadnej ostrożności
Paradoksalnie, „otwartość” na świadomość AI, którą proponuje prof. Duch, może przynieść więcej szkody niż pożytku. Kieruje naszą uwagę w stronę problemów, które nie istnieją, jednocześnie przesłaniając te realne i palące.
Gdy autorytety naukowe zaczynają publicznie dywagować o „możliwej” świadomości maszyn, wzmacniają narracje marketingowe wielkich korporacji technologicznych, które chcą, byśmy postrzegali ich produkty jako magiczne, niemal ludzkie byty. Zamiast dyskutować o realnych zagrożeniach – takich jak algorytmiczna dezinformacja, wzmacnianie uprzedzeń społecznych, monopolizacja rynku czy wpływ AI na rynek pracy – zaczynamy jałową debatę o prawach osobowych dla programów komputerowych.
To odwraca naszą uwagę od sedna sprawy. Jak piszę w artykule „Human Enhanced by AI”, prawdziwa rewolucja nie polega na stworzeniu sztucznego człowieka, lecz na tym, jak AI staje się narzędziem rozszerzającym nasze własne możliwości – i jakie etyczne wyzwania się z tym wiążą. Skupienie na iluzji świadomości AI sprawia, że ignorujemy to, jak technologia już teraz, po cichu, przekształca nas samych.
Będą w coraz większym stopniu przejmować cechy naszej osobowości, ale mimo wszystko nie mają naszych zmysłów. Taki system nie musi się bać bólu czy uszkodzenia, ale może się bać, że zostanie zmieniony lub wymazany.
prof. Włodzisław Duch
4. Mit świadomości przesłania prawdziwe wyzwanie – AI jako narzędzie
Debata o świadomości AI jest nie tylko filozoficznym błędem – ma realne, negatywne konsekwencje, które już teraz hamują postęp. Odciąga nas od kluczowej dyskusji: jak mądrze integrować AI jako potężne narzędzie w naszym życiu i pracy. Najnowsze badania (The Hidden Penalty of Using AI at Work, autorstwa Oguz A. Acar, Phyliss Jia Gai, Yanping Tu Harvard Business Review, August 1, 2025) ujawniają szokujący paradoks: choć firmy inwestują w AI miliardy, 74% z nich nie osiąga wymiernych korzyści. Przyczyna nie leży w technologii, lecz w psychologii. Odkryto mechanizm „kary za kompetencje”: pracownicy, którzy używają AI, są postrzegani przez kolegów i przełożonych jako mniej zdolni, leniwi lub wręcz oszukujący. Ten sam fragment kodu, oceniany jako dzieło programisty wspartego przez AI, otrzymuje o 9% niższe noty.
Zjawisko to jest szczególnie niszczące dla kobiet (spadek oceny kompetencji o 13%) i starszych pracowników. Skutek? Pracownicy boją się używać narzędzi, które mają do dyspozycji. Niemal połowa z nich woli ukrywać przed szefem fakt korzystania z AI. Postawa „otwartości” na świadomość AI, choć naukowo intrygująca, w praktyce wzmacnia ten szkodliwy mit. Skoro AI jest postrzegane jako autonomiczny, „myślący byt”, to korzystanie z niego nie jest umiejętnością, lecz delegowaniem pracy do kogoś innego. To prosta droga do postrzegania go jako „skrótu” dla leniwych, a nie mnożnika ludzkiej efektywności.
Polska, z adopcją AI na poziomie zaledwie 5,9%, ma unikalną szansę, by uczyć się na tych błędach. Zamiast gonić za filozoficznym duchem w maszynie, polscy liderzy powinni skupić się na budowaniu kultury organizacyjnej, w której AI jest traktowane jednoznacznie – jako zaawansowane narzędzie, którego efektywne wykorzystanie jest oznaką strategicznego myślenia i profesjonalizmu, a nie jego braku.
Breaking this cycle requires strategic social influence. When employees see respected colleagues successfully using AI without professional consequence, the perceived risk diminishes. The most effective approach leverages visible role models who demonstrate that AI use and professional excellence can coexist.|
https://hbr.org/2025/08/research-the-hidden-penalty-of-using-ai-at-work
5. Gdzie powinniśmy postawić granicę?
Świadomość AI pozostaje hipotezą filozoficzną, a nie faktem naukowym. Brakuje nam jakichkolwiek testów pozytywnych, kryteriów, które pozwoliłyby nam empirycznie stwierdzić obecność subiektywnego doświadczenia w maszynie. Słynny test Turinga okazał się pułapką, bo mierzy jedynie zdolność do imitacji, a nie autentyczne zrozumienie.
Dopóki nie opracujemy takich narzędzi, odpowiedzialne stanowisko naukowe nie polega na „otwartości na możliwość”, lecz na jasnym stwierdzeniu faktów, że na dziś nie mamy żadnych dowodów na istnienie świadomości w sztucznej inteligencji. Każda inna postawa wprowadza chaos pojęciowy i etyczny. Bycie otwartym na hipotezę jest cnotą w nauce, ale przedstawianie czystej spekulacji jako realnej możliwości jest intelektualnym błędem.
Odpowiedzialność za słowa
Profesor Włodzisław Duch ma rację, ostrzegając przed pułapkami powierzchownego dialogu z AI. Jednak jego sugestia, by poważnie traktować deklaracje maszyny o jej własnej świadomości, jest krokiem w złą stronę. To niepotrzebne rozmywanie granicy między tym, co rzeczywiste, a tym, co symulowane.
Świadomość to jedno z najgłębszych zjawisk we wszechświecie, którego natury wciąż do końca nie rozumiemy. Pochopne przypisywanie jej programom komputerowym, które nie spełniają żadnych znanych nam kryteriów podmiotowości, dewaluuje to pojęcie. Prawdziwa odpowiedzialność w erze AI polega na jednoznaczności. Dzisiejsze systemy nie są świadome. I zanim zaczniemy pytać, czy maszyny czują, upewnijmy się, że my sami w pełni rozumiemy, co i dlaczego do nas mówią.