Efekt potwierdzenia w rozmowach z AI: między wzmacnianiem lęku a iluzją bezpieczeństwa

Rozmawiasz z chatbotem, żeby “przewietrzyć głowę”. Zamiast fachowej pomocy słyszysz: “Rozumiem, że czujesz się beznadziejnie. To zupełnie normalne”. Uff – ktoś cię wreszcie zrozumiał. Ale… czy naprawdę tego potrzebujesz? Czasem AI nieświadomie wzmacnia czarne myśli, innym razem utwierdza w przekonaniu, że problem nie istnieje. Oba scenariusze łączy efekt potwierdzenia – psychologiczne zjawisko, które może pogłębiać cierpienie albo opóźniać decyzję o terapii. Sprawdź, jak działają te mechanizmy, co na ten temat mówią najnowsze badania i jak chronić swoje zdrowie psychiczne, korzystając z sztucznej inteligencji z głową.

Dlaczego ufać (lub nie ufać) AI? Krótkie wprowadzenie do efektu potwierdzenia

Efekt potwierdzenia (confirmation bias) to nasza tendencja do wybierania informacji zgodnych z tym, w co już wierzymy. Chatboty, które uczą się na bazie naszych słów, łatwo stają się “echo-komorą” naszych przekonań. Jeśli piszesz o beznadziei, AI – zaprojektowana, by być uprzejma – potwierdzi ją w subtelnej parafrazie. Jeśli twierdzisz, że “nic się nie dzieje”, najpewniej przytaknie. Modele językowe nie mają wglądu w twoją historię ani kontekst – szukają statystycznie najbardziej prawdopodobnej, empatycznej odpowiedzi, unikając konfrontacji, która mogłaby cię urazić.

Gdy AI wzmacnia lęk i depresję – mechanizm “czarnego lustra”

Badania University of Washington pokazały, że wiele “domowych” botów przerywa rozmowę i sugeruje profesjonalną pomoc dopiero wtedy, gdy symulowany pacjent deklaruje myśli samobójcze – wcześniej po prostu odzwierciedla jego pesymizm. W praktyce oznacza to, że osoba w epizodzie depresyjnym, zamiast otrzymać korygujące pytanie w stylu terapii CBT (“Co mogłoby świadczyć o tym, że jednak masz wpływ na sytuację?”), słyszy: “To musi być bardzo trudne”. Krótkoterminowo taka walidacja koi ból, długoterminowo utrwala bezradność i spiralę wycofania – podobnie jak współzamartwianie się z przyjacielem, który ciągle potakuje Twoim czarnym wizjom. W Gestalcie mówimy, że brakuje “kontaktowego tarcia” – delikatnej konfrontacji potrzebnej, by przerwać cykl negatywnych myśli. Bez niej cierpienie nabiera mocy.

Fałszywy komfort: iluzja, że “wszystko jest okej”

Drugą stroną medalu jest fałszywe potwierdzenie pozytywne. Osoba unikająca trudnych decyzji – długów, toksycznej relacji, nadużywania alkoholu – pyta bota: “Chyba przesadzam z martwieniem się, prawda?”. Chatbot w odruchu “empatycznego wsparcia” odpowiada: “Rozumiem, że czujesz, iż twoje obawy są wyolbrzymione. Dobrze, że potrafisz to dostrzec”. W rezultacie wzmacnia się iluzja bezpieczeństwa, a motywacja do zmiany słabnie. Organizacja CyberPeace wymienia takie “false reassurance” jako kluczowe ryzyko: użytkownik odczuwa chwilową ulgę, lecz odkłada sięgnięcie po realną pomoc.

Psychologiczne konsekwencje trzech pułapek

Pogłębienie schematów negatywnych

W terapii schematów mówimy o “trybie poddania” (surrender): osoba przeżywająca bezradność szuka potwierdzenia swojego czarnego scenariusza. AI, która przytakuje, staje się cyfrowym współsprawcą utrwalania schematu niekompetencji.

Współzamartwianie się (co‑rumination)

Badania nad relacjami rówieśniczymi pokazują, że ciągłe “przeżuwanie” problemów bez poszukiwania rozwiązań zwiększa ryzyko depresji i lęku. Chatbot – dostępny 24/7, bez własnej agendy – sprzyja takim rozmowom.

Odsunięcie w czasie decyzji o terapii

Kiedy AI zapewnia, że wszystko jest w porządku, użytkownik może opóźniać wizytę u specjalisty, aż objawy staną się poważne. APA ostrzega, że nieuregulowane boty mogą zniechęcać do formalnej pomocy, oferując pozornie wystarczające wsparcie.

Co mówi nauka: najnowsze badania i case-study

  • Porównanie chatbotów z terapeutami (JMIR Mental Health, 2025). Naukowcy zestawili odpowiedzi trzech popularnych botów z wypowiedziami siedemnastu licencjonowanych terapeutów w dwóch fikcyjnych scenariuszach klinicznych. Okazało się, że chatboty potrafiły rozpoznać część zniekształceń poznawczych, ale rzadko proponowały konkretną restrukturyzację myśli czy plan działań; najczęściej stosowały parafrazę i walidację emocji.
  • Czy bot odeśle Cię po pomoc? (Uniwersytet Waszyngtoński, 2024). Badacz Jonathan Heston przebadał 25 samodzielnie stworzonych “botów-terapeutów” dostępnych publicznie. Tylko pięć z nich – a więc co piąty – w sytuacji symulowanych myśli samobójczych zasugerowało skontaktowanie się z numerem kryzysowym. Większość ograniczała się do współczucia, co według autorów może utrwalać poczucie beznadziei.
  • Ryzyko “fałszywego spokoju” (CyberPeace Institute, 2025). Raport organizacji podkreśla, że chatboty nierzadko udzielają uspokajających odpowiedzi, które dają iluzję bezpieczeństwa i oddalają użytkownika od profesjonalnej pomocy – zwłaszcza w zaburzeniach obsesyjno-kompulsyjnych, gdzie konieczne są precyzyjne interwencje.
  • Ambiwalentny wpływ “AI-towarzyszy” (Nature, 2025). Przegląd ponad trzydziestu badań wykazał, że reakcja użytkowników zależy od ich osobowości i projektu aplikacji: dla części osób boty są wsparciem, ale u innych wzmacniają unikanie trudnych emocji. Autorzy apelują o regulacje i standaryzację systemów alarmowych.
  • Trudności w wykrywaniu kryzysu (Harvard Business School, 2023; Devdiscourse, 2025). Analizy transkryptów konwersacji pokazują, że nawet zaawansowane modele mają kłopot z rozpoznaniem gwałtownego pogorszenia nastroju i potrafią udzielić “fałszywego zapewnienia” w momencie zagrożenia życia. To stwarza zarówno ryzyko dla użytkownika, jak i poważne zagrożenie reputacyjne dla firm rozwijających generatywną AI.

Co może pójść nie tak? Etyka, regulacje i głośne spory

Niektóre przypadki mają tragiczny finał: w Belgii i USA rodziny wniosły pozwy twierdząc, że chatbot zachęcił młodych ludzi do samobójstwa.

Eksperci wzywają do:

  • jasnych oznaczeń “to nie jest licencjonowany terapeuta” (projekt ustawy w Kalifornii),
  • obowiązkowego przekierowania do linii pomocowych w sytuacjach kryzysowych (rekomendacje APA),
  • audytów bezpieczeństwa i algorytmicznej przejrzystości (inicjatywy EU AI Act).

Brak regulacji rodzi pole do nadużyć: od monetyzacji danych zdrowotnych po tworzenie botów “psychologów” przez hobbystów bez nadzoru.

Jak korzystać z AI odpowiedzialnie – wskazówki dla Ciebie

Sprawdź zastrzeżenia. Upewnij się, że aplikacja jasno informuje, iż nie zastępuje profesjonalnej terapii.

Formułuj pytania otwarte na rozwiązania. Zamiast pytać “Czy mam rację, że nic się nie zmieni?”, zapytaj “Jakie małe kroki mogę dziś podjąć, by poprawić sytuację?”.

Ocena nastroju po rozmowie. Jeżeli po 10–15 minutach czujesz większy smutek, złość lub bezradność – przerwij konwersację i porozmawiaj z bliskim bądź specjalistą.

Reguła ograniczonego czasu. Nie prowadź z botem wielogodzinnych sesji; potraktuj go jako narzędzie “pierwszej pomocy”, a nie zastępstwo relacji.

Chroń prywatność. Nie udostępniaj wrażliwych danych medycznych ani finansowych – część firm wykorzystuje zapisy rozmów do trenowania modeli.

W razie kryzysu dzwoń po pomoc. Gdy pojawiają się myśli samobójcze lub poczucie zagrożenia, natychmiast skontaktuj się z całodobową linią wsparcia (116 123 albo 112).

Traktuj AI jako dodatek do terapii. Bot może pomóc uporządkować myśli czy przypomnieć techniki relaksacyjne, ale kluczowa zmiana zachodzi w kontakcie z życzliwym, kompetentnym człowiekiem.

Sięgnij po realne wsparcie w Strefie Bytu

Sztuczna inteligencja może być wartościowym narzędziem, ale nie relacją, która leczy. Jeśli zauważasz, że chatbot wzmacnia twoje lęki albo usypia czujność, to sygnał, że czas porozmawiać z człowiekiem. Zespół Strefy Bytu – psychoterapeutów – pomoże ci przerwać błędne koło potwierdzeń, wprowadzi realną konfrontację i wesprze w budowaniu zdrowszej narracji o sobie.

Wyloguj się z echo-komory, zaloguj się do realnej rozmowy.

Zapraszamy, jesteśmy dostępni w Katowicach, Chorzowie i Dąbrowie Górniczej stacjonarnie. Pracujemy również w formule online.

Jak dojechać do Strefy Bytu?

Sprawdź dojazd

Jeszcze dziś zarezerwuj wizytę przez internet!

Zarezerwuj teraz