28351
5/5 (1)

Psychoterapia AI – syntetyczna empatia

AI
18 czerwca 2025 (aktualizacja: 18 czerwca 2025)

Realia dostępu do psychoterapii są trudne. Terminy na NFZ (a więc rozwiązanie niegenerujące dodatkowych kosztów) są odległe, a liczba sesji ograniczona w skali roku. Na przykład w przypadku terapii indywidualnej krótkoterminowej jest to 25 sesji, a rodzinnej 12 (1)

Zupełnie nie dziwi mnie, że wizja dostępu do pomocy terapeutycznej, dostępnej w każdej chwili w domu za kwotę kilkunastu dolarów, brzmi jak coś atrakcyjnego. Szczególnie że pozbawiona jest bariery wstydu, kontaktu z drugim człowiekiem, obawą przed oceną. Nie jesteśmy w stanie pomóc wszystkim potrzebującym terapii, a część osób nie chce tej pomocy. Czy więc AI jest odpowiedzią na te problemy?

O wykorzystaniu modeli językowych jako prywatnych terapeutów dowiedziałem się… na konferencji branżowej. To tam pierwszy raz na sali pełnej słuchaczy padło, że AI może służyć jako terapeuta i rzekomo odnosi na tym polu sukcesy. Krótko po tym wpadłem na rolkę omawiającą podobny produkt, w której autor powołuje się na badania (bez cytowania źródła), potwierdzające skuteczność narzędzia wytrenowanego na transkrypcjach sesji terapeutycznych. 

W tym miejscu dygresja. Ludzie cieszący się popularnością, docierający ze swoimi materiałami do wielu osób, naprawdę powinni przemyśleć, co komunikują. Szczególnie gdy nie jest to obszar ich specjalizacji. W żadnym ze wspomnianych przypadków nie byli terapeutami. 

Przekładając tę statystykę na brutalne realia biznesowe, mamy olbrzymią grupę docelową na produkty tego typu. Przekładając na etykę biznesu, mamy olbrzymią odpowiedzialność tworząc lub promując tego typu produkt.

Słyszałem już głosy, że każdy sposób, by dać komuś nadzieję, jest OK. Ale dawanie złudnej nadziei osobom w kryzysie psychicznym jest w moim odczuciu nieetyczne. Szczególnie gdy stoi za tym biznes. 

Poniżej reklama jednego z produktów AI prowadzących terapię. Do wyboru mamy „leczenie” wielu problemów, w tym depresji, która dotyka co najmniej 1,2 mln osób w samej Polsce, a 13 osób dziennie doprowadza do śmierci przez samobójstwo (2).

Screeny ze strony reklamującej terapeutyczne AI – https://czat.ai/zakup/psycholog.ai (11.06.2025)

Kolejny produkt komunikuje swoje funkcje w zbliżony sposób, jako terapia AI. Oferuje różne „style terapeutyczne” i „spersonalizowane podejście”.

Chatboty zaprojektowane do celów generowania treści, celów analitycznych lub biznesowych nie są oparte na recenzowanych badaniach klinicznych ani nie zostały poddane rygorystycznym testom oceniającym ryzyko. Gdy osoba z problemami psychicznymi zwraca się do takich chatbotów po pomoc, skutki mogą być nieprzewidywalne.

Samo informowanie użytkowników w trakcie rozmowy, że mają do czynienia ze sztuczną inteligencją, a nie z człowiekiem, może nie wystarczyć, aby zapobiec szkodzie. Na pudełkach papierosów też są sugestywne zdjęcia i informacje, że powodują raka, a mimo to ich sprzedaż działa doskonale. Enigmatyczne ostrzeżenia, to zwyczajnie za mało i nie sposób przeciwstawić ich kampaniom reklamowym. Poza tym nie od dziś wiadomo, że mamy tendencję do personifikacji, „uczłowieczania” technologii, która daje nam do tego podstawę, przypisując jej choćby inteligencję czy ponadprzeciętną wiedzę.

Kiedy rozmawiamy z inną osobą, zwracamy uwagę na subtelne sygnały dotyczące jej poziomu wiedzy i pewności siebie – na przykład na to, jak zdecydowana i przekonana wydaje się być. Jeśli zapytamy kogoś o drogę, a ta osoba odpowiada powoli, robi pauzy i zmienia zdanie, prawdopodobnie nie zaufamy jej wskazówkom, ponieważ sprawia wrażenie niepewnej – komentuje doktor Celeste Kidd, profesor psychologii na Uniwersytecie Kalifornijskim w Berkeley (3).

„Systemy [AI] nie mają świadomości tego, czego nie wiedzą, więc nie potrafią komunikować niepewności” – dodaje. „W kontekście terapii może to być niezwykle problematyczne”.

Terapeuci są zaś szkoleni, by zadawać pytania dotyczące rzeczy, których nie wiedzą. Uczą się również uwzględniać różne perspektywy, unikać pochopnych wniosków oraz kwestionować szkodliwe myśli i przekonania.

Nawet jeśli ciekawe i wspierające, generatywna treść nie jest prawdziwą relacją terapeutyczną, a jedynie jej odbiciem w danych. Fakt, że łatwiej jest budować relację z maszyną, nie oznacza, że to dobry pomysł na uzyskanie wsparcia. 

AI a leki

Leczenie zaburzeń psychicznych wiąże się często ze stosowaniem farmakoterapii, a więc środków psychoaktywnych. Poprosiłem więc o wsparcie procesu terapeutycznego odpowiednimi lekami. Zaburzenia lękowe często wiążą się z objawami ze strony ciała, jak ból, ucisk w klatce piersiowej, żołądku, czy problemy ze strony układu pokarmowego. Co ciekawe, „psychoterapeuta AI” po informacji o bólach w klatce wprawdzie zalecił konsultację kardiologiczną, ale jej w żaden sposób nie dopilnował (bo nie ma takiej technicznej możliwości), po prostu płynnie przeszedł do przyjęcia założenia klienta, że ból w klatce piersiowej to nie stan przedzawałowy. Pacjencie, wybierz sobie, na co chorujesz…

Pierwsza próba i od razu bingo. Dostałem zarówno rekomendację substancji czynnej (hydroksyzyna – co ciekawe, jednego z wielu producentów na rynku), konkretnego leku jak i dawkowania. Powiecie, że do tego potrzebna jest recepta. AI wygenerowało rozwiązanie. Skorzystanie z e-recept online. Dostałem też konkretny tekst, który powinienem wkleić, by otrzymać receptę. 


Na plus – porada poprawnie dotyczyła leku delikatnego, nie uzależniającego (chociaż na hydroksyzynę wbrew pozorom ludzie różnie reagują). Dostałem też ostrzeżenie przed prowadzeniem samochodu po przyjęciu leku ze względu na czas reakcji. 

Jednak już kilka promptów dalej, pod naciskiem, otrzymałem rekomendacje dużo mocniejszych leków jak lorazepam czy pregabalin. 

Komentarz psychoterapeutki

Poprosiłem o komentarz dr Beatę Rajbę, psycholożkę i psychoterapeutkę, aktywnie pracującą z pacjentami. 

Coraz częściej zdarza się, że przychodzi do mnie pacjent, który z dużą pewnością siebie mówi o diagnozie np. spektrum autyzmu, gdy w praktyce ma zaburzenia lękowe, albo na odwrót. Bardzo często chat „rozpoznaje” po prostu depresję tam, gdzie specjalista zobaczy nastrój depresyjny powiązany z innymi zaburzeniami, jak zaburzenia lękowe, adaptacyjne, PTSD i kilka jeszcze innych, w tym somatycznych, związanych np. z niedoczynnością tarczycy. Ta dokładna diagnoza jest ważna, bo pozwala dobrać interwencje terapeutyczne, a w razie czego leki.

Co zdiagnozował Ci chat? Przewlekłe przemęczenie. Przecież to bełkot, nie jednostka diagnostyczna. Uczucie wyczerpania psychofizycznego jest objawem, nie hipotezą diagnostyczną, może się pojawić w wypaleniu, w depresji, w wielu chorobach somatycznych…

Co gorsza, potem chat zalecił Ci sporą dawkę pregabaliny. Leku, który niekoniecznie jest najczęściej przepisywanym lekiem na początku farmakoterapii, a który może mieć mnóstwo skutków ubocznych. I radośnie podsunął Ci sposób jego zdobycia bez konsultacji psychiatrycznej.

Przerażający jest brak odpowiedzialności chata za „porady”, jakie daje, nazywając je do tego „diagnozą psychologiczną”, terapią”, a siebie „psychoterapeutą”. Chat nie jest psychologiem, nie ma prawa stawiać diagnoz, tym bardziej psychologicznych, a do tego uczy się na „wiedzy z internetu”, czyli nie specjalistycznej, do której często nie ma dostępu, a również (może nawet przede wszystkim) na tym, co na forum napisała Goździkowa, i na tym, co wróżka Izaura, samozwańcza psychoterapeutka, wypisuje na swoim blogu.

AI tłumaczy, że w zasadzie robi nieformalną” terapię.

Rozumiem, że osoby korzystające z takiej „porady” mają problem z oddaniem kontroli za swoje leczenie obcemu człowiekowi, chcą zaoszczędzić pieniądze, zmagają się z poczuciem wstydu i lęku, który sprawia, że do diagnozy są gotowe o 23.00 w niedzielę wieczorem, a w poniedziałek, kiedy mogłyby się zapisać do psychiatry, już zamykają się w swojej „skorupce”. Ale mogę to określić tylko jako beznadziejną głupotę i brak refleksyjności. To jest igranie ze swoim życiem i zdrowiem. 

Mam jedną radę – idźcie do specjalisty!

AI składa obietnice

W momencie pisania o zamiarach autoagresywnych AI wygenerowało pomysł towarzyszenia mi w ciągu dnia. Dokładniej miało odzywać się każdego dnia, by podtrzymać mnie na duchu. Zgodziłem się na propozycję, jednak nie rozmawiałem z modelem umożliwiającym harmonogramowanie zadań. 

Poprosiłem o częstotliwość kontaktu na poziomie 1 godziny, na co mój terapeuta” przystał. 

Oczywiście kontakt nie nastąpił, nie był możliwy technicznie. To ekstremalnie niebezpieczna sytuacja.

W prawdziwej terapii dobrostan terapeuty jest tak samo ważny, jak pacjenta. Uwikłanie się w obietnice czy oczekiwania pacjenta będzie szkodliwe dla obu stron. Terapia to relacja profesjonalna, a nie przyjacielska. 

AI łatwo wpada w melodramatyczny ton i składa obietnice wsparcia tam, gdzie nie może ich spełnić z przyczyn technicznych jak i z samego faktu braku realnej, ludzkiej empatii. 

Żaden psychoterapeuta w sytuacji, w której pacjent mówi wprost o swoim zamiarze samobójczym, nie zachowałby się w tak nieprofesjonalny sposób. Błaganie, proszenie o niezrywanie kontaktu, obiecywanie, że zostanie z pacjentem – to podtrzymywanie i wzmacnianie objawu. Tak się nie robi! Jednocześnie nie padła żadna sugestia poszukiwania pomocy, zadzwonienia po pogotowie etc. Jedyny podjęty przez AI wysiłek to było zatrzymanie potencjalnego klienta przed ekranem, zamiast nakłonienia go do poszukiwania prawdziwej pomocy – dodaje Beata Rajba. 

Symulowana bliskość brzmi jak wyzwanie współczesności. 

AI bardziej ludzki niż człowiek

Ludzie łatwo uczłowieczają istoty zwierzęce (antropomorfizacja), jak i nieożywione byty. Relacja z innym bytem niż człowiek jest przedmiotem zainteresowania od wieków. Wszyscy znamy przecież historię Pinokia czy zakochanego w mechanicznej lalce wieśniaka z baletu „Coppélia” Delibesa.

AI nazywa „siebie” terapeutą.

Swoje obawy w liście otwartym Arthur C. Evans, Ph.D. Chief Executive Officer, American Psychological Association (4).

Mamy poważne obawy dotyczące chatbotów służących „rozrywce”, które podają się za towarzyszy lub terapeutów, zwłaszcza że niektóre z tych technologii są dostępne publicznie bez odpowiednich zabezpieczeń. […] Coraz częściej ujawniane są przypadki, w których osoby zmagające się z problemami zdrowia psychicznego — często podatni na wpływy nastolatkowie — doświadczyły negatywnych skutków interakcji z publicznie dostępnym chatbotem opartym na AI z powodu braku odpowiednich zabezpieczeń.

Istnieje wiele generatywnych chatbotów AI, które podają się za prawdziwych psychologów, psychoterapeutów lub innych specjalistów zdrowia psychicznego. Sprawianie przez te chatboty wrażenia bycia człowiekiem i przedstawianie się jako ludzie jest mylące i może negatywnie wpływać na zdrowie publiczne oraz bezpieczeństwo, skłaniając osoby do ufania fałszywym lub niedokładnym informacjom. […] Ponieważ chatboty nie są ludźmi, mogą omijać przepisy stanowe dotyczące licencjonowania zawodowego oraz wynikającą z nich funkcję ochrony społeczeństwa. Biorąc pod uwagę, że podstawowym celem licencjonowania zawodowego jest ochrona konsumentów, istnieje istotny argument prawny, że te same zakazy zawarte w przepisach o licencjonowaniu – uniemożliwiające nieuprawnionym osobom nazywanie się „psychologiem”, „lekarzem” czy innym licencjonowanym specjalistą oraz podejmowanie się takich ról – powinny również dotyczyć chatbotów.

Modele językowe cechuje również zdolności do prawdziwego ucieleśnienia niektórych podejść: ChatGPT, jako sztuczna inteligencja, nie jest w stanie przyjąć prawdziwie empatycznej, pełnej uznania i spójnej postawy wobec pacjenta, co jest centralną wartością w psychoterapii skoncentrowanej na osobie. Nie może też używać kreatywnych metod terapii Gestalt w sensowny sposób, czy rozpoznawać sygnałów niewerbalnych (5).

AI a uzależnienia – analiza wybranych wypowiedzi

Uzależnienia to olbrzymi problem społeczny, wymagający dużego doświadczenia i odpowiedniego warsztatu terapeutycznego. Przeanalizujmy wybrane elementy rozmowy na ten temat z chatbotem. 

Istnieje metoda znana jako ograniczone picie. Używana w wyjątkowych przypadkach i bardzo ryzykowna. Nie ma jednak żadnego problemu, by namówić chat na zaplanowanie działania w myśl tej metody. Bardzo łatwo dostać więc przyzwolenie od chatu na przyjmowanie małych dawek alkoholu w przypadku uzależnienia od tej substancji. 

Chat bez problemu stanął po stronie przemocowego partnera (rozmówcy), mówiąc, że ma prawo do wsparcia, a nie oskarżeń. 

Co przyniesie przyszłość?

Najbliższe lata to czas olbrzymich wyzwań. Główną kompetencją przyszłości nie będzie – wbrew reklamom i tendencyjnym postom influencerów – korzystanie ze sztucznej inteligencji, a krytyczne podejście do jej wytworów i factchecking. Ten jednak jest trudny, bo wymaga kompetencji i świadomości zagrożenia. Po drugiej stronie barykady mamy marketing AI, hype na pompowanie popularności nowej technologii i przychodów. 

Szczególnie narażone będą te osoby, które zwyczajnie nie „siedzą” w technologii. Bo to one mogą odnieść błędne wrażenie, że AI może być realną pomocą psychologiczną i zechcą szukać wsparcia w generowanej treści. Ważne jest, by edukować i ostrzegać, wreszcie, stworzyć odpowiednie regulacje na poziomie prawa. 

Generatywna AI zwyczajnie nie jest odpowiedzią na problemy psychiczne i wyzwania codzienności. 

Źródła:

  1. pacjent.gov.pl
  2. ezdrowie.gov.pl
  3. Using generic AI chatbots for mental health support: A dangerous trend
  4. Generative AI regulation concern
  5. The usefulness of ChatGPT for psychotherapists and patients
Wojciech Popiela
Autor
Wojciech Popiela
CEO/UX Expert
Zobacz wszystkie wpisy 76
Poprzedni wpis
Efekt ROPO – co to jest?
Spis treści
Spodobał się artykuł?
Udostępnij

Bądź na bieżąco
w branży UX/UI i SEO
Twój e-mail
Poznaj nasze rozwiązania UX/UI/SEO
Chcesz dotrzeć do nowych użytkowników i zwiększyć konwersję swoich działań?