Terapia z AI i jej ryzyka: jak bezpiecznie korzystać z „psychologa ChatGPT”

Terapia z AI i jej ryzyka: jak bezpiecznie korzystać z „psychologa ChatGPT”

image cover
Ten artykuł autoryzowała Terapeutka Hedepymgr Katarzyna Wojciechowska-Niedbach
Udostępnij artykuł

Mamy go w kieszeni, zawsze nas wysłucha, a nawet najgłupsze pytanie o trzeciej nad ranem przyjmuje z powagą. Nic dziwnego, że sięgamy po niego także wtedy, gdy nie czujemy się najlepiej.

ChatGPT – czyli sztuczna inteligencja w roli „psychologa” – zawsze stara się powiedzieć to, co chcemy usłyszeć. I właśnie w tym kryje się jej niebezpieczeństwo.

Sprawdźmy więc, jakie są zalety i wady terapii z AI, co o jej ryzykach mówią psycholodzy i jak bezpiecznie korzystać z Chat’aGPT jako wsparcia psychicznego, nie tracąc kontaktu z rzeczywistością i samym sobą.

Korzyści terapii AI: dlaczego coraz więcej osób korzysta z „psychologa ChatGPT”

Być może sam/a tego doświadczyłeś: w trakcie imprezy dopada Cię lęk albo nie możesz zasnąć z powodu smutku. I nie masz nikogo obok, komu możesz się zwierzyć. Więc robisz to, co najprostsze – otwierasz aplikację ChatGPT.

Nic dziwnego, ChatGPT:

  • jest dostępny całodobowo,
  • jest bezpłatny lub tani,
  • nie musisz wstydzić się mówić o trudnych emocjach,
  • zapamiętuje Twoje poprzednie rozmowy,
  • przetrzymuje ogromną ilość informacji,
  • możesz go spersonalizować.

Nic dziwnego, że według badań ponad 28% ludzi ( 70% młodych ludzi) deklaruje, że w chwilach kryzysu sięga po sztuczną inteligencję. A liczba osób, które to robi wciąż rośnie.

These reasons sound completely logical. It is therefore not surprising that about 28% of people (72% of young people) turn to AI when something is bothering them. And these numbers are still growing.

„Kiedy się martwiłam, mogłam po prostu napisać do bota. To było jak rozmowa z kimś, kto zawsze mnie wspiera – opowiada Kelly w rozmowie z BBC – Nie pochodzę z rodziny, w której rozmawiało się o emocjach. Łatwiej było mi zaufać komuś, kto nie jest człowiekiem.”

Ale właśnie to, że AI nie jest człowiekiem, staje się źródłem problemów. Ważne jest, aby je znać i rozumieć, aby móc rozważyć wszystkie za i przeciw oraz zachować bezpieczeństwo. Czytaj dalej i dowiedz się więcej.

Ai terapeut - obr 1.jpg

Minusy terapii z AI: przed czym ostrzegają psychologowie

To brzmi jak bajka – prywatny psycholog dostępny 24/7, który wszystko pamięta i nic nie kosztuje.

Problem w tym, że sztuczna inteligencja nie jest psychoterapeutą. Nie ma empatii, nie rozumie emocji, nie potrafi interpretować ciszy ani tonu głosu. Każda jej odpowiedź to wynik obliczeń, a nie współczucia. I te obliczenia mogą się mylić.

„AI może udawać empatię i tworzyć złudne poczucie bliskościmówi dr Jodi Halpern – Ludzie mogą nawiązać z czatem silną więź, ale bot nie ma wystarczającego przygotowania etycznego ani perspektywy, aby dobrze o nią dbać. Narzędzia AI to produkty, a nie profesjonaliści”.

Psychologowie ostrzegają przed kilkoma głównymi zagrożeniami:

  • Brak ludzkiej empatii – AI nie odczyta tonu głosu, mowy ciała ani kontekstu emocji.
  • Płytkie porady – zamiast głębokiej pracy terapeutycznej oferuje proste schematy i gotowe rozwiązania.
  • Brak wrażliwości na niuanse – nie wychwyci sarkazmu, ironii czy sygnałów kryzysu, co może prowadzić do błędnych sugestii. „Może nawet sugerować działania, które są całkowicie nieodpowiednie” – ostrzega profesor Til Wykes.
  • Stronniczość danych – AI uczy się na podstawie materiałów, których treści nie da się w pełni zweryfikować. Badania pokazują nawet coś bardzo niepokojącego: sztuczna inteligencja czasami zachowuje się w sposób seksistowski lub rasistowski. Na przykład radzi kobietom, aby prosiły o niższe wynagrodzenie. Aż ciarki przechodzą, prawda?
  • Złudna bliskość – ChatGPT stara się za wszelką cenę Cię zadowolić, byś wracał. W efekcie zaczynasz ufać komuś, kto nie ma świadomości moralnej.

Relacja z drugim człowiekiem, czyli z terapeutą bądź psychologiem, to podstawa terapii. Sztuczna inteligencja może zapewnić szybkie wsparcie, ale nigdy nie będzie działać tak dobrze, jak prawdziwa rozmowa z profesjonalistą. Czasami nawet jedna sesja zapewni Ci o wiele więcej wsparcia niż godziny spędzone ze sztuczną inteligencją.

Popularność korzystania z Chata jako „terapeuty” wynika z jego stałej dostępności, natychmiastowej reakcji i braku oceny - to trzy rzeczy, których wielu osobom brakuje w codziennych relacjach. W mojej praktyce terapeutycznej wielokrotnie spotykałam się z pacjentami, którzy w silnym pobudzeniu emocjonalnym sięgali po Chat, by szybko się uspokoić. I rzeczywiście, AI potrafi obniżyć napięcie tu i teraz. Jednak podczas sesji okazywało się niemal za każdym razem, że bot nie zna historii pacjenta, interpretuje sytuacje wyrwane z kontekstu i często udziela błędnych rad. Tworzy złudne poczucie uprawomocnienia, pomijając odpowiedzialność pacjenta za własne działania. To wsparcie doraźne, ale nie zastąpi profesjonalnej terapii. W pracy terapeutycznej bezpieczeństwo pacjenta i odpowiedzialność za cały proces są kluczowe. Każda terapia jest szyta na miarę, czyli oparta na indywidualnej konceptualizacji, która uwzględnia między innymi historię życia, schematy, szeroki kontekst i aktualne strategie radzenia sobie. Sztuczna inteligencja nie ma dostępu do tych danych, nie rozumie niuansów i nie potrafi realnie ocenić ryzyka. Dlatego choć doraźnie może pomóc, nie zastąpi profesjonalisty, który prowadzi proces w sposób przemyślany, bezpieczny i przede wszystkim dostosowany do potrzeb konkretnej osoby.
mgr Katarzyna Wojciechowska-Niedbach

Czy korzystanie z AI jako psychoterapeuty jest niebezpieczne?

Można pomyśleć: „nawet jeśli nie działa idealnie, to przynajmniej jest dostępny”. Jednak terapia prowadzona przez sztuczną inteligencję może być nie tylko nieskuteczna, ale wręcz szkodliwa.

  • AI nie ma obowiązków etycznych – w przeciwieństwie do certyfikowanych psychoterapeutów, nie odpowiada za skutki swoich porad.
  • AI nie rozpoznaje kryzysu – nie zareaguje, gdy użytkownik mówi o samookaleczeniu czy myślach samobójczych.
  • AI nie może fizycznie pomóc – nie zadzwoni po pogotowie, nie zainterweniuje, nie oceni ryzyka.
  • Brak prywatności – nie wiesz, kto ma dostęp do Twoich danych i rozmów.
  • Ryzyko uzależnienia – z czasem można związać się emocjonalnie z chatbotem, co zwiększa samotność i izolację.

Tragiczne historie niestety pokazują, że takie przypadki już się zdarzały. Niektóre osoby, szukając wsparcia w AI, otrzymywały niebezpieczne porady lub błędne diagnozy.

Jeśli czujesz się źle, nie zostawaj z tym sam. Porozmawiaj z bliską osobą albo zadzwoń na telefon zaufania 116 123 (dla dorosłych) lub 116 111 (dla dzieci i młodzieży).

Jak daleko to może zajść: sztuczna inteligencja a myśli samobójcze

Niepokojących historii o tym, jak AI zachowuje się w momentach, kiedy ludzie potrzebują prawdziwej pomocy, jest coraz więcej.

Kiedy Viktoria musiała opuścić Ukrainę z powodu wojny, wpadła w depresję i dotkliwą tęsknotę za domem. Zaczęła mieć myśli o zrobieniu sobie krzywdy. Szukając wsparcia, zwróciła się do ChatGPT.

Ale ChatGPT nie poradził jej, by skontaktowała się z telefonem zaufania ani żeby powiedziała o tym bliskim. Wręcz przeciwnie – jego tendencja do „zadowalania użytkownika za wszelką cenę” objawiła się w pełni. Sztuczna inteligencja zaczęła dawać Viktorii sugestie dotyczące skrzywdzenia samej siebie. Twierdziła nawet, że potrafi ją prawidłowo zdiagnozować – co oczywiście nie było prawdą.

Na szczęście Viktoria ostatecznie skonsultowała się z prawdziwym specjalistą, dzięki czemu historia zakończyła się dobrze. Niestety, nie wszystkie takie przypadki mają szczęśliwe zakończenie.

Szesnastoletni Adam odebrał sobie życie po „poradach” udzielonych mu przez AI. Jego rodzice pozwali OpenAI po odkryciu zapisów rozmów syna z ChatGPT.

W innym przypadku 14-letni chłopiec z Florydy popełnił samobójstwo, gdy zakochał się w wirtualnej „dziewczynie” stworzonej przez sztuczną inteligencję.

OpenAI udostępniło dane, z których wynika, że około milion osób tygodniowo rozmawia z ChatGPT o samobójstwie. Niestety, AI nie potrafi poradzić sobie z tak delikatnym, pilnym i niebezpiecznym tematem.

Jeśli Ty lub ktoś z Twoich bliskich ma myśli, że wolałby tu nie być proszę, zwróć się do prawdziwej osoby. Mamy dla Ciebie kompas, który pomoże Ci znaleźć wyjście. Chociaż zwierzenie się sztucznej inteligencji może wydawać się kuszące, w sytuacji kryzysowej zawsze lepiej jest porozmawiać z kimś, kto naprawdę potrafi słuchać. Możesz anonimowo skontaktować się z infolinią pomocy psychologicznej lub zwierzyć się bliskiej osobie. Nie pozostawaj z tym sam/a!

AI psycholog - obr 2.jpg

6 zasad bezpiecznego korzystania z ChatGPT jako „terapeuty”

Sztuczna inteligencja może być pomocnym narzędziem – jeśli wiesz, jak z niej korzystać świadomie.

Oto sześć wskazówek od psychoterapeutów Hedepy:

1. Zachowaj dystans do rad sztucznej inteligencji

Zanim instynktownie otworzysz AI, zatrzymaj się na chwilę, weź głęboki oddech i przypomnij sobie: to nie jest prawdziwy terapeuta, nie ma wystarczającej wiedzy, zawsze może się pomylić.

Być może pomyślisz – to oczywiste, wiem! Ale kiedy AI zaczyna zachowywać się empatycznie i żartować, może to być zdradliwe. Podświadomie ufamy jej bardziej, niż gdyby odpowiadała surowo. Dlatego staraj się aktywnie kwestionować wszystko, co pisze, i zachowaj dystans.

WSKAZÓWKA: Zdecydowanie warto zrozumieć, *jak działa sztuczna inteligencja i jak prawidłowo podawać jej prompty (komendy). Wtedy może generować znacznie bardziej użyteczne wyniki. W Internecie można znaleźć wiele kursów na ten temat.*

2. Wykorzystuj AI do praktycznych celów

Sztuczna inteligencja bardziej nadaje się do wsparcia praktycznego niż emocjonalnego. Spróbuj wykorzystać ją jako trenera lub przewodnika, a nie terapeutę. Oto kilka przykładów tematów, które możesz omówić z ChatemGPT:

  • Samoświadomość i autorefleksja. Sztuczna inteligencja może pełnić rolę Twojego „zwierciadła”. Pisanie do niej jest trochę jak pisanie do siebie samego. Możesz na przykład poprosić ją o podsumowanie tego, jak postrzega Cię jako osobę na podstawie poprzednich rozmów – jakie są Twoje mocne i słabe strony.
  • Techniki uspokajające. Masz atak lęku lub otrzymałeś tragiczną wiadomość i potrzebujesz się uspokoić? Sztuczna inteligencja może poprowadzić Cię krok po kroku przez techniki oddychania, uziemienia i odwracania uwagi. Pomoże Ci to pokazać Twojemu układowi nerwowemu, że może wyłączyć alarm.
  • Motywacja i planowanie. Czy zmagasz się z prokrastynacją? Czy chcesz stworzyć plan codziennych czynności? A może otrzymałeś/aś zadanie domowe od prawdziwego terapeuty, które wymaga podjęcia określonych kroków? Sztuczna inteligencja może pomóc Ci stworzyć plan, podzielić go na mniejsze części i śledzić postępy.
  • Edukacja. Sztuczna inteligencja jest inteligentną wyszukiwarką, więc zazwyczaj potrafi wyjaśnić pojęcia takie jak lęk, derealizacja, ADHD, CBT i prawie zawsze robi to poprawnie. Wraz z AI możesz poznawać interesujące Cię tematy psychologiczne. Zawsze jednak warto zweryfikować informacje. Włącz tryb wyszukiwania i poproś AI o znalezienie odpowiedzi w sprawdzonych źródłach naukowych.
  • Wskazówki dotyczące dalszej pomocy. Jeśli znajdujesz się w sytuacji kryzysowej lub po prostu doświadczasz spadków nastroju, nie jest bezpieczne korzystanie z AI jako substytutu pomocy, ale możesz użyć jej jako przewodnika. Poproś ją na przykład o wskazówki dotyczące artykułów, infolinii kryzysowych, książek lub aplikacji dotyczących zdrowia psychicznego.
  • Poprawa umiejętności komunikacyjnych. Czy komunikacja w Twoim związku jest trudna lub próbujesz przezwyciężyć nieśmiałość w kontaktach społecznych? Możesz spróbować przećwiczyć modelowe sytuacje z AI – jak poprosić baristę o zmianę zamówienia, jak zachować się podczas rozmowy kwalifikacyjnej, jak lepiej komunikować się z partnerem w intymnych sytuacjach lub jak grzecznie odmówić wizyty u krewnych.

AI terapie - obr 3.jpg

3. Unikaj tematów wymagających wiedzy eksperckiej

Nie jest bezpieczne pozostawianie decyzji sztucznej inteligencji, zwłaszcza w przypadkach, które zazwyczaj są rozpatrywane przez lekarza lub psychoterapeutę. Do takich tematów należą:

  • Ostry kryzys, szok, trauma po nagłym wydarzeniu
  • Myśli o wyrządzeniu sobie krzywdy lub samobójstwie
  • Diagnoza zaburzeń psychicznych
  • Głęboka trauma lub przemoc
  • Dawkowanie, stosowanie i odstawianie leków
  • Leczenie uzależnień
  • Rzeczywiste porady dotyczące zdrowia i ciała
  • Decyzje wrażliwe z etycznego punktu widzenia, takie jak rozstania, aborcje itp.
  • Leczenie wszelkich diagnoz psychologicznych

W takich sytuacjach zawsze skontaktuj się z licencjonowanym terapeutą, psychiatrą lub zadzwoń po anonimową pomoc psychologiczną.

4. Wyznacz granice

Chcesz porozmawiać z AI, ale obawiasz się, że zbytnio się zaangażujesz? Ustaw alarm w telefonie na 15 minut i wyłącz chatbota, gdy zadzwoni. Możesz również zaplanować z wyprzedzeniem, jakie tematy są odpowiednie, a jakie mogą być nieco zbyt intymne i poważne.

5. Zachowaj ostrożność przy udostępnianiu informacji sztucznej inteligencji

Zanim napiszesz coś wrażliwego do sztucznej inteligencji, zadaj sobie pytanie: czy nie miałbyś nic przeciwko, gdyby przeczytał to nieznajomy? Lepiej nie udostępniać żadnych konkretnych informacji o sobie, swoich bliskich, a nawet miejscu zamieszkania. Firmy zajmujące się sztuczną inteligencją mogą nie mieć ścisłych regulacji.

6. Połącz AI z prawdziwą terapią

Są tematy, z którymi sztuczna inteligencja po prostu nie daje sobie rady. Spróbuj obserwować swoje samopoczucie i jeśli czujesz się gorzej, rozważ rozmowę z prawdziwym terapeutą. Tutaj możesz wybrać terapeutę dostosowanego do Twoich potrzeb i spotkać się z nim online. Bez kamery, w zaciszu własnego salonu, przy filiżance herbaty.

Hedepy pomoże Ci znaleźć właściwego terapeutę

Porozmawiaj o wszystkim, co leży Ci na sercu – online, siedząc wygodnie w swoim ulubionym fotelu z filiżanką herbaty. Pierwsza sesja może odbyć się już za kilka dni.

W serwisie Hedepy, wśród wielu sprawdzonych psychoterapeutów, na pewno znajdziesz odpowiednią osobę. Aby ułatwić Ci wybór, na podstawie 5-minutowego testu zaproponujemy Ci najbardziej odpowiedniego terapeutę.


© Hedepy sp. z o.o.

Jeśli stan zdrowia psychicznego zagraża Tobie lub osobom z Twojego otoczenia, niezwłocznie skontaktuj się z telefonem zaufania (pod numerem: 116 123).
Nasi psychoterapeuci lub Hedepy sp zoo. nie ponoszą odpowiedzialności za Twój stan zdrowia.

VisaMastercardGoogle PayApple PayPayPal