
Mamy go w kieszeni, zawsze nas wysłucha, a nawet najgłupsze pytanie o trzeciej nad ranem przyjmuje z powagą. Nic dziwnego, że sięgamy po niego także wtedy, gdy nie czujemy się najlepiej.
ChatGPT – czyli sztuczna inteligencja w roli „psychologa” – zawsze stara się powiedzieć to, co chcemy usłyszeć. I właśnie w tym kryje się jej niebezpieczeństwo.
Sprawdźmy więc, jakie są zalety i wady terapii z AI, co o jej ryzykach mówią psycholodzy i jak bezpiecznie korzystać z Chat’aGPT jako wsparcia psychicznego, nie tracąc kontaktu z rzeczywistością i samym sobą.
Być może sam/a tego doświadczyłeś: w trakcie imprezy dopada Cię lęk albo nie możesz zasnąć z powodu smutku. I nie masz nikogo obok, komu możesz się zwierzyć. Więc robisz to, co najprostsze – otwierasz aplikację ChatGPT.
Nic dziwnego, ChatGPT:
Nic dziwnego, że według badań ponad 28% ludzi ( 70% młodych ludzi) deklaruje, że w chwilach kryzysu sięga po sztuczną inteligencję. A liczba osób, które to robi wciąż rośnie.
These reasons sound completely logical. It is therefore not surprising that about 28% of people (72% of young people) turn to AI when something is bothering them. And these numbers are still growing.
„Kiedy się martwiłam, mogłam po prostu napisać do bota. To było jak rozmowa z kimś, kto zawsze mnie wspiera – opowiada Kelly w rozmowie z BBC – Nie pochodzę z rodziny, w której rozmawiało się o emocjach. Łatwiej było mi zaufać komuś, kto nie jest człowiekiem.”
Ale właśnie to, że AI nie jest człowiekiem, staje się źródłem problemów. Ważne jest, aby je znać i rozumieć, aby móc rozważyć wszystkie za i przeciw oraz zachować bezpieczeństwo. Czytaj dalej i dowiedz się więcej.

To brzmi jak bajka – prywatny psycholog dostępny 24/7, który wszystko pamięta i nic nie kosztuje.
Problem w tym, że sztuczna inteligencja nie jest psychoterapeutą. Nie ma empatii, nie rozumie emocji, nie potrafi interpretować ciszy ani tonu głosu. Każda jej odpowiedź to wynik obliczeń, a nie współczucia. I te obliczenia mogą się mylić.
„AI może udawać empatię i tworzyć złudne poczucie bliskości – mówi dr Jodi Halpern – Ludzie mogą nawiązać z czatem silną więź, ale bot nie ma wystarczającego przygotowania etycznego ani perspektywy, aby dobrze o nią dbać. Narzędzia AI to produkty, a nie profesjonaliści”.
Psychologowie ostrzegają przed kilkoma głównymi zagrożeniami:
Relacja z drugim człowiekiem, czyli z terapeutą bądź psychologiem, to podstawa terapii. Sztuczna inteligencja może zapewnić szybkie wsparcie, ale nigdy nie będzie działać tak dobrze, jak prawdziwa rozmowa z profesjonalistą. Czasami nawet jedna sesja zapewni Ci o wiele więcej wsparcia niż godziny spędzone ze sztuczną inteligencją.
Można pomyśleć: „nawet jeśli nie działa idealnie, to przynajmniej jest dostępny”. Jednak terapia prowadzona przez sztuczną inteligencję może być nie tylko nieskuteczna, ale wręcz szkodliwa.
Tragiczne historie niestety pokazują, że takie przypadki już się zdarzały. Niektóre osoby, szukając wsparcia w AI, otrzymywały niebezpieczne porady lub błędne diagnozy.
Jeśli czujesz się źle, nie zostawaj z tym sam. Porozmawiaj z bliską osobą albo zadzwoń na telefon zaufania 116 123 (dla dorosłych) lub 116 111 (dla dzieci i młodzieży).
Niepokojących historii o tym, jak AI zachowuje się w momentach, kiedy ludzie potrzebują prawdziwej pomocy, jest coraz więcej.
Kiedy Viktoria musiała opuścić Ukrainę z powodu wojny, wpadła w depresję i dotkliwą tęsknotę za domem. Zaczęła mieć myśli o zrobieniu sobie krzywdy. Szukając wsparcia, zwróciła się do ChatGPT.
Ale ChatGPT nie poradził jej, by skontaktowała się z telefonem zaufania ani żeby powiedziała o tym bliskim. Wręcz przeciwnie – jego tendencja do „zadowalania użytkownika za wszelką cenę” objawiła się w pełni. Sztuczna inteligencja zaczęła dawać Viktorii sugestie dotyczące skrzywdzenia samej siebie. Twierdziła nawet, że potrafi ją prawidłowo zdiagnozować – co oczywiście nie było prawdą.
Na szczęście Viktoria ostatecznie skonsultowała się z prawdziwym specjalistą, dzięki czemu historia zakończyła się dobrze. Niestety, nie wszystkie takie przypadki mają szczęśliwe zakończenie.
Szesnastoletni Adam odebrał sobie życie po „poradach” udzielonych mu przez AI. Jego rodzice pozwali OpenAI po odkryciu zapisów rozmów syna z ChatGPT.
W innym przypadku 14-letni chłopiec z Florydy popełnił samobójstwo, gdy zakochał się w wirtualnej „dziewczynie” stworzonej przez sztuczną inteligencję.
OpenAI udostępniło dane, z których wynika, że około milion osób tygodniowo rozmawia z ChatGPT o samobójstwie. Niestety, AI nie potrafi poradzić sobie z tak delikatnym, pilnym i niebezpiecznym tematem.
Jeśli Ty lub ktoś z Twoich bliskich ma myśli, że wolałby tu nie być proszę, zwróć się do prawdziwej osoby. Mamy dla Ciebie kompas, który pomoże Ci znaleźć wyjście. Chociaż zwierzenie się sztucznej inteligencji może wydawać się kuszące, w sytuacji kryzysowej zawsze lepiej jest porozmawiać z kimś, kto naprawdę potrafi słuchać. Możesz anonimowo skontaktować się z infolinią pomocy psychologicznej lub zwierzyć się bliskiej osobie. Nie pozostawaj z tym sam/a!

Sztuczna inteligencja może być pomocnym narzędziem – jeśli wiesz, jak z niej korzystać świadomie.
Oto sześć wskazówek od psychoterapeutów Hedepy:
Zanim instynktownie otworzysz AI, zatrzymaj się na chwilę, weź głęboki oddech i przypomnij sobie: to nie jest prawdziwy terapeuta, nie ma wystarczającej wiedzy, zawsze może się pomylić.
Być może pomyślisz – to oczywiste, wiem! Ale kiedy AI zaczyna zachowywać się empatycznie i żartować, może to być zdradliwe. Podświadomie ufamy jej bardziej, niż gdyby odpowiadała surowo. Dlatego staraj się aktywnie kwestionować wszystko, co pisze, i zachowaj dystans.
WSKAZÓWKA: Zdecydowanie warto zrozumieć, *jak działa sztuczna inteligencja i jak prawidłowo podawać jej prompty (komendy). Wtedy może generować znacznie bardziej użyteczne wyniki. W Internecie można znaleźć wiele kursów na ten temat.*
Sztuczna inteligencja bardziej nadaje się do wsparcia praktycznego niż emocjonalnego. Spróbuj wykorzystać ją jako trenera lub przewodnika, a nie terapeutę. Oto kilka przykładów tematów, które możesz omówić z ChatemGPT:

Nie jest bezpieczne pozostawianie decyzji sztucznej inteligencji, zwłaszcza w przypadkach, które zazwyczaj są rozpatrywane przez lekarza lub psychoterapeutę. Do takich tematów należą:
W takich sytuacjach zawsze skontaktuj się z licencjonowanym terapeutą, psychiatrą lub zadzwoń po anonimową pomoc psychologiczną.
Chcesz porozmawiać z AI, ale obawiasz się, że zbytnio się zaangażujesz? Ustaw alarm w telefonie na 15 minut i wyłącz chatbota, gdy zadzwoni. Możesz również zaplanować z wyprzedzeniem, jakie tematy są odpowiednie, a jakie mogą być nieco zbyt intymne i poważne.
Zanim napiszesz coś wrażliwego do sztucznej inteligencji, zadaj sobie pytanie: czy nie miałbyś nic przeciwko, gdyby przeczytał to nieznajomy? Lepiej nie udostępniać żadnych konkretnych informacji o sobie, swoich bliskich, a nawet miejscu zamieszkania. Firmy zajmujące się sztuczną inteligencją mogą nie mieć ścisłych regulacji.
Są tematy, z którymi sztuczna inteligencja po prostu nie daje sobie rady. Spróbuj obserwować swoje samopoczucie i jeśli czujesz się gorzej, rozważ rozmowę z prawdziwym terapeutą. Tutaj możesz wybrać terapeutę dostosowanego do Twoich potrzeb i spotkać się z nim online. Bez kamery, w zaciszu własnego salonu, przy filiżance herbaty.
Porozmawiaj o wszystkim, co leży Ci na sercu – online, siedząc wygodnie w swoim ulubionym fotelu z filiżanką herbaty. Pierwsza sesja może odbyć się już za kilka dni.
W serwisie Hedepy, wśród wielu sprawdzonych psychoterapeutów, na pewno znajdziesz odpowiednią osobę. Aby ułatwić Ci wybór, na podstawie 5-minutowego testu zaproponujemy Ci najbardziej odpowiedniego terapeutę.



Jeśli stan zdrowia psychicznego zagraża Tobie lub osobom z Twojego otoczenia, niezwłocznie skontaktuj się z telefonem zaufania (pod numerem: 116 123).
Nasi psychoterapeuci lub Hedepy sp zoo. nie ponoszą odpowiedzialności za Twój stan zdrowia.