To praktyczne spojrzenie na to, jak sztuczna inteligencja wpływa na dobrostan zespołów — od realnego wsparcia po ryzyka przeciążenia, presji i utraty zaufania.
Dowiesz się, jak odpowiedzialnie wdrażać AI, komunikować zmiany i wyznaczać granice,
które chronią ludzi, a jednocześnie wspierają efektywność organizacji.

Gdy technologia przyspiesza, a presja rośnie, HR staje przed nowymi wyzwaniami. Ten program pomoże Ci lepiej rozumieć ludzi w erze AI i reagować w sposób, który naprawdę robi różnicę.

Pracownicy czują się dziś złapani w pułapkę bez wyjścia: nie korzystasz z AI, zostajesz w tyle. Korzystasz, może właśnie uczysz je robić swoją pracę. A zwolnienia i tak przyjdą, bo firma „optymalizuje”.
I właśnie to samo AI, którego się boją, staje się ich pierwszym miejscem po wsparcie — bo jest dostępne o 23:00, nie ocenia i nie powie szefowej. To, co przeraża, staje się próbą ratunku.
To paradoks, który HR powinien zauważyć, zanim przerodzi się w poważniejszy problem. Rynek rozwiązań AI-wellbeing rośnie szybciej niż zdolność HR do ich oceny. Jak w tym wszystkim zadbać o zespół i siebie?

Większość komunikacji o AI w firmach brzmi jak PR. Pracownicy to czują.
Komunikat brzmi mniej więcej tak: „AI to szansa, nie zagrożenie. Pomagamy Wam się rozwijać!” A pracownik słyszy: ktoś już zdecydował, tylko nam jeszcze nie powiedział.
Utrata zaufania do pracodawcy w kontekście AI nie dzieje się w momencie ogłoszenia. Dzieje się wcześniej, w małych sytuacjach, w których pracownicy pytają, a menedżerowie uciekają w ogólniki. Albo nie pytają, bo czują, że i tak nie usłyszą prawdy.
Jak prowadzić rozmowy o automatyzacji, które nie brzmią jak konferencja prasowa? Jak mówić uczciwie, nawet kiedy sam/a nie znasz odpowiedzi? I jak sprawić, żeby ludzie nie dowiedzieli się o zmianach z LinkedIn’a?

Obietnica brzmiała: AI przejmie powtarzalne zadania, a ludzie będą mogli skupić się na tym, co ważne. W praktyce często wygląda to inaczej: AI generuje więcej zadań, tempo rośnie, oczekiwania są wyższe — a człowiek zostaje z ciężarem nadania sensu wszystkiemu, co maszyna wyprodukowała.
Dochodzi do tego nowy rodzaj przemęczenia: nie fizycznego, nie z nadmiaru spotkań, ale z ciągłego dostosowywania się do narzędzi, które zmieniają się szybciej niż jesteśmy w stanie je przyswoić. I z poczucia, że nigdy nie wiesz, czy robisz to wystarczająco dobrze — bo punkt odniesienia się przesunął.
Jak oddzielić AI, które naprawdę wspiera, od tego, które tylko dorzuca warstwę do i tak przeciążonego pracownika?

Narzędzia AI-wellbeing potrafią dziś naprawdę dużo: monitorować poziom stresu, przewidywać ryzyko wypalenia, oferować spersonalizowane sesje coachingowe dostępne o każdej porze. Brzmi jak ideał?
Problem w tym, że te same narzędzia zbierają dane, o których pracownicy często nie mają pełnej świadomości. Dane o emocjach, o rytmie pracy, o tym, kiedy ktoś sięga po pomoc. I choć intencja może być szczera — wsparcie, a nie kontrola — granica między nimi jest cieńsza, niż się wydaje.
Kultura wsparcia i kultura nadzoru różnią się nie tyle narzędziami, co tym, kto ma do nich dostęp, kto o tym wie i czy pracownik naprawdę mógł odmówić.

Baby boomersi i starsi przedstawiciele pokolenia X patrzą na AI przez pryzmat dekad doświadczeń: zmian, restrukturyzacji, obietnic technologicznych, które nie zawsze się spełniły. Ich sceptycyzm nie jest oporem przed nowoczesnością — to racjonalna nieufność oparta na tym, co przeżyli.
Millenialsi weszli na rynek pracy w czasie kryzysu, nauczyli się adaptować, są tech-savvy — ale często czują się złapani w środku: zbyt starzy na bycie „native”, zbyt doświadczeni, żeby ignorować ryzyko. Pokolenie Z wychowało się z AI, ale to nie znaczy, że czuje się z nim bezpiecznie w miejscu pracy — zwłaszcza gdy AI staje się narzędziem ich oceny.
HR, który wdraża AI bez uwzględnienia tych różnic, nie tylko traci skuteczność — ryzykuje pogłębienie podziałów, które już istnieją.

Dla osób odpowiedzialnych za wellbeing, rozwój pracowników i wdrażanie AI w organizacji.
Dla tych, którzy chcą lepiej rozumieć wpływ AI na ludzi i mądrze wspierać swoje zespoły.
Dla firm, które chcą robić to odpowiedzialnie — bez utraty zaufania i dobrostanu pracowników.
Dla tych, którzy chcą wdrażać AI, dbając jednocześnie o wyniki i zaangażowanie zespołów.
Mam ponad 12 lat doświadczenia na styku UX, psychologii klinicznej i nowych technologii. Tworzę i rozwijam zorientowane na użytkownika produkty cyfrowe. Równolegle pracuję jako psycholożka, psychoterapeutka i psychogastroenterolożka, specjalizując się m.in. w zaburzeniach odżywiania oraz pracy z młodzieżą i młodymi dorosłymi.
Jestem także ekspertką w obszarze AI — interesuję się wpływem sztucznej inteligencji na dobrostan (wellbeing), zdrowie psychiczne i doświadczenia użytkowników. Pracuję jako wykładowczyni, mentorka i prelegentka, tworząc oparte na dowodach treści edukacyjne dla specjalistów.

Jeśli stan zdrowia psychicznego zagraża Tobie lub osobom z Twojego otoczenia, niezwłocznie skontaktuj się z telefonem zaufania (pod numerem: 116 123).
Nasi psychoterapeuci lub Hedepy sp zoo. nie ponoszą odpowiedzialności za Twój stan zdrowia.