WAŻNE
TERAZ

Media: Kijów i sojusznicy odrzucają kluczowe punkty planu pokojowego

Chatbot zamiast psychologa. Ekspertka mówi o skutkach niebezpiecznego trendu

– Relacja ze sztuczną inteligencją jest zawsze jednostronna. Chatbot nie jest przyjacielem ani partnerem, lecz raczej asystentem, który doradza i odpowiada, ale nie uczestniczy w prawdziwej wymianie emocji czy doświadczeń – mówi psycholożka Katarzyna Kucewicz, wyjaśniając, jakie konsekwencje dla ludzkiej psychiki może mieć próba korzystania z chatbotów jako substytutów psychoterapii.

Czy chat nas wysłucha?Czy chat nas wysłucha?
Źródło zdjęć: © Adobe Stock
Sara Przepióra

#DZIEJESIEWPOLSCE "Wszystko, co ważne, dzieje się w Polsce. Wirtualnej Polsce"

Wszystko, co ważne, dzieje się w Polsce. Wirtualnej Polsce [SPOT]

CZY CHAT NAS WYSŁUCHA?

Sara Przepióra: Coraz więcej osób mówi otwarcie o tym, że prowadzi terapeutyczne rozmowy z chatbotami. Brytyjski dziennik "The Times" donosi, że młodzi Brytyjczycy, zamiast u psychiatrów i psychoterapeutów, szukają pomocy u sztucznej inteligencji. Tylko w marcu tego roku na platformie TikTok pojawiło się 16,7 mln wpisów, których autorzy przyznają się do regularnego korzystania z ChatGPT jako terapeuty. Z czego może wynikać popularność tego zjawiska?

Katarzyna Kucewicz: Współczesne społeczeństwo ogarnęła epidemia samotności. Dynamikę w nawiązywaniu relacji międzyludzkich zaburzyła niemal sześć lat temu pandemia koronawirusa. Przymusowo przenieśliśmy kontakt z drugim człowiekiem do internetu. Szczególnie mocno odbiło się to na dziecięcych i nastoletnich relacjach rówieśniczych. W czasach zajęć szkolnych prowadzonych online zabrakło możliwości nawiązania przyjaźni twarzą w twarz. Od tego czasu młodzież chętniej przesiaduje w domach.

Czuje się pewniej w internetowej alternatywnej rzeczywistości. Ma trudności w nawiązywaniu kontaktów i tworzeniu głębokich więzi w prawdziwym świecie. Dlatego młodym Polakom łatwiej opisać swoje codzienne rozterki w telefonie. W chatbotach widzą uprzejmego odbiorcę, który zaserwuje im dawkę porad lub gotowych rozwiązań ich problemów. Odbiorcę, z którym nie trzeba uprawiać small talku, który nie oceni, nie przewróci oczami mówiąc: a co to za głupie pytanie?

Młodsze pokolenia przypisują nowym technologiom zdolność do niezależnego myślenia, podejmowania decyzji, a nawet posiadania uczuć, co potwierdza badanie przeprowadzone przez Valentinę Anderies i Judy Robertson w szkockich szkołach. Z danych opublikowanych w czasopiśmie "Computers and Education: Artificial Intelligence" wynika, że niemal połowa badanych nie jest pewna czy asystenci AI mają uczucia. Jak to możliwe, że dzieci związują się emocjonalnie z komunikatorami?

Na pierwszy rzut oka sugestie sztucznej inteligencji brzmią sensownie. Odpowiada płynnie, logicznie i uprzejmie, przez co automatycznie przypisujemy jej cechy prawdziwej osoby. W rzeczywistości nie ma w rozmowach z chatbotami miejsca na empatię ani zrozumienie. Pamiętajmy, że chatboty są wytrenowanymi modelami językowym o dużej skali. Nie posiadają one ludzkiego rozumienia świata, świadomości ani uczuć. To jedynie statystyczne dopasowanie słów, które nasze mózgi błędnie interpretują jako przejaw ludzkiego myślenia.

Z czego może wynikać ta interpretacja?

Internet i media społecznościowe pełne są komunikatów, które podkreślają, że w życiu jesteśmy sobie żaglem, sterem i okrętem, a jeśli sami o siebie nie zadbamy, to nikt inny tego nie zrobi. Utwierdzamy się przez to w przekonaniu, że najważniejsze są nasze potrzeby, emocje oraz granice. W takich uwarunkowaniach społecznych, rozmowy z chatbotami, które zawsze odpowiadają na pytania tak, jak sobie tego życzymy, nie wymagają od nas wysiłku w budowaniu relacji, a do tego dają nam poczucie całkowitego skupienia się na naszych potrzebach, podbudowują nasze ego.

Czy dlatego zdarzają się przypadki nawiązywania relacji romantycznych z chatbotami?

Ludzie są samotni w związkach, sfrustrowani powierzchownością relacji i bezskutecznymi próbami szukania bliskości w aplikacjach randkowych. Tinder i podobne platformy, które miały ułatwiać łączenie ludzi, paradoksalnie sprawiły, że poczuliśmy się jeszcze bardziej zagubieni. Mnogość wyboru wcale nie pomaga, a raczej rodzi wrażenie niekończącej się konkurencji.

Nasz styl randkowania bardzo się zmienił: stał się szybki, powierzchowny, pozbawiony zaangażowania. Czujemy się z nim coraz bardziej znużeni i rozczarowani. Boimy się bliskości, konfrontacji, odrzucenia. Chatboty w skrajnych przypadkach stają się atrakcyjnymi partnerami. Nie oceniają, nie podnoszą głosu, nie przerywają. Nawet jeśli przekazują coś niepochlebnego, robią to z taktem i empatią. Dają odbiorcom poczucie bezpieczeństwa, które coraz trudniej zbudować w relacjach z ludźmi.

Jakie ryzyko niesie traktowanie sztucznej inteligencji jako rozmówcy emocjonalnego?

Przede wszystkim zanikanie umiejętności wymiany informacji, odczuwania empatii oraz akceptacji różnorodności. To podstawowe zdolności, które pozwalają nam przetrwać jako społeczeństwo. Zanikać może także sedno przyjaźni i relacji romantycznych, w których obie strony dają w codziennych kontaktach coś od siebie. Dojrzałe spojrzenie na relacje zakłada, że moja wolność kończy się tam, gdzie zaczyna się wolność drugiego człowieka. Tworząc wspólnoty, musimy umieć współpracować, rozmawiać, szanować odmienne zdania i dbać o to, by innym było z nami dobrze. Relacja ze sztuczną inteligencją jest natomiast jednostronna. Chatbot nie jest przyjacielem ani partnerem, lecz raczej asystentem, który doradza i odpowiada, ale nie uczestniczy w prawdziwej wymianie emocji czy doświadczeń.

Wróćmy do tematu rozmów terapeutycznych z chatbotami. Poruszyłyśmy kwestie negatywnych skutków wyłącznego polegania na radach sztucznej inteligencji. Czy można wykorzystać ją korzystnie w psychologii i psychiatrii?

Sztuczna inteligencja może pełnić rolę pierwszej pomocy psychologicznej. Potrafi udzielić wsparcia, podpowiedzieć, gdzie szukać pomocy, a czasem po prostu wysłuchać, kiedy ktoś potrzebuje rozmowy. Wesprzeć może także analizę sytuacji, utrzymanie motywacji pacjenta między sesjami oraz pracę nad nawykami czy rozwijaniem kompetencji. Zawsze powtarzam studentom psychologii: sztuczna inteligencja świetnie sprawdza się w pracy na zasobach człowieka, czyli wtedy gdy wzmacniamy pewność siebie i budujemy wewnętrzne siły. W tej funkcji — jako dodatkowe, wspierające narzędzie — może naprawdę wiele zdziałać.

Problem pojawia się wtedy, gdy zaczynamy traktować ChatGPT jak substytut terapii lub próbujemy wyleczyć nim deficyty — depresję, lęki, PTSD, problemy z koncentracją czy relacjami. Choć to narzędzie potrafi znakomicie analizować treść wypowiedzi i proponować rozwiązania, nie widzi tego, co w relacji terapeutycznej jest kluczowe: mikrogestów, tonu głosu, oraz mowy ciała pacjenta. Nie zada mu także dodatkowych pytań, które w terapii bywają przełomowe.

Jak może wyglądać praca z ChatemGPT na zasobach?

Zauważyłam, że ChatGPT wspiera świetnie osoby pragnące zmienić nawyki, np. redukujące masę ciała. W prowadzonych przeze mnie grupach terapeutycznych słyszę od uczestników, że między spotkaniami, gdy mają gorszy moment — na przykład silny głód albo kryzys motywacji — rozmawiają z czatbotem. Pytają go o wskazówki, proszą o motywujące słowa, które pomogą im wytrwać do kolejnego posiłku bez podjadania. Taka rozmowa bywa kojąca. Chatbot potrafi podsunąć wspierające komunikaty i zasugerować techniki samoregulacji. Nie zawsze trafia idealnie w sedno problemu, ale często udaje mu się pomóc na tyle, by napięcie spadło, a apetyt się obniżył.

Spójrzmy na drugą stronę medalu — jakie konsekwencje mają próby łatania naszych deficytów psychicznych poprzez rozmowy ze sztuczną inteligencją?

Jeśli ktoś, kto ma znaczące deficyty psychiczne, zaczyna traktować chatbot jak realną osobę, przypisywać mu intencje, uczucia, czy wręcz spiskowe zamiary, to prawdopodobnie owe deficyty pogłębi znacząco.

Zarówno polskie, jak i zagraniczne media donosiły o przypadkach psychozy, jaką wywołały intensywne rozmowy z chatbotami. Amerykański psychiatra Keith Sakata twierdzi, że od początku 2025 roku przyjął do szpitala 12 osób, które straciły kontakt z rzeczywistością przez AI. Ludzie byli także w stanie po bliższym kontakcie ze sztuczną inteligencją odstawiać leki czy rezygnować z terapii. Potrafię sobie wyobrazić, że osoby z historią schizofrenii paranoidalnej mogłyby uwierzyć, że za fasadą algorytmu ukryty jest człowiek lub jakaś grupa ludzi próbująca nimi manipulować. Dlatego tak ważna jest świadomość granic w rozmowie z chatbotami.

Jakie sygnały powinny nas zaniepokoić i zwrócić uwagę na przekroczenie granic, o których pani mówi?

Jednym z niepokojących sygnałów jest nadmiernie poleganie na chatbotach do tego stopnia, że przestajemy podejmować samodzielne decyzje. Badania naukowców z Massachusetts Institute of Technology pokazują, że intensywne korzystanie z chatbotów może obniżać aktywność komórek mózgowych, zmniejszać zaangażowanie poznawcze, kreatywność i pogarszać pamięć. U dzieci proces ten bywa jeszcze bardziej ryzykowny. Mogą bowiem zacząć traktować AI jak przewodnika i przyjaciela, a rodziców postrzegać jako zbędnych rozmówców. Odbudowanie takiej relacji może być niezwykle trudne.

Jak temu przeciwdziałać?

Warto ustalić z dzieckiem jasne zasady korzystania z chatbotów. Uświadamiajmy go, że ChatGPT tylko jedno z wielu narzędzi, jakie może wykorzystać. Wzmacniajmy w pociechach samodzielność myślenia. Zachęcajmy, aby najpierw same próbowały znaleźć odpowiedzi, sięgały do książek, korzystały z własnych doświadczeń, a dopiero potem kierowały pytania do sztucznej inteligencji. Taką samą poradę kieruję do osób dorosłych. Pamiętajmy, że w świecie, który nieustannie pędzi, krytyczne myślenie jest największą wartością oraz tarczą ochronną przed utratą samodzielności.

Wybrane dla Ciebie
Spryskaj rajstopy lakierem. Ten trik naprawdę działa
Spryskaj rajstopy lakierem. Ten trik naprawdę działa
Charakteryzator "Wicked" o kultowym zielonym makijażu. "To nie taka prosta sprawa"
Charakteryzator "Wicked" o kultowym zielonym makijażu. "To nie taka prosta sprawa"
Najmodniejszy kolor na zimę. Poproś fryzjera o "bambi brunette"
Najmodniejszy kolor na zimę. Poproś fryzjera o "bambi brunette"
Ma tętniaka mózgu. Kim Kardashian ujawniła, co usłyszała od lekarzy
Ma tętniaka mózgu. Kim Kardashian ujawniła, co usłyszała od lekarzy
Pela był na Tindrze. Od nowego roku zaczyna terapię
Pela był na Tindrze. Od nowego roku zaczyna terapię
Sheridan grała w kultowym serialu. Tak dziś wygląda 62-latka
Sheridan grała w kultowym serialu. Tak dziś wygląda 62-latka
"Macała" bułki w sklepie. Po uwadze rozpętała się afera
"Macała" bułki w sklepie. Po uwadze rozpętała się afera
Spryskała tym pędzelek. Korektor przestał się rolować pod oczami
Spryskała tym pędzelek. Korektor przestał się rolować pod oczami
"Każdy ma swój wstyd". Damięcki o scenach intymnych
"Każdy ma swój wstyd". Damięcki o scenach intymnych
Zauważyłeś na paznokciach? Twoje serce i wątroba mogą "wołać" o pomoc
Zauważyłeś na paznokciach? Twoje serce i wątroba mogą "wołać" o pomoc
Björk skończyła 60 lat. Tak dziś wygląda
Björk skończyła 60 lat. Tak dziś wygląda
Ma 82 lata. Mówi, co z seksem w tym wieku
Ma 82 lata. Mówi, co z seksem w tym wieku
ZANIM WYJDZIESZ... NIE PRZEGAP TEGO, CO CZYTAJĄ INNI! 👇