ChatGPT zamiast terapeuty? "AI nie jest rozwiązaniem każdego problemu"
Coraz więcej osób używa sztucznej inteligencji w ramach terapii, również po rozstaniu czy trudnym doświadczeniu. – Dojdziemy do momentu, w którym nowoczesna technologia czy AI będą wykonywać sporo pracy za człowieka, myślę jednak, że zawód terapeuty nie wyginie – mówi dr hab. Jarosław Michałowski.
24.11.2024 06:50
Ewa Podsiadły-Natorska, Wirtualna Polska: Gdyby potrzebował pan terapii, leczyłby się pan z pomocą sztucznej inteligencji?
Dr hab. Jarosław Michałowski, prof. Uniwersytetu SWPS, psycholog kierujący zespołem opracowującym narzędzie, które wykorzystuje AI do wsparcia terapeutycznego: Myślę, że tak. Chętnie skorzystałbym ze wsparcia sztucznej inteligencji, natomiast robiłbym to ze świadomością, że AI ma swoje ograniczenia.
Jakiego rodzaju?
W zakresie rozumienia naszej mowy: sztuczna inteligencja może mnie po prostu dobrze nie zrozumieć.
A gdyby z nią pisać?
Też może nie zrozumieć tego, co chcę jej przekazać. Drugie ograniczenie związane jest z ryzykiem, że mógłbym otrzymać informację czy odpowiedź, które nie byłyby zgodne z rzeczywistością. ChatGPT oraz inne tego typu narzędzia potrafią wygenerować informacje, które nie są do końca sprawdzone. Opierają się na informacjach pochodzących z internetu, a przecież nie wszystkie są weryfikowane. Zwłaszcza że psychologia rozwija się cały czas, praktycznie codziennie pojawia się coś nowego.
Dalsza część artykułu pod materiałem wideo
No dobrze, ale czy to nie jest zaleta sztucznej inteligencji, że człowiek ma ograniczony dostęp do wiedzy, podczas gdy AI ma dostęp do wszelkich danych, wyników badań, definicji? Człowiek może nie nadążyć za zmianami w psychologii. AI – nadąży.
Teoretycznie tak, ale AI ma również dostęp do wiedzy, która jest przeterminowana albo niezweryfikowana naukowo. Generatywna sztuczna inteligencja nie jest jeszcze na takim poziomie, aby mogła odróżnić prawdę naukową czy wiadomości aktualne od nieaktualnych. To pewnego rodzaju ryzyko.
Ale jest druga strona medalu. Psychoterapeuta też może nie posiadać odpowiedniej lub aktualnej wiedzy. Dlatego wracamy do tego, o czym powiedziałem na początku: dobrze, żeby pacjent miał świadomość ograniczeń AI i umiał pójść na kompromis.
Zobacz także
Co pan zaleca?
Dobrym pomysłem byłoby zweryfikowanie tego, czego dowiedzieliśmy się od sztucznej inteligencji, z pomocą terapeuty. Terapeuta powinien stanowić filtr, choć raczej nie na zasadzie "AI gada głupoty". Chodzi o to, żeby do informacji przekazywanych przez sztuczną inteligencję specjalista podszedł z szacunkiem, bo przekazywana przez AI wiedza może naprawdę być wartościowa i pomocna, stanowić dobre uzupełnienie.
Uzupełnienie. A co by pan powiedział osobie, która potrzebuje psychoterapii i rezygnuje z sesji u terapeuty, w zamian wybierając sztuczną inteligencję? Mówimy o długiej terapii, nie – jednym spotkaniu z psychologiem.
Takiej osobie zaproponowałbym rozwiązania kontrolowane przez profesjonalistów, przynajmniej w pewnym stopniu. Wiadomo, że w internecie nie siedzą wyłącznie eksperci. A przecież istnieje możliwość skorzystania z modeli sztucznej inteligencji, które zostały przygotowane przez specjalistów, m.in. psychologów. Nie wpadamy wtedy w otwarte morze informacji, co dla osoby potrzebującej terapii może być ryzykowne, zwłaszcza jeśli nie zweryfikuje się uzyskanej odpowiedzi u terapeuty.
Co z osobą, która nie potrzebuje długotrwałej terapii, ale szukając wsparcia w trudnym momencie życia, decyduje się na rozmowę ze sztuczną inteligencją?
Jeśli nie mamy do czynienia z zaburzeniem psychicznym, które może stanowić zagrożenie życia lub zdrowia, ryzyko związane z korzystaniem z takich narzędzi jest znacznie mniejsze. Dlatego jeśli ktoś potrzebuje wsparcia w przejściowym kryzysie, do AI jestem zdecydowanie bardziej przekonany. Nie można jednak zapominać, że AI nie jest rozwiązaniem każdego problemu. Do tego, co się przeczyta lub zobaczy np. na ChacieGPT, trzeba podejść z dystansem.
Zobacz także
Wybiegnijmy w przyszłość. Sztuczna inteligencja zastąpi kiedyś terapeutów?
Myślę, że będzie to szło w tym kierunku. Już teraz coraz częściej wspieramy się w terapii różnymi narzędziami technologicznymi, co istotnie przekłada się na relację lekarza czy terapeuty z pacjentem. Na pewno dojdziemy do momentu, w którym nowoczesna technologia czy AI będą wykonywać sporo pracy za człowieka, mimo wszystko myślę jednak, że zawód terapeuty nie wyginie: terapeuci będą potrzebni choćby do tego, żeby kontrolować to, co robi technologia. Pewnie zawsze znajdzie się też grupa ludzi, którzy uznają, że wolą kontakt z żywym człowiekiem.
Czy sztuczna inteligencja ma uczucia?
Dobre pytanie! Na pewno sztuczna inteligencja potrafi wyrazić coś na kształt emocji i uczuć, ale jeszcze długa droga do tego, żeby były to uczucia w rozumieniu uczuć ludzkich. Szczególnie że emocjom wyrażanym przez AI nie towarzyszy pobudzenie fizjologiczne, które odczuwają ludzie.
A może sztuczna inteligencja wcale nie potrzebuje uczuć, żeby być dobrym terapeutą?
Fakt, w terapii współodczuwanie nie zawsze jest na pierwszym miejscu. W końcu terapeuta odnosi się głównie do uczuć pacjenta i próbuje zmodyfikować te uczucia właśnie w nim. To, że terapeuta jest empatyczny, bywa pomocne, ale pewnie można z powodzeniem prowadzić terapię bez współodczuwania.
Jeśli znajdujesz się w trudnej sytuacji i potrzebujesz rozmowy z psychologiem, zadzwoń pod bezpłatny numer 116 123 lub 22 484 88 01. Listę miejsc, w których możesz szukać pomocy, znajdziesz też TUTAJ.
Dla Wirtualnej Polski rozmawiała Ewa Podsiadły-Natorska