Pytają o to miliony. Zaskakujące, do czego używają ChatGPT
Miliony użytkowników pytają o to samo. Nie o przepis na tiramisu, nie o kod w Pythonie. Coraz częściej ChatGPT słyszy pytania w stylu: "Dlaczego on mnie zostawił?" albo "Jak poradzić sobie z samotnością?" - ChatGPT nie ocenia i jest dostępny 24/7 – zwraca uwagę Kasia Gandor w podcaście (około)technologicznym "Historie Jutra".
Jeszcze do niedawna sztuczna inteligencja służyła głównie do generowania tekstów i kodu. Dziś? Jak podaje Harvard Business Review – coraz częściej pełni rolę powiernika." Jednak jak wskazuje najnowsza analiza Harvard Business Review. Najczęściej wykorzystywaną funkcją ChatGPT i podobnych narzędzi nie jest już "generowanie pomysłów", a... wsparcie emocjonalne i towarzystwo.
AI zamiast terapeuty?
– Aż musiałam pobiec do innego pokoju i powiedzieć osobie, z którą mieszkam, co właśnie przeczytałam – opowiada Kasia Gandor w podcaście (około)technologicznym "Historie Jutra", który prowadzi razem z Przemkiem Jankowskim z redakcji Benchmark i marką Play.
W trakcie rozmowy Kasia zwróciła uwagę na fascynujący, choć dla niektórych niepokojący trend: coraz więcej ludzi traktuje AI jak terapeutę, przyjaciela, a czasem nawet powiernika spraw sercowych.
Dalsza część artykułu pod materiałem wideo
Bliskość i bezpieczeństwo - czas epokowych zmian? - Historie Jutra
– To nie są już tylko narzędziowe zastosowania, jak naprawa błędu w kodzie czy tworzenie planu lekcji. AI wchodzi w obszary bardzo osobiste, wręcz intymne – zauważa Kasia Gandor.
- Czyli można sobie zażartować i to wcale nie będzie żart, że pytamy AI o porady sercowe, tak? - zauważa Przemek Jankowski.
- Coś jest w tym takiego głęboko niepokojącego - zaznacza Kasia. - My zaczynamy żyć naprawdę w scenariuszu z Black Mirror?
Wśród trzech najczęstszych zastosowań generatywnej AI w 2024 roku znalazły się:
- Terapia i towarzystwo (therapy and companionship)
- Organizacja życia (organizing my life)
- Poszukiwanie celu (finding purpose)
Pod "terapią i towarzystwem" kryją się rozmowy o problemach psychicznych, wsparcie w trudnych emocjach, ale również porady dotyczące relacji międzyludzkich, w tym romantycznych. W praktyce – zamiast zadzwonić do przyjaciela, wielu użytkowników wpisuje: "Nie wiem, czy powinnam mu wybaczyć", "Czuję się samotna", "Co zrobić, jeśli nie odwzajemnia moich uczuć?".
Związek z maszyną: już nie science fiction?
Ten trend niektórym wydaje się dość niepokojący.
– Zawsze wykorzystywałem w takich sytuacjach oprogramowanie, które nazywa się kolega, znajomy, przyjaciel – żartuje Jankowski. Ale chwilę później dodaje: – To jednak ciekawe, że tak wielu ludzi woli dziś zapytać AI. Czy naprawdę mamy coraz mniej bliskich relacji? - mówi w podcaście "Historie Jutra".
- Może to kwestia dostępności. ChatGPT jest dostępny 24 godziny na dobę, a nie każdy przyjaciel odbierze telefon w środku nocy - stwierdza Kasia Gandor.
Drugą z kluczowych zalet, jakie użytkownicy wskazują w badaniu, jest niski lub zerowy koszt korzystania z AI. Trzeci powód budzi już więcej emocji. Okazuje się, że to właśnie brak osądu, który daje iluzję pełnej akceptacji, okazuje się być jednym z głównych magnesów.
– Ludzie deklarują, że korzystają z AI, bo nie boją się, że zostaną ocenieni – podkreśla Gandor.
Ten argument pojawia się szczególnie często w kontekście pytań o relacje, zdrady, samotność czy wątpliwości co do własnej wartości. ChatGPT staje się wówczas kimś na kształt cyfrowego terapeuty, który nie skomentuje tonu głosu ani nie uniesie brwi w odpowiedzi na niewygodne wyznanie.
– To trochę jak scenariusz z ‘Her’ [w którym główny bohater zakochuje się w systemie operacyjnym - przyp. red] albo ‘Black Mirror’ – mówi Gandor. – Zaczynamy traktować AI jak emocjonalne wsparcie, bo ono zawsze ma czas i nie zadaje niewygodnych pytań".
Z drugiej strony – jak zauważa Gandor – dostęp do psychoterapii wciąż bywa ograniczony: – Czas oczekiwania, koszty, brak dostępnych specjalistów – to wszystko sprawia, że AI może być pierwszym, łatwo dostępnym krokiem do wsparcia.
Czy AI to tylko "pomocna dłoń" w kryzysie, czy może substytut bliskości? – Jeśli narzędzie, choćby niedoskonałe, realnie komuś pomaga, to trudno uznać je za zagrożenie – podsumowuje Kasia Gandor.