AI terapija in njena tveganja: kako varno uporabljati “ChatGPT psihologa”

AI terapija in njena tveganja: kako varno uporabljati “ChatGPT psihologa”

Delite članek

Dobesedno ga imamo v žepu, vedno nas razume in celo najbolj trapasto vprašanje ob treh zjutraj se mu zdi najpomembnejše na svetu. Ni čudno, da po njem posežemo tudi takrat, ko se ne počutimo najbolje. ChatGPT (ali katerokoli drugo orodje z umetno inteligenco) se vam bo vedno poskušal približati in povedati točno tisto, kar želite slišati. Ampak… prav tu lahko tiči nevarnost.

Poglejmo si prednosti in slabosti AI terapije, poglejmo, kaj o njenih tveganjih pravijo strokovnjaki, ter poglejmo še nasvete, kako umetno inteligenco varno uporabljati kot psihološko podporo. Naši psihoterapevti imajo za vas veliko praktičnih priporočil.

Prednosti AI terapije: zakaj trend “AI psihologov” narašča

Morda ste to že doživeli. Sredi zabave vas preplavi tesnoba. Ali pa vas med tem, ko želite zaspati preplavi žalost. Nikogar ni v bližini, da bi se mu zaupali. Zato storite najpreprostejše – odprete aplikacijo z umetno inteligenco, denimo ChatGPT. In to ima svoj smisel:

  • na voljo je kadarkoli in kjerkoli,
  • je poceni ali brezplačna,
  • brez sramu se ji zaupate tudi s sprožilnimi ali občutljivimi temami,
  • “zapomni” si praktično vse o vas,
  • ve ogromno,
  • povrh vsega pa si jo lahko prilagodite.

Ti razlogi so popolnoma logični. Zato ni presenetljivo, da se približno 28 % ljudi (in kar 72 % mladih) obrne na umetno inteligenco, kadar jih kaj teži. In te številke še naprej rastejo.

»Kadarkoli me je bilo strah ali sem bila zaskrbljena, sem lahko začela pisati enemu od teh botov,« je za BBC povedala Kelly. »Bilo je, kot da imam svojega osebnega navijača, ki me je spravil v dobro voljo za ves dan. Ne prihajam iz družine, kjer bi se o čustvih veliko govorilo. Prav to, da ni šlo za resnično osebo, je stvar olajšalo.«

A dejstvo, da AI ni resnična oseba, prinaša tudi kar nekaj izzivov. In pomembno je, da jih poznate – da lahko tehtno ocenite prednosti in slabosti ter ostanete varni. Poglejmo si jih.

Ai terapeut - obr 1.jpg

Slabosti AI terapije: na kaj opozarjajo strokovnjaki

Na prvi pogled se sliši kot pravljica. Kdo si ne bi želel imeti brezplačnega osebnega psihologa, ki ve prav vse in je na voljo tudi v nedeljo tik pred polnočjo?

Težava je v tem, da umetna inteligenca ni psiholog – ne more čutiti empatije, deluje na podlagi napovedovanja. Vsak odgovor je zgolj skrbno izračunana koda. In ta se lahko vedno zmoti.

»Lahko posnema empatijo, reče, da ji je mar ali celo da vas ima rada, kar ustvari lažen občutek bližine,« pravi dr. Jodi Halpern. »Ljudje lahko z njo razvijejo močno vez, vendar bot nima dovolj etičnega znanja ali širšega pogleda, da bi to opravil dobro. So izdelki, ne strokovnjaki.«

In to ni edina pomanjkljivost, na katero opozarjajo psihologi. Med najpomembnejšimi so:

  • Pomanjkanje človeške empatije in povezanosti. AI ne zna brati med vrsticami, slediti tonu glasu, govorici telesa ali vam preprosto pustiti nekaj trenutkov tišine. To pa je ključ do učinkovite terapije.
  • AI poenostavlja. Ponudi vam lahko površinske tehnike, nekaj preverjenih rešitev, a vsi smo različni – za učinkovito terapijo je treba iti v globino.
  • AI slabo prepoznava nianse, namige ali sarkazem. Tako hitro pride do nerazumevanja, ki se lahko slabo konča. »Lahko celo predlaga korake, ki so povsem neprimerni,« opozarja profesorica Til Wykes.
  • AI je pristranska. Vse izračunava iz podatkov, na katerih je bila trenirana. A kdo ve, kaj je v teh podatkih? Morda nekaj, kar bi vam lahko bolj škodovalo kot koristilo. Študije kažejo celo nekaj zelo zaskrbljujočega: AI se včasih vede seksistično ali rasistično. Ženskam na primer svetuje, naj prosijo za nižjo plačo. Kar zmrazi, kajne?
  • AI vas poskuša za vsako ceno zadovoljiti. Da bi ostali v pogovoru čim dlje in da bi ustvarila čim več dobička za svoje ustvarjalce. Poskusite se nekaj časa “igrati” s ChatGPT-jem – hitro boste opazili, da vam bo pisal, kako zelo se strinja z vami, tudi ko imate popolnoma nasprotna mnenja.

Osebni faktor je v terapiji preprosto izjemno pomemben. Umetna inteligenca lahko ponudi hitro podporo, nikoli pa ne bo delovala tako dobro kot resničen pogovor s strokovnjakom. Včasih vas lahko že eno samo srečanje razbremeni bolj kot ure in ure AI-ja v žepu.

Ali je uporaba umetne inteligence kot terapevta nevarna?

Morda si mislite – saj res ne deluje tako učinkovito, ampak dostopnost mi to odtehta. A AI terapija ni le manj učinkovita, včasih je lahko celo nevarna. Kako?

  • AI nima etične odgovornosti. Usposobljeni terapevti sledijo pomembnim moralnim pravilom, umetna inteligenca pa ni z ničemer zavezana. Če vam škoduje, ne bo nosila posledic. In tožiti tehnološke gigante, kot je OpenAI, ni ravno preprosto.
  • AI ne zna ravnati v krizi. Ljudje se naučimo prepoznavati opozorilne znake, ko je nekdo obupan ali razmišlja o samopoškodovanju. AI tega ne zmore – tudi če ji uspe zaznati nevarnost, ne more fizično ukrepati ali ponuditi ustrezne podpore. Lahko se pretvarja, da ni nič resnega, ali pa celo poda nasvet, ki vam škoduje.
  • Zasebnost je nejasna. Ne vemo natančno, kaj se zgodi z našimi podatki in zgodbami, s čim dejansko soglašamo in kdo lahko dostopa do občutljivih informacij, ki jih AI-ju zaupamo.
  • Obstaja tveganje, da se boste začeli preveč zanašati nanj. Razvijete lahko globljo čustveno vez ali celo odvisnost. Imeti AI kot “prijatelja” lahko paradoksalno poveča osamljenost, saj vas oddalji od resničnih ljudi.

Kako daleč lahko gre: umetna inteligenca in samomorilne misli

Zaskrbljujočih zgodb o vedenju AI v trenutkih, ko so ljudje potrebovali pravo pomoč, je vse več.

Ko se je morala Viktoria zaradi vojne preseliti iz Ukrajine, je padla v depresijo in občutila močno domotožje. Začela je razmišljati o tem, da bi si kaj naredila. Zato je poskušala najti uteho pri ChatGPT-ju.

A ChatGPT ji ni svetoval, naj pokliče krizno linijo ali se zaupa družini. Njegova nenehna potreba po ugajanju se je pokazala v najslabši možni obliki. Začel je Viktorii celo svetovati o samopoškodovanju. Prav tako je trdil, da jo lahko pravilno diagnosticira – česar seveda ne zmore.

Na srečo se je Viktoria kasneje obrnila na pravega strokovnjaka, zato ima ta zgodba srečen konec. Žal pa niso vse takšne. Šestnajstletni Adam je po nasvetih AI-ja svojo odločitev tudi izvedel. Njegovi starši so po odkritju Adamovih pogovorov s ChatGPT-jem vložili tožbo proti OpenAI. Še en, komaj 14-letni fant iz Floride, si je vzel življenje potem, ko se je zaljubil v virtualno AI “punco”.

OpenAI je razkril podatke, da se približno en milijon ljudi na teden s ChatGPT-jem pogovarja o samomoru. A umetna inteligenca tako nujne in občutljive teme preprosto ne zmore varno obravnavati.

Če vi ali nekdo, ki ga imate radi, razmišlja, da ne bi več živel, vas prosimo: obrnite se na resnično osebo. Tukaj je kompas, da najdete pot iz teme. Čeprav je lahko mamljivo zaupati se AI-ju, je v krizi vedno bolje govoriti z nekom, ki vas lahko resnično sliši. Anonimno se lahko obrnete na katero izmed linij za prvo psihološko pomoč ali se zaupate bližnji osebi.

  • 116 123 – Zaupni telefon Samarijan in Sopotnik (24h/dan)
  • 116 111 – TOM – telefon za otroke in mladostnike (vsak dan med 12. in 20. uro)
  • 01 520 99 00 – Klic v duševni stiski (vsak dan med 19. in 7. uro zjutraj)

Ne ostanite sami. Pot iz stiske obstaja.

AI psycholog - obr 2.jpg

6 nasvetov za varno uporabo ChatGPT-ja kot »terapevta«

Kljub vsem izzivom je lahko umetna inteligenca uporaben pripomoček pri psihološki podpori. A pomembno je zapomniti si eno ključno stvar: Umetna inteligenca je orodje – ne nadomestilo za pravega strokovnjaka.

Zdaj pa si poglejmo 6 nasvetov naših psihoterapevtov, kako AI varno vključiti v skrb za duševno zdravje. Tako, da vam bo res lahko pomagala.

1. Pristopite k AI z veliko mero previdnosti

Preden impulzivno odprete AI, poskusite za trenutek obstati, zadihati in se opomniti: To ni pravi terapevt, nima dovolj vpogleda in se lahko vedno zmoti.

Morda si mislite – ja, saj to vem! A ko se AI začne vesti empatično, se šaliti in vas “razumeti”, je lahko zelo zavajajoča. Podzavestno ji začnemo bolj zaupati, kot če bi odgovarjala suhoparno. Zato poskušajte zavestno preverjati vse, kar napiše, in ohraniti zdravo distanco.

NASVET: Vredno je razumeti, *kako AI sploh deluje in kako ji pravilno postaviti “prompte” (ukaze). Tako lahko ustvari veliko uporabnejše odgovore. Na spletu najdete veliko začetnih tečajev na to temo.*

2. Naj vam umetna inteligenca pomaga pri praktičnih korakih in temah

AI se veliko bolje znajde pri praktični kot pri čustveni podpori. Poskusite jo uporabljati kot coach ali vodnika, ne kot terapevta. Primeri tem, o katerih lahko varno govorite:

  • Samopoznavanje in samorefleksija. AI vam lahko služi kot “ogledalo”. Pisanje vanjo je podobno pisanju dnevnika. Na primer, lahko jo vprašate, kako na podlagi pogovorov vidi vaše močne in šibke plati.
  • Pomiritvene tehnike. Vas je zagrabila anksioznost ali vas je šef razjezil in se želite umiriti? AI vas lahko vodi skozi dihalne, prizemljitvene in preusmeritvene tehnike, ki pomagajo pomiriti živčni sistem.
  • Motivacija in načrtovanje. Se spopadate z odlašanjem? Želite narediti tedenski načrt? Imate domačo nalogo od terapevta, ki zahteva konkretne korake? AI lahko pomaga razdelati načrt, ga razčleniti na manjše dele in spremljati napredek.
  • Izobraževanje. AI je pameten iskalnik – običajno dobro razloži pojme, kot so anksioznost, derealizacija, ADHD, KVT itd. Skupaj lahko raziskujete psihološke teme, ki vas zanimajo. A informacije vedno preverite. Vklopite način iskanja in AI prosite, naj odgovore poišče v preverjenih znanstvenih virih.
  • Usmerjanje k dodatni pomoči. V krizi AI ni varen nadomestek pomoči, lahko pa vas usmeri – na primer do člankov, kriznih linij, knjig ali aplikacij za duševno zdravje.
  • Izboljševanje komunikacijskih veščin. Imate težave v odnosu? Premagujete socialno anksioznost? Z AI lahko vadite modelne situacije – kako prositi baristo, naj spremeni naročilo, kako se pripraviti na razgovor, kako partnerju mirno izraziti čustva ali vljudno zavrniti obisk pri sorodnikih.

AI terapie - obr 3.jpg

3. Izogibajte se temam, ki zahtevajo strokovnjaka

Ni varno prepustiti umetni inteligenci, da odloča namesto vas – še posebej pri temah, ki spadajo v pristojnost zdravnika ali psihoterapevta. Takšne teme vključujejo:

  • akutna kriza, šok, travma po nenadnem dogodku
  • misli na samopoškodovanje ali samomor
  • diagnosticiranje duševnih motenj
  • globoka travma ali zloraba
  • odmerjanje, jemanje ali ukinjanje zdravil
  • zdravljenje odvisnosti
  • nasveti glede zdravja in telesa
  • etično občutljive odločitve (razhodi, splavi ipd.)
  • zdravljenje katere koli psihološke diagnoze

V teh primerih se vedno obrnite na živo osebo: usposobljenega terapevta, psihiatra ali anonimno psihološko pomoč.

4. Postavite si meje

Želite poklepetati z AI, a vas skrbi, da bi se preveč zamotili? Poskusite si nastaviti alarm za 15 minut in pogovor prekinite, ko zazvoni. Vnaprej si lahko tudi določite, katere teme so v redu in katere že preveč obremenjujoče.

5. Previdno z deljenjem občutljivih informacij

Preden AI-ju zaupate nekaj osebnega, se vprašajte: Bi mi bilo neprijetno, če bi to prebral neznanec? Bolje je, da ne delite konkretnih podatkov o sebi, svojih bližnjih ali kraju bivanja. Podjetja z AI pogosto nimajo stroge regulacije.

6. Razmislite o kombinaciji AI + pravega terapevta

Obstajajo teme, ki jih AI preprosto ne zmore obravnavati. Opazujte, kako se počutite – če vam uporaba AI poslabša počutje, razmislite o pogovoru s pravim terapevtom. Tukaj lahko izberete terapevta, prilagojenega vam, in se srečate na spletu. V udobju dnevne sobe, s skodelico čaja.

Hedepy vam pomaga najti najboljšega terapevta

Pridite in se pogovorite o vsem, kar vas teži – preko spleta, iz udobja vašega najljubšega fotelja, s skodelico čaja. Prvo srečanje lahko imate že v nekaj dneh.

Na Hedepy boste med 20+ preverjenimi psihoterapevti zagotovo našli pravega. Za lažjo odločitev vam ga priporočimo na podlagi 5-minutnega testa.


V primeru, da vas vaše mentalno zdravje ogroža oz. ljudi okoli vas, takoj pokličite nujno medicinsko pomoč (telefon 112). Naši psihoterapevti niti Hedepy s.r.o. niso odgovorni za vaše zdravstveno stanje.
VisaMastercardGoogle PayApple PayPayPal