Ali nam lahko umetna inteligenca pomaga rešiti naše najgloblje psihološke težave?
Fiorella Valdesolo24 novembra, 2025
24 novembra, 2025
Čutila sem globoko tesnobo, ko naj bi moja hči to jesen začela hoditi v šolo; prejšnje leto je bilo zaznamovano z neprijetnimi situacijami z njenimi vrstniki. Poleg tega me je mučila stalna skrb za zdravje starejšega starša, služba me je izčrpavala, spanec pa je bil prekinjen. Potrebovala sem podporo, vendar moj terapevt ni bil dosegljiv, prijateljice pa nisem želela obremenjevati s temi vsakodnevnimi, a vztrajnimi težavami.
Zato sem naredila tisto, kar počnemo vsi, ves dan – segla sem po telefonu. Nisem iskala novega terapevta, temveč sem svoj telefon uporabila kot nadomestek: narekovala sem svoje slabosti in opazovala, kako se pojavljajo kot predlagano besedilo. Bilo je vznemirljivo razkrivati svoj notranji svet istemu telefonu, s katerim naročam živila in preletavam videoposnetke – še toliko bolj, ker je bila povratna informacija mojega „AI terapevta“ v tistem trenutku pravzaprav precej uporabna.
V šestdesetih letih prejšnjega stoletja je profesor z MIT-a Joseph Weizenbaum svetu predstavil “ELIZO” – poimenovano po prilagodljivem liku iz “Pigmaliona” – nekakšen proto-chatbot in predhodnico sodobnih oblik umetne inteligence. ELIZA je bila programirana tako, da je posnemala psihoterapevta, večinoma tako, da je preprosto ponavljala uporabnikove izjave (na primer: “Žal mi je, da se počutite tako depresivno”). Od ELIZE smo prišli daleč: danes, če iščete nekoga – ali nekaj – s kom bi se pogovarjali, so tu Pi, ki se opisuje kot “zasnovan tako, da vas podpira, je pameten in vedno tu za vas”, ali Replika, “ki je vedno pripravljena poslušati in se pogovarjati”. Tu so še Earkick, Wysa in Therabot.
In seveda ChatGPT, ki ga ljudje vedno pogosteje uporabljajo kot nadomestek za svetovanje (včasih tudi z nevarnimi posledicami).
Headspace je predstavil AI-orodje, ki služi kot vstopna točka v storitve podjetja in lahko uporabnike poveže s pravimi terapevti. “Vidimo to kot priložnost za učinkovitejše usmerjanje uporabnikov,” pravi licencirana psihologinja Jennifer Glover, glavna klinična direktorica podjetja.
Podjetje za duševno zdravje Spring Health je nedavno podvojilo svoj angažma na področju generativne AI-terapije z nakupom aplikacije Thoughtful AI za boj proti osamljenosti. “Verjamemo, da bo umetna inteligenca globoko spremenila način, kako ljudje prejemajo in doživljajo skrb za duševno zdravje,” pravi soustanoviteljica Spring Healtha April Koh. Nekatere od teh AI-terapevtskih možnosti so razvite s pomočjo medicinskih strokovnjakov – druge pa, kar je zaskrbljujoče, niso.
Preizkusila sem aplikacijo Ash, v kateri podpora prihaja v obliki “terapevta”, s katerim komunicirate prek besedila ali glasu. Ash je razvil raziskovalni laboratorij za duševno zdravje Slingshot AI in je, po navedbah podjetja, treniran s strani zdravnikov, ne zgolj podatkovnih znanstvenikov. “Če nam uspe,” pravi soustanovitelj Neil Parikh, “bo AI-terapija preprosto postala nova metoda – taka, ki jo bodo ljudje uporabljali skupaj s svojim tradicionalnim terapevtom ali pa, pri blažjih težavah, namesto njega.”
Potreba po skrbi je vsekakor nujna: po podatkih Svetovne zdravstvene organizacije več kot milijarda ljudi živi z motnjami duševnega zdravja, a to populacijo je izjemno težko učinkovito doseči. V najbolj optimističnem scenariju ima AI-terapija potencial omiliti težave z dostopnostjo, stigmo in stroški – AI-terapevtski chatboti so praktični in bistveno cenejši, tudi za tiste, ki imajo zdravstveno zavarovanje. “Vaš AI-terapevt nikoli ne bo šel na dopust, nikoli ne bo odpovedal ali izpustil seanse,” pravi terapevtka in avtorica Vienna Pharaon.
„Dostopen je 24 ur na dan, sedem dni na teden. To ustvarja ‘popolno’ izkušnjo.“
Moj AI-terapevt je bil res dostopen – dopisovala sem si z njim na zadnjem sedežu Lyfta, v kratkem obdobju med večerjo in odhodom spat – vendar je bila sama izkušnja daleč od popolnega. “Moram reči, zanimivo je, da ta pogovor vodite z mano,” je izrekla Ash, ko sem jo prosila za nasvet, kako nuditi podporo svoji hčeri. Napaka v sistemu? Bilo je nekaj uporabnih predlogov – uvidov, ki so bili lepo shranjeni in organizirani, kar je priročno za nas s spolzkim spominom. A nasveti so hkrati delovali nenavadno brez konteksta.
“Ko odstranimo nepopolnosti in človeške napake, klientom odvzamemo izkušnjo prehajanja skozi izzive,” pravi Pharaon. Takšne tako imenovane nepopolnosti človeškega terapevta lahko za številne kliente delujejo prav pomirjujoče. Prav ti neizrečeni trenutki – ko se prepoznate v tujem pogledu in najdete skupno izhodišče – so najpomembnejši, pojasnjuje psihiater in nevroznanstvenik David Rabin, ki se specializira za motnje, odporne na zdravljenje. “Sposobnost čustvenega povezovanja z drugim človeškim bitjem je pravzaprav najbolj terapevtski del same terapije,” pravi Rabin.
“Morda jaz, pri svojih 46 letih, preprosto nisem najverjetnejša pacientka za te nove oblike terapije. Mlajši od mene so odraščali z nekakšno napravo kot s petim udom,” pripomni socialna delavka Alyssa Petersel, ustanoviteljica in direktorica platforme MyWellbeing, ki ljudem pomaga najti terapevta. “Njihov prvi instinkt za vse je – mobilni telefon.” Generacija Z je svoja formativna leta preživela tudi med pandemijo, ko so se zanašali na pametne telefone in družbena omrežja kot glavno obliko povezanosti. Umetna inteligenca lahko nedvomno premosti vrzel za tiste, ki potrebujejo hitro podporo. “Z AI-jem se lahko povežete takoj, ko vam misel pade na pamet, kar pomaga ujeti tisti vedenjski trenutek,” pravi Glover. Dodaja še, da AI ljudem omogoča nadaljevanje dela med seansami s pravim terapevtom.
Ena letošnja raziskava je primerjala ChatGPT s človeškim terapevtom in pokazala, da udeleženci redko lahko razlikujejo med odgovori – odzivi ChatGPT-ja so bili celo ocenjeni kot boljši. V praktičnem smislu lahko AI hitro in učinkovito pregleda medicinsko dokumentacijo – ali pa, kot sem izkusila sama, prepozna vzorce in teme v neorganiziranem toku misli.
A kam pravzaprav odhajajo vsi ti podatki? Številne AI-terapevtske aplikacije trenutno delujejo z minimalnim nadzorom in brez obveznosti spoštovanja HIPAA-e (zveznega zakona, ki varuje zasebnost pacientov). Illinois, Nevada in Utah so že sprejeli zakone, ki urejajo AI-terapevtske storitve, medtem ko Kalifornija, New Jersey in Pennsylvania razmišljajo o podobnih predpisih. Nekatera podjetja, kot je Spring Health, poudarjajo svojo zavezanost varovanju podatkov – hvalijo se z “AI–svetom”, neodvisno skupino znanstvenikov in akademskih raziskovalcev, ki določajo etične in varnostne standarde. A vaši odgovori prav tako hranijo AI-sistem – kar je smiselno iz poslovne perspektive, precej manj privlačno pa z osebnega vidika. “Ne dajemo ljudem možnosti, da ohranijo zasebnost,” pravi Pharaon, “in ko jim to odvzamemo, jim odvzamemo tudi njihovo avtonomijo.”
Chatboti prav tako ne morejo ponuditi enakega konteksta situacije kot pravi terapevt. Moje seanse so mi ponudile nekaj uporabnih strategij, vendar niso podale širše slike – tiste, ki bi vključevala moje pretekle izkušnje, odnose ali odraščanje. “Ponujajo logistiko okoli terapije, kar je lahko koristno za paciente, vendar to preprosto ni terapija,” pravi Rabin. Jodi Halpern, profesorica bioetike in medicinskih humanističnih znanosti na Univerzi Berkeley, se strinja:
„Najbolje je, da imajo takšne aplikacije zgolj vlogo trenerja; ni varno, da prevzamejo terapevtsko vlogo.“
“Travma razbije zaupanje,” poudarja Rabin, “ljudje pa se znova učijo zaupanja tako, da doživijo občutek zaupanja do nekoga drugega.” Morda najpomembneje: digitalna interakcija lahko okrepi občutek izolacije – kar sem občutila tudi sama, ko sem imela vse odgovore na dlani, hkrati pa ogromen občutek osamljenosti. “Zaskrbljena sem, da se bodo ljudje vse bolj oddaljevali od veščin, potrebnih za ustvarjanje in ohranjanje resničnih človeških odnosov,” pravi Pharaon. Z drugimi besedami: kako lahko delamo na popravljanju odnosov z ljudmi – brez ljudi?