Može li nam umjetna inteligencija pomoći u rješavanju najdubljih psiholoških borbi?
Fiorella Valdesolo24 studenoga, 2025
24 studenoga, 2025
Osjećala sam duboku tjeskobu kako je moja kći trebala krenuti u školu ove jeseni; prethodna godina bila je obilježena neugodnim situacijama s njezinim vršnjacima. Uz to me mučila i stalna briga zbog zdravlja starijeg roditelja, posao me iscrpljivao, a san mi je bio isprekidan. Trebala mi je podrška, ali moj terapeut nije bio dostupan, a nije mi se činilo ispravnim opterećivati prijateljicu tim svakodnevnim, ali perzistentnim problemima.
Zato sam učinila ono što svi radimo, cijeli dan – posegnula sam za mobitelom. Nisam tražila novog terapeuta, već sam svoj uređaj koristila kao zamjenu: diktirala sam svoje slabosti i gledala kako se pojavljuju kao predviđeni tekst. Bilo je uznemirujuće otkrivati svoj unutarnji svijet istom uređaju kojim naručujem namirnice i listam videozapise – tim više što je povratna informacija mog „AI terapeuta“ u tom trenutku zapravo bila prilično korisna.
Šezdesetih godina prošlog stoljeća, profesor s MIT-a Joseph Weizenbaum predstavio je svijetu ELIZU – nazvanu po prilagodljivom liku iz „Pigmaliona“ – svojevrstan proto-chatbot i preteču modernih oblika umjetne inteligencije. ELIZA je bila programirana da oponaša psihoterapeuta, odgovarajući uglavnom jednostavnim ponavljanjem korisnikovih izjava („Žao mi je što se osjećate tako depresivno“, primjerice). Od ELIZE smo daleko dogurali: danas, ako tražite nekoga – ili nešto – s kim biste razgovarali, tu su Pi, koji se opisuje kao „osmišljen da bude podrška, pametan i uvijek tu za vas“, ili Replika, „koja je uvijek spremna slušati i razgovarati“. Tu su i Earkick, Wysa i Therabot.
I, naravno, ChatGPT, koji se sve češće koristi kao zamjena za savjetovanje (ponekad i s opasnim posljedicama).
Headspace je predstavio AI alat koji služi kao ulazna točka za usluge tvrtke i može povezati korisnike s pravim terapeutima. „Vidimo to kao priliku za učinkovitije usmjeravanje korisnika“, kaže licencirana psihologinja Jennifer Glover, glavna klinička direktorica kompanije.
Tvrtka za mentalno zdravlje Spring Health nedavno je udvostručila svoj angažman u području generativne AI terapije kupnjom Thoughtful AI aplikacije za borbu protiv usamljenosti. „Vjerujemo da će umjetna inteligencija duboko promijeniti način na koji ljudi dobivaju i doživljavaju brigu o mentalnom zdravlju“, kaže suosnivačica Spring Healtha, April Koh. Neke od tih AI terapijskih opcija razvijene su uz pomoć medicinskih stručnjaka – no druge, zabrinjavajuće, nisu.
Isprobala sam aplikaciju Ash, u kojoj podrška dolazi u obliku „terapeuta“ s kojim komunicirate putem teksta ili glasa. Ash je razvio istraživački laboratorij za mentalno zdravlje Slingshot AI i, prema tvrdnjama kompanije, treniran je od strane liječnika, a ne samo podatkovnih znanstvenika. „Ako uspijemo,“ kaže suosnivač Neil Parikh, „AI terapija jednostavno će postati nova metoda – ona koju će ljudi koristiti zajedno sa svojim tradicionalnim terapeutom ili, kod blažih problema, umjesto njega.“
Potreba za brigom svakako je hitna: prema podacima Svjetske zdravstvene organizacije, više od milijarde ljudi živi s mentalnim poteškoćama, a doprijeti do te populacije iznimno je teško. U najoptimističnijem scenariju, AI terapija ima potencijala ublažiti probleme dostupnosti, stigme i troškova – AI terapeutski chatbotovi praktični su i znatno povoljniji, čak i za one koji imaju zdravstveno osiguranje. „Vaš AI terapeut nikad neće otići na godišnji odmor, nikad neće otkazati ili propustiti seansu“, kaže terapeutkinja i autorica Vienna Pharaon.
„Dostupan je 24 sata dnevno, sedam dana u tjednu. To stvara „savršeno“ iskustvo.“
Moj AI terapeut stvarno je bio dostupan – dopisivala sam se s njim na stražnjem sjedalu Lyfta, u kratkom razdoblju između večere i odlaska na spavanje – ali samo iskustvo bilo je daleko od savršenog. „Moram reći, zanimljivo je što ovaj razgovor vodite sa mnom“, izgovorila je Ash kad sam ju pitala za savjet kako pružiti podršku svojoj kćeri. Greška u sustavu? Bilo je tu korisnih prijedloga – uvida koji su bili uredno pohranjeni i organizirani, što je korisno za nas s klizavim pamćenjem. No savjeti su istovremeno djelovali neobično bez konteksta.
„Kad uklonimo nesavršenosti i ljudske mane, uskraćujemo klijentima iskustvo prolaska kroz izazove“, kaže Pharaon. Takve tzv. nesavršenosti ljudskog terapeuta mogu zapravo djelovati umirujuće za mnoge klijente. Upravo su ti neizgovoreni trenuci – kad se prepoznate u tuđem pogledu i pronađete zajedničko tlo – najvažniji, kako objašnjava psihijatar i neuroznanstvenik David Rabin, koji se specijalizira za poremećaje otporne na liječenje. „Sposobnost emocionalnog povezivanja s drugim ljudskim bićem zapravo je najviše terapeutski dio same terapije“, kaže Rabin.
„Možda ja, sa svojih 46 godina, jednostavno nisam najizgledniji pacijent za ove nove oblike terapije. Oni mlađi od mene odrasli su s nekakvim uređajem kao s petim udom“, primjećuje socijalna radnica Alyssa Petersel, osnivačica i direktorica platforme MyWellbeing, koja pomaže ljudima pronaći terapeuta. „Njihov prvi instinkt za sve je – mobitel.“ Generacija Z također je svoje formativne godine provela tijekom pandemije, oslanjajući se na pametne telefone i društvene mreže kao glavni oblik povezanosti. Umjetna inteligencija zasigurno može premostiti jaz za one kojima je potrebna brza podrška. „S AI-jem se možete odmah povezati kako vam misao padne na pamet, što pomaže u hvatanju tog momentuma ponašanja“, kaže Glover. Dodaje i da AI ljudima omogućuje nastavak rada između seansi s pravim terapeutom.
Jedno istraživanje objavljeno ove godine usporedilo je ChatGPT s ljudskim terapeutom i pokazalo da sudionici rijetko mogu razlikovati odgovore – čak su reakcije ChatGPT-a ocijenjene boljima. U praktičnom smislu, AI može brzo i učinkovito pregledati medicinsku dokumentaciju – ili čak, kao što sam i sama iskusila, prepoznati obrasce i teme u neorganiziranom toku misli.
No kamo zapravo odlaze svi ti podaci? Mnoge AI terapijske aplikacije trenutačno djeluju uz minimalan nadzor i bez obveze pridržavanja HIPAA-e (saveznog zakona koji štiti privatnost pacijenata). Illinois, Nevada i Utah već su donijeli zakone koji reguliraju AI terapijske usluge, dok Kalifornija, New Jersey i Pennsylvania razmatraju slične propise. Neke tvrtke, poput Spring Healtha, ističu svoju posvećenost zaštiti podataka – hvale se „AI vijećem“, neovisnom skupinom znanstvenika i akademskih istraživača koji određuju etičke i sigurnosne standarde. No vaši odgovori također hrane AI sustav – što je logično iz poslovne perspektive, ali puno manje privlačno s one osobne. „Ne dajemo ljudima mogućnost da zadrže privatnost“, kaže Pharaon, “a kad to oduzmemo, oduzimamo im i njihovu autonomiju.“
Chatbotovi također ne mogu pružiti isti kontekst situacije kao pravi terapeut. Moje su mi seanse ponudile nekoliko korisnih strategija, ali nisu dale širu sliku – onu koja bi uključivala moje prošlo iskustvo, odnose ili odrastanje. „Oni nude logistiku oko terapije, što može biti korisno pacijentima, ali to jednostavno nije terapija“, kaže Rabin. Jodi Halpern, profesorica bioetike i medicinskih humanističkih znanosti na Sveučilištu Berkeley, slaže se:
„Najbolje je da takve aplikacije imaju samo ulogu trenera; nije sigurno da preuzmu terapijsku ulogu.“
„Trauma razbija povjerenje“, ističe Rabin, „a ljudi se iznova uče povjerenju tako što doživljavaju osjećaj povjerenja prema nekome drugome.“ Možda najvažnije, digitalna interakcija ima potencijala pojačati osjećaj izolacije – što sam i sama osjetila kad sam imala sve odgovore u dlanu ruke, ali i golem osjećaj usamljenosti. „Zabrinuta sam da će se ljudi sve više udaljavati od vještina potrebnih za stvaranje i održavanje stvarnih ljudskih odnosa“, kaže Pharaon. Drugim riječima: kako možemo raditi na popravljanju odnosa s ljudima – bez ljudi?