Može li nam veštačka inteligencija pomoći u rešavanju naših najdubljih psiholoških borbi?
Fiorella ValdesoloNovembar 24, 2025
Novembar 24, 2025
Osećala sam duboku anksioznost kad je moja ćerka trebalo da krene u školu ove jeseni; prethodna godina bila je obležena neprijatnim situacijama s njenim vršnjacima. Uz to, mučila me je i stalna briga zbog zdravlja starijeg roditelja, posao me je iscrpljivao, a san mi je bio isprekidan. Bila mi je potrebna podrška, ali moj terapeut nije bio dostupan, a nije mi delovalo ispravno da opterećujem prijateljicu tim svakodnevnim, ali perzistentnim problemima.
Zato sam učinila ono što svi radimo, ceo dan – posegnula sam za telefonom. Nisam tražila novog terapeuta, već sam svoj uređaj koristila kao zamenu: diktirala sam svoje slabosti i gledala kako se pojavljuju kao predviđeni tekst. Bilo je uznemirujuće otkrivati svoj unutrašnji svet istom uređaju sa kojim naručujem namirnice i listam videozapise – tim više što je povratna informacija mog „AI terapeuta“ u tom trenutku zapravo bila prilično korisna.
Šezdesetih godina prošlog veka, profesor s MIT-a Joseph Weizenbaum predstavio je svetu ELIZU – nazvanu po prilagodljivom liku iz „Pigmaliona“ – svojevrstan proto-chatbot i preteču modernih oblika veštačke inteligencije. ELIZA je bila programirana da oponaša psihoterapeuta, odgovarajući uglavnom jednostavnim ponavljanjem korisnikovih izjava („Žao mi je što se osećate tako depresivno“, na primer). Od ELIZE smo daleko dogurali: danas, ako tražite nekoga – ili nešto – s kim biste razgovarali, tu su Pi, koji se opisuje kao „osmišljen da bude podrška, pametan i uvek tu za vas“, ili Replika, „koja je uvek spremna da sasluša i razgovara“. Tu su i Earkick, Wysa i Therabot.
I, naravno, ChatGPT, koji se sve češće koristi kao zamena za savetovanje (ponekad i s opasnim posledicama).
Headspace je predstavio AI alat koji služi kao ulazna tačka za usluge kompanije i može povezati korisnike s pravim terapeutima. „Vidimo to kao priliku za učinkovitije usmeravanje korisnika“, kaže licencirana psihološkinja Jennifer Glover, glavna klinička direktorka kompanije.
Kompanija za mentalno zdravlje Spring Health nedavno je udvostručila svoj angažman u području generativne AI terapije kupovinom Thoughtful AI aplikacije za borbu protiv usamljenosti. „Verujemo da će veštačka inteligencija duboko promeniti način na koji ljudi dobijaju i doživljavaju brigu o mentalnom zdravlju“, kaže suosnivačica Spring Healtha, April Koh. Neke od tih AI terapijskih opcija razvijene su uz pomoć medicinskih stručnjaka – no druge, zabrinjavajuće, nisu.
Isprobala sam aplikaciju Ash, u kojoj podrška dolazi u obliku „terapeuta“ s kojim komunicirate putem teksta ili glasa. Ash je razvio istraživačku laboratoriju za mentalno zdravlje Slingshot AI i, prema tvrdnjama kompanije, treniran je od strane lekara, a ne samo data naučnika. „Ako uspemo,“ kaže suosnivač Neil Parikh, „AI terapija će jednostavno postati nova metoda – ona koju će ljudi koristiti zajedno sa svojim tradicionalnim terapeutom ili, kod blažih problema, umesto njega.“
Potreba za brigom svakako je hitna: prema podacima Svetske zdravstvene organizacije, više od milijardu ljudi živi s mentalnim poteškoćama, a dopreti do te populacije jako je teško. U najoptimističnijem scenariju, AI terapija ima potencijala da ublaži probleme dostupnosti, stigme i troškova – AI terapeutski chatbotovi praktični su i znatno povoljniji, čak i za one koji imaju zdravstveno osiguranje. „Vaš AI terapeut nikad neće otići na godišnji odmor, nikad neće otkazati ili propustiti seansu“, kaže terapeutkinja i autorka Vienna Pharaon.
„Dostupan je 24 sata dnevno, sedam dana u nedelji. To stvara „savršeno“ iskustvo.“
Moj AI terapeut stvarno je bio dostupan – dopisivala sam se s njim na prednjem sedištu Lyfta, u kratkom periodu između večere i odlaska na spavanje – ali samo iskustvo bilo je daleko od savršenog. „Moram reći, zanimljivo je što ovaj razgovor vodite sa mnom“, izgovorila je Ash kad sam ju pitala za savet kako pružiti podršku svojoj ćerki. Greška u sistemu? Bilo je tu korisnih predloga – uvida koji su bili uredno pohranjeni i organizovani, što je korisno za nas s klizavim pamćenjem. No saveti su istovremeno delovali neobično bez konteksta.
„Kad uklonimo nesavršenosti i ljudske mane, uskraćujemo klijentima iskustvo prolaska kroz izazove“, kaže Pharaon. Takve tzv. nesavršenosti ljudskog terapeuta mogu zapravo delovati umirujuće za mnoge klijente. Upravo su ti neizgovoreni trenuci – kad se prepoznate u tuđem pogledu i pronađete zajedničko tlo – najvažniji, kako objašnjava psihijatar i neuronaučnik David Rabin, koji se specijalizira za poremećaje otporne na liječenje. „Sposobnost emocionalnog povezivanja s drugim ljudskim bićem zapravo je najviše terapeutski dio same terapije“, kaže Rabin.
„Možda ja, sa svojih 46 godina, jednostavno nisam najizgledniji pacijent za ove nove oblike terapije. Oni mlađi od mene odrasli su s nekakvim uređajem kao s petim udom“, primećuje socijalna radnica Alyssa Petersel, osnivačica i direktorka platforme MyWellbeing, koja pomaže ljudima da pronađu terapeuta. „Njihov prvi instinkt za sve je – telefon.“ Generacija Z je takođe svoje formativne godine provela tokom pandemije, oslanjajući se na pametne telefone i društvene mreže kao glavni oblik povezanosti. Veštačka inteligencija zasigurno može premostiti jaz za one kojima je potrebna brza podrška. „S AI-jem se možete odmah povezati kako vam misao padne na pamet, što pomaže u hvatanju tog momentuma ponašanja“, kaže Glover. Dodaje i da AI ljudima omogućava nastavak rada između seansi s pravim terapeutom.
Jedno istraživanje objavljeno ove godine uporedilo je ChatGPT s ljudskim terapeutom i pokazalo da učesnici retko mogu da razlikuju odgovore – čak su reakcije ChatGPT-a ocenjene kao bolje. U praktičnom smislu, AI može brzo i učinkovito da pregleda medicinsku dokumentaciju – ili čak, kao što sam i sama iskusila, prepozna obrasce i teme u neorganizovanom toku misli.
No gde zapravo odlaze svi ti podaci? Mnoge AI terapijske aplikacije trenutno deluju uz minimalan nadzor i bez obveze pridržavanja HIPAA-e (saveznog zakona koji štiti privatnost pacijenata). Illinois, Nevada i Utah već su doneli zakone koji regulišu AI terapijske usluge, dok Kalifornija, New Jersey i Pennsylvania razmatraju slične propise. Neke kompanije, poput Spring Healtha, ističu svoju posvećenost zaštiti podataka – hvale se „AI većem“, nezavisnom grupom naučnika i akademskih istraživača koji određuju etičke i sigurnosne standarde. No vaši odgovori također hrane AI sistem – što je logično iz poslovne perspektive, ali puno manje privlačno s one lične. „Ne dajemo ljudima mogućnost da zadrže privatnost“, kaže Pharaon, “a kad to oduzmemo, oduzimamo im i njihovu autonomiju.“
Chatbotovi takođe ne mogu da pruže isti kontekst situacije kao pravi terapeut. Moj seanse su mi ponudile nekoliko korisnih strategija, ali nisu dale širu sliku – onu koja bi uključivala moje prošlo iskustvo, odnose ili odrastanje. „Oni nude logistiku oko terapije, što može biti korisno pacijentima, ali to jednostavno nije terapija“, kaže Rabin. Jodi Halpern, profesorka bioetike i medicinskih humanističkih nauka na Univerzitetu Berkeley, slaže se:
„Najbolje je da takve aplikacije imaju samo ulogu trenera; nije sigurno da preuzmu terapijsku ulogu.“
„Trauma razbija poverenje“, ističe Rabin, „a ljudi se iznova uče poverenju tako što doživljavaju osećaj poverenja prema nekome drugome.“ Možda najvažnije, digitalna interakcija ima potencijala da pojača osećaj izolacije – što sam i sama osetila kad sam imala sve odgovore u dlanu ruke, ali i odroman osećaj usamljenosti. „Zabrinuta sam da će se ljudi sve više udaljavati od veština potrebnih za stvaranje i održavanje stvarnih ljudskih odnosa“, kaže Pharaon. Drugim rečima: kako možemo raditi na popravljanju odnosa s ljudima – bez ljudi?