AI kao psiholog – može li chatbot zamijeniti terapiju?

Milijuni ljudi već koriste AI chatbotove kao psihološku podršku. Što istraživanja kažu, koji su rizici i može li AI ikada zamijeniti pravog terapeuta?
AI kao psiholog – može li chatbot zamijeniti terapiju?
Zamislite da u 2 ujutro ne možete zaspati, misli vam se vrte u krug i osjećate da vam treba netko s kim ćete razgovarati. Vaš terapeut nije dostupan, a zvati prijatelja u to doba čini vam se previše. Tada otvorite aplikaciju, napišete kako se osjećate — i za nekoliko sekundi dobivate odgovor koji zvuči razumno, empatično i korisno.
Ovo nije distopijska fikcija. Milijuni ljudi već to rade svakodnevno, koristeći AI chatbotove poput ChatGPT-a, Woebot-a, Wysa ili Claude-a kao svojevrsnu prvu liniju psihološke podrške. Pitanje koje se pritom neizbježno nameće: je li to dobro, loše — ili nešto između?
Što AI chatbotovi zapravo mogu (a što ne)
Suvremeni AI sustavi temeljeni na velikim jezičnim modelima (LLM) sposobni su voditi razgovor koji nalikuje terapijskom — postavljati otvorena pitanja, reflektirati ono što ste rekli, prepoznavati obrasce u vašem govoru i predlagati tehnike poput kognitivno-bihevioralne terapije (KBT) ili mindfulnessa. Neke aplikacije, poput Woebot-a, razvijene su uz aktivno sudjelovanje psihologa sa Stanforda i strukturirane su prema dokazanim terapijskim protokolima.
No postoji jasna granica između onoga što AI može i onoga što rade licencirani psihoterapeuti:
- AI nema kliničku prosudbu — ne može dijagnosticirati poremećaje, procjenjivati rizik od samoozljeđivanja u realnom vremenu niti donositi kliničke odluke
- AI ne gradi terapijski odnos u dubokom smislu — a upravo je odnos između terapeuta i klijenta, prema istraživanjima, jedan od najsnažnijih prediktora uspjeha terapije
- AI ne može reagirati na neverbalne znakove — ton glasa, tjelesni govor, mikropauze — koji iskusnom terapeutu govore ponekad više od samih riječi
- AI nije odgovoran u profesionalnom i etičkom smislu kao licencirani zdravstveni djelatnik
Što istraživanja zapravo govore
Ovo nije područje u kojem nedostaje podataka — pitanje je samo kako ih interpretirati.
Studija objavljena u časopisu JMIR Mental Health (Fitzpatrick et al., 2017) pratila je 70 korisnika Woebot aplikacije i ustanovila značajno smanjenje simptoma depresije i anksioznosti u samo dva tjedna korištenja, u usporedbi s kontrolnom grupom. Rezultati su bili dovoljno uvjerljivi da su privukli pažnju kliničke zajednice.
Istraživanje objavljeno u Journal of Medical Internet Research (2021) pokazalo je da su korisnici AI aplikacija za mentalno zdravlje izvještavali o višoj razini angažmana nego kod tradicionalnih digitalnih intervencija — ponajviše zbog dostupnosti u svako doba i odsustva osjećaja osude.
S druge strane, meta-analiza u World Psychiatry (Wampold, 2015) dosljedno potvrđuje da je terapijski savez — kvaliteta odnosa između terapeuta i klijenta — jedan od najsnažnijih prediktora pozitivnog ishoda u psihoterapiji, neovisno o primijenjenom pristupu. Nešto što AI, makar kako sofisticiran bio, strukturalno ne može replicirati.
Važno upozorenje: većina studija o AI alatima za mentalno zdravlje ima kratke periode praćenja, manje uzorke i fokus na blage do umjerene simptome. Za teže poremećaje — veliku depresiju, PTSP, psihozu, poremećaje hranjenja — dokazi o učinkovitosti AI intervencija gotovo ne postoje.
Tko najviše koristi AI kao psihološku podršku — i zašto
Podaci analitičke kuće Statista pokazuju da je globalno tržište aplikacija za mentalno zdravlje 2023. premašilo 6 milijardi dolara, s projiciranim rastom do 2030. Iza tog rasta stoje konkretni razlozi:
Dostupnost: Prema podacima Svjetske zdravstvene organizacije, više od 75% osoba s mentalnim poremećajima u zemljama niskog i srednjeg dohotka ne dobiva nikakvu tretman. U takvom kontekstu, AI nije prijetnja terapiji — on je jedina opcija.
Cijena: U Hrvatskoj, a i šire u regiji, terapija je financijski nedostupna velikom dijelu populacije. Prosječna seansa košta između 50 i 100 eura, a čekanje na javne usluge može trajati i po nekoliko mjeseci.
Stigma: Istraživanje Europske komisije iz 2023. pokazalo je da gotovo 40% Europljana smatra da bi im okolina gledala drugačije kada bi znala da idu na terapiju. AI razgovor nudi anonimnost koja tu barijeru uklanja.
Generacijska navika: Za generaciju Z, komunikacija s AI entitetima nije strana ni neugodna — ona je normalna. Ova generacija značajno češće postiže prve korake u brizi o mentalnom zdravlju upravo kroz digitalne alate.
Ozbiljni rizici koje ne smijemo ignorirati
Unatoč obećavajućim podacima, struka upozorava na nekoliko konkretnih rizika:
Lažni osjećaj sigurnosti: Korisnik u krizi može dobiti privid adekvatne podrške, što ga odvrati od traženja hitne stručne pomoći. Nekoliko dokumentiranih slučajeva u medijima — uključujući tragičan slučaj iz Belgije 2023. gdje je muškarac navodno dulje komunicirao s AI chatbotom prije suicida — pokrenulo je ozbiljnu etičku i regulatornu raspravu.
Pojačavanje, ne rješavanje problema: AI koji se trudi biti empatičan i potvrđivati korisnikova iskustva može nenamjerno poticati ruminaciju — ponavljano "žvakanje" negativnih misli — umjesto aktivnog rada na promjeni obrazaca.
Privatnost i sigurnost podataka: Razgovori o najintimnijim aspektima života pohranjuju se na serverima privatnih kompanija. Regulativa u ovom području još uvijek znatno zaostaje za praksiom.
Nedostatak kliničke supervizije: Ni jedna AI aplikacija trenutno nema sustav koji garantira pravovremenu eskalaciju slučaja do stručnjaka kada je to potrebno.
Gdje AI zapravo sjaji: most, ne zamjena
Najkorisnije promišljanje o AI u kontekstu mentalnog zdravlja nije "ili/ili" nego "i/i".
AI alati mogu biti iznimno vrijedni kao:
- Most do terapije — za osobe koje se još ne usuđuju potražiti stručnu pomoć, AI može biti prvi siguran prostor za verbalizaciju problema
- Međuprostor između seansi — za klijente u aktivnoj terapiji, AI aplikacije mogu podržavati vježbanje tehnika, praćenje raspoloženja i bilježenje misli između susreta s terapeutom
- Trijaža — AI može pomoći osobi da razumije ima li ono što doživljava više obilježja anksioznosti, depresije ili nečeg trećeg, i prema tome potražiti pravog stručnjaka
- Edukacija i psihološka pismenost — podizanje razine općeg razumijevanja mentalnog zdravlja u populaciji, posebno mlađoj
Stručnjaci poput dr. Adama Moeniga sa Sveučilišta Columbia sve češće govore o modelu "stepped care" — stupnjevanoj brizi — u kojoj AI zauzima niže, dostupnije stepenice, a licencirani terapeuti višlje, intenzivnije razine intervencije.
Pravni i etički okvir: gdje stojimo danas
U Europskoj uniji, AI Act koji je stupio na snagu 2024. klasificira AI alate koji utječu na mentalno zdravlje kao visokorizične sustave, što znači strože zahtjeve za transparentnost, sigurnost i nadzor. Hrvatska, kao članica EU, podliježe ovim pravilima, no praktična implementacija i nadzor još su u ranoj fazi.
Američka FDA odobrila je nekoliko digitalnih terapeutskih alata (DTx) za mentalno zdravlje, ali generički chatbotovi poput ChatGPT-a nisu medicinski certificirani i ne smiju se koristiti kao medicinski uređaji.
Ono što je sigurno: AI koji se prezentira kao terapeut bez odgovarajućih upozorenja i ograničenja kreće se u etički i pravno problematičnom prostoru.
Zaključak: korisno oruđe, ne čarobni štapić
AI chatbotovi mogu biti vrijedan alat za psihološku dobrobit — dostupan, jeftin, bez stigme i aktivan u 2 ujutro. Za lakše simptome, psihološku edukaciju i kao most prema profesionalnoj pomoći, istraživanja pokazuju realne koristi.
No za ozbiljne mentalne poremećaje, krizne situacije i duboki terapijski rad — ništa ne može zamijeniti licenciranog psihologa ili psihoterapeuta koji vas promatra kao cjelovitu osobu, a ne kao niz tekstualnih podataka.
Koristite AI kao nadopunu, ne kao zamjenu. A ako osjećate da vam je potrebna prava pomoć — potražite je.
Stručni izvori i literatura
- Fitzpatrick, K.K. et al. (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent. JMIR Mental Health, 4(2).
- Wampold, B.E. (2015). How important are the common factors in psychotherapy? An update. World Psychiatry, 14(3), 270–277.
- Baumel, A. et al. (2021). Objective User Engagement With Mental Health Apps. Journal of Medical Internet Research.
- Europska komisija (2023). Special Eurobarometer on Mental Health.
- Svjetska zdravstvena organizacija (2022). World Mental Health Report: Transforming mental health for all.
- EU AI Act (2024). Regulation (EU) 2024/1689 — klasifikacija visokorizičnih AI sustava.
- Statista (2023). Mental Health Apps Market — Global Forecast to 2030.
Imate prijedlog, ideju, prigovor ili ste uočili grešku? Javite nam se ovdje.



