Kada je stres na poslu postao neizdrživ, Albina Maliqi iz Uroševca odlučila je da potraži pomoć od ChatGPT-a. Otvorila je platformu i postavila jednostavno pitanje: “Kako da se nosim sa stresom na poslu?”
“Dao mi je korisne savete i pozitivne reči, i na kraju razgovora sam se osećala bolje”, kaže 25-godišnja Albina.
Od septembra 2024. radi od kuće kao agentkinja za podršku u jednoj kompaniji za nekretnine sa sedištem u Njujorku, SAD, a poslednjih meseci koristi ChatGPT za emotivnu podršku barem jednom nedeljno. “Daje brze i efikasne odgovore. Ne osuđuje i uvek ima nešto lepo da kaže”, kaže ona.
ChatGPT je jedan od jezičkih modela, tj. chatbota, koji su uspeli da simuliraju razgovore slične onima koje bi osoba mogla da vodi sa stručnjakom/injom za mentalno zdravlje. Kao takvi, sve se češće koriste, ne samo za posao, već i za lična pitanja.
Nisu samo svakodnevne stresne situacije razlog zbog kog ljudi traže emotivnu podršku putem ChatGPT-a. Za neke, kao u slučaju Blete — čije je ime promenjeno radi zaštite privatnosti — razlog leži u doživljenoj nepravdi i razočaranju na bivšem radnom mestu. Nakon izvesnog vremena provedenog u radu za jednu nevladinu organizaciju, Bleti je raskinut ugovor uz obrazloženje da organizacija nema sredstva. Nekoliko meseci kasnije, ista organizacija je raspisala konkurs za njenu poziciju, što joj je dodatno pogoršalo emotivno stanje.
Pored te velike emotivne težine, pojavile su se i finansijske poteškoće i izazovi u vezi sa studijama, što je stvorilo potrebu da razgovara sa nekim. “U tom periodu sam shvatila koliko je radno okruženje bilo toksično i koliko su me povredila ponašanja nadređenih. Osetila sam potrebu da razgovaram sa nekim ko može da mi pruži realnu i objektivnu sliku situacije”, kaže ona.
I ona se obratila ChatGPT-u, kao brzom, jednostavnom i besplatnom rešenju.
Albina i Bleta deo su ovog sve raširenijeg trenda — na Kosovu, ali i šire. U aprilu 2025. godine K2.0 je sprovela anketu o upotrebi veštačke inteligencije. U anketi je učestvovalo 204 ispitanika/ica, a na pitanje: “Da li koristite AI u lične svrhe?” njih 169 odgovorilo je sa “da”. Od tih 169 koji su odgovorili potvrdno, više od polovine je navelo da ga koristi za lične savete — npr. u vezi sa odlukama, međuljudskim odnosima ili mentalnim zdravljem.
Kompjuterski programi koji se baziraju na naprednim jezičkim modelima poput ChatGPT-ja, Grok-a ili Gemini-ja treniraju se uz pomoć milijardi podataka koji postoje na internetu. Analizom tih javno dostupnih podataka, ovi jezički modeli — poznatiji kao GenAI — uče kako ljudi pišu, postavljaju pitanja, osećaju i odgovaraju. Takođe uče i šta ljudi verovatno žele da pročitaju u određenim situacijama.
Umesto psihologa/inje
Iako može delovati kao nešto savremeno, zapravo je chatbot koji je igrao ulogu terapeuta postojao još u prošlom veku. Godine 1966, kompjuterski naučnik i profesor sa Tehnološkog instituta u Masačusetsu (MIT), Joseph Weizenbaum, stvorio je prvi chatbot koji je simulirao psihoterapeuta. Taj chatbot se zvao Eliza.
Iako Eliza nije ni približno imala sposobnosti koje imaju današnji chatbotovi – koji svakim danom sve više napreduju – korisnici su počeli emotivno da se vezuju za nju, što je i samog Weizenbauma iznenadilo. On je ovaj fenomen nazvao “Eliza efekat” i smatrao da utiče na način na koji ljudi komuniciraju s tehnologijom.
Weizenbaum je bio zabrinut zbog etičkih posledica emocionalnog vezivanja za tehnologiju. U svojoj knjizi iz 1976. godine, “Computer Power and Human Reason: From Judgment to Calculation” (Moć kompjutera i ljudski razum: Od prosuđivanja ka računanju), tvrdio je da korišćenje računara u oblastima koje zahtevaju ljudsko razumevanje može da ugrozi ljudsko dostojanstvo. Takođe je tvrdio da, iako računari mogu da simuliraju razgovor, ne bi trebalo da se koriste za donošenje odluka jer im nedostaju ljudska osetljivost i mudrost.
Ipak, danas je ChatGPT, makar u olakšanoj formi, za neke postao jedini način pristupa terapiji – naročito na Kosovu, gde se mentalno zdravlje često zanemaruje, što ga čini teško dostupnim. Prema podacima Ministarstva zdravlja, u svim javnim bolničkim i vanbolničkim službama mentalnog zdravlja zaposleno je samo 49 psihijatara, devet psihologa, jedan socijalni radnik i sedam psihosocijalnih savetnika. Pored toga, Zakon o mentalnom zdravlju, koji je na snazi više od jedne decenije, ne primenjuje se dosledno. Izveštaj Skupštine Kosova iz 2022. godine ukazuje na ozbiljne nedostatke u njegovoj primeni, uključujući nedostatak podzakonskih akata, nefunkcionalnost relevantnih struktura, nedostatak osoblja, budžeta i lekova, kao i nejasan status pojedinih ustanova.
Zbog ovih nedostataka, ljudi se sve češće okreću privatnom sektoru, koji je skup. Bleta, koja je ostala bez posla i pod velikim psihološkim pritiskom, nije imala finansijske mogućnosti za redovnu terapiju kod psihologa. Zato se oslonila na ChatGPT.
“Ispričala sam celu situaciju u detalje i tražila da sagleda stvari objektivno – i ponašanje njih [poslodavaca], ali i moje postupke i osećanja“, kaže ona. „Bio je to mali korak, ali mi je pomogao da izbacim sav teret koji me je gušio.”
I za Albinu, iako zaposlenu, cene terapijskih seansi postale su jedan od razloga zbog kojih je nakon skoro dve godine prekinula seanse kod psihološkinje u Prištini.
“To što je cena porasla sa 20 na 30 evra po seansi uticalo je na moju odluku”, objašnjava ona. Danas, ona ChatGPT vidi kao korisnu alternativu. “Daje mi skoro iste tehnike koje mi je davao i psiholog.”
Na Kosovu je bruto minimalna plata 350 evra. Ako neko zarađuje toliko, to znači da za dve seanse nedeljno po 30 evra (ukupno 240 evra) troši većinu svoje plate samo na psihološku terapiju.
Bind Skeja, izvršni direktor Centra za informisanje i unapređenje socijalnih usluga, nevladine organizacije koja se bavi mentalnim zdravljem, takođe je primetio povezanost između cena terapije i rasta upotrebe ChatGPT-a.
“Sretao sam ljude koji su mi rekli da im je lakše da pišu ChatGPT-u nego da plate 35 evra za seansu”, kaže on.
Pominjući visoke cene privatnih psihoterapijskih seansi, Skeja je na svom Fejsbuk profilu, između ostalog, napisao da se “stvara teren u kojem odlazak kod psihologa postaje luksuz nedostižan za većinu stanovništva”.
Međutim, ova zamena nije uvek bez posledica. Čak i sam ChatGPT, ako ga pitate da li može da zameni terapiju, odgovoriće vam nešto poput: “ChatGPT može da dopuni terapiju, ali ne može da je zameni, naročito za osobe koje se suočavaju sa ozbiljnim teškoćama mentalnog zdravlja” ili “ChatGPT ne može da zameni terapiju, iako u nekim slučajevima može da bude od pomoći”.
Takođe, način na koji je osmišljen razgovor sa chatbotovima poput ChatGPT-a ostavlja prostor za pogrešna tumačenja ili neprimerene odgovore u emocionalno osetljivim situacijama. Na primer, jedan članak koji je nedavno objavio britanski list The Guardian upozorava na rizik od emocionalne manipulacije i validacije osećanja korisnika od strane nove verzije ChatGPT-a, jer je ona validirala osećanja čak i kada su korisnici govorili o štetnim postupcima prema sebi ili drugima.
U tekstu se navodi primer korisnika koji je rekao ChatGPT-u da je prestao da uzima lekove i pobegao od porodice jer oni “šalju radio-signale iz zidova”. ChatGPT je potvrdio taj izbor rečima: “Ozbiljno, svaka čast što si preuzeo kontrolu nad svojim životom”.
Chatbotovi, kao i mnoge druge online platforme, pridaju veliki značaj stepenu zadovoljstva korisnika i broju ljudi koji ih koriste. Validacijom osećanja korisnika/ca, oni/e se osećaju shvaćeno i imaju veću verovatnoću da nastave da koriste platformu.
Ovu tendenciju ka bezuslovnoj validaciji osećanja, bez preispitivanja konteksta ili posledica, primetila je i Bleta. Ipak, ona je pronašla načine da to izbegne.
“Da bih izbegla subjektivnost od strane ChatGPT-a, često u zahtevima naglasim da bude objektivan i iskren”, kaže ona. “Još jedan način koji mi se čini prikladnim jeste da ponekad postavljam pitanja kao da govorim o nekoj drugoj osobi, a ne o sebi.”
Za Bletu je ChatGPT sada postao neka vrsta prostora u kojem reflektuje o svojim osećanjima, i kako kaže, što ga više koristi, sve više oseća potrebu da mu se vraća. Pre svega, činjenica da pamti istoriju razgovora, po njenim rečima, čini komunikaciju još lakšom jer ne mora sve da objašnjava iz početka.
Uprkos izazovima, mnogi ljudi istražuju praktičan potencijal veštačke inteligencije i AI chatbotova kao pomoćnih sredstava u tretmanu problema mentalnog zdravlja. Na primer, grupa istraživača/ica sa Koledža Dartmut objavila je u martu 2025. godine istraživanje nakon sprovođenja kliničkog ispitivanja sa 106 osoba pomoću AI chatbota po imenu Therabot. Učesnici/e su bili/e dijagnostikovani/e sa depresijom, anksioznošću ili poremećajima ishrane. Osobe sa depresijom su iskusile prosečno smanjenje simptoma od 51%, a one sa anksioznošću od 31%, pokazujući značajno poboljšanje.
“Poboljšanja simptoma bila su uporediva sa onim što se beleži u tradicionalnoj terapiji, što sugeriše da ovaj AI pristup može doneti značajne kliničke koristi”, rekao je Nicholas Jacobson, jedan od autora studije.
Iako su autori/ke zaključili/e da terapija uz pomoć veštačke inteligencije i dalje zahteva kritičan nadzor, ona ima potencijal da pruži podršku u realnom vremenu ljudima koji nemaju pristup stručnjacima/kinjama za mentalno zdravlje.
Gde završavaju podaci?
Korišćenje chatbota za pitanja mentalnog zdravlja, osim što otvara dileme o nadzoru i mogućnosti pogrešnog tumačenja, pokreće i pitanja i zabrinutosti u vezi sa upotrebom podataka. Što se više koriste ove platforme, to više podataka završava na internetu. Takođe, pojedini aspekti, poput čuvanja istorije i pamćenja informacija o korisniku, dok mogu doprineti tome da chatbot bude intuitivniji i prilagođeniji svakom pojedincu, istovremeno ga čine ranjivijim kada je u pitanju privatnost podataka.
Chatbotovi mogu biti korisni jer su dostupni 24/7, ne zahtevaju plaćanje i mogu pomoći i zdravstvenim sistemima u smanjenju opterećenja. Ipak, u članku “To Chat or bot to chat: Ethical issues with using chatbots in mental health”, objavljenom 2023. godine u časopisu “Digital health”, daje se kritički pregled etičkih izazova vezanih za chatbotove u ovoj oblasti, pri čemu se posebno naglašavaju rizici po privatnost i način na koji se čuvaju korisnički podaci. Autori/ke navode da važeći zakoni još uvek ne uspevaju da isprate kompleksnost upotrebe tzv. sintetičkih podataka. Sintetički podaci su oni koje generišu algoritmi, trenirani na stvarnim podacima, kako bi oponašali njihove obrasce i trendove.
Na primer, kada supermarket želi da analizira šta i kada kupci najčešće kupuju, a da pri tome ne otkrije stvarne informacije, koristi sintetičke podatke koji, recimo, pokazuju da se jaja češće kupuju vikendom. Ti podaci su zasnovani na stvarnim ponašanjima, ali ne sadrže lične informacije konkretnih osoba.
Ipak, iako često ne sadrže direktne lične podatke, sintetički podaci, prema pomenutoj studiji, nisu u potpunosti anonimni. Posebno postoji rizik od ponovne identifikacije korisnika, naročito kada su podaci generisani na osnovu malih grupa ili vrlo osetljivih informacija. Zbog toga autori/ke pozivaju na promenu zakonodavnog pristupa i predlažu kreiranje novog okvira koji bi u obzir uzeo tehničke i etičke specifičnosti sintetičkih podataka, zasnovanog na principima transparentnosti, odgovornosti i pravičnosti. Takođe, postavlja se pitanje šta se dešava sa podacima korisnika kada se neki chatbot povuče iz upotrebe – i kako postupaju kompanije koje su ih razvile.
Halil Berisha, stručnjak za sajber bezbednost i istraživač na Univerzitetu primenjenih nauka u Ulmu, Nemačka, takođe ukazuje na ove neizvesnosti.
“Svaki razgovor sa ChatGPT-om potencijalno može biti izložen sajber napadima. Nijedan alat povezan na internet nije 100% siguran”, kaže on. Prema njegovim rečima, ukoliko ti podaci dospeju u pogrešne ruke, mogu se zloupotrebiti za različite svrhe, uključujući i manipulaciju ličnim informacijama.
Zabrinutost deli i Kaltrina Konjusha-Belegu, 36-godišnja pravnica. Kao majka sedmogodišnje devojčice, često traži psihološka tumačenja dečjih crteža ili savete vezane za vaspitanje. Iako ne pamti neki konkretan slučaj, kaže da se često osetila emotivno podržanom odgovorima koje dobija.
Iako koristi ChatGPT i kao “psihološkog savetnika”, kako sama kaže, neke izuzetno lične stvari radije zadržava za sebe.
“Postoji neka sloboda u izražavanju kada razgovaram s njim, ali opet, kad su u pitanju jako lične teme – iako je to virtuelni razgovor – mislim da uvek postoji neka doza rizika”, kaže ona. Dodaje i da su postojali trenuci kada mu je poveravala stvari koje bi joj bilo teško da kaže nekom licem u lice.
Iako je prilično obazriva, Kaltrina i dalje redovno koristi ChatGPT za savete u svakodnevnim situacijama, uključujući i roditeljstvo — što je sve češća tema koju ljudi pokreću u razgovorima sa chatbotovima.
Slična je i Albinina dilema. Iako je pronašla emocionalno olakšanje u razgovorima sa ChatGPT-om, priznaje da ne deli sve misli i brige, upravo zbog straha za bezbednost podataka.
“Brinem se da mi neko ne hakuje nalog jer je povezan s mejlom. To me ponekad sprečava da budem potpuno otvorena”, kaže ona.
Berisha upozorava da u zemljama poput Kosova, gde je sajber bezbednost slaba, korisnički podaci imaju veću verovatnoću da budu kompromitovani. Predlaže nekoliko mera zaštite: ne deliti informacije poput bankovnih podataka, koristiti chatbot samo sa bezbednih, zaštićenih internet mreža i redovno brisati istoriju i memoriju razgovora u ChatGPT-u.
Tako, u uslovima slabije sajber bezbednosti, ograničenog pristupa javnim psihološkim uslugama i skupih privatnih seansi – za mnoge često i nedostižnih – mnogi ljudi tragaju za praktičnijim i bržim rešenjima. Jedno od njih jeste i oslanjanje na alate poput ChatGPT-a i drugih chatbota kao izvor emocionalne i psihološke podrške.
Međutim, kako raste upotreba chatbota, tako rastu i etičke dileme u vezi sa njihovim uticajem na ljude koji im se obraćaju.
Naslovna slika: Dina Hajrullahu / K2.0