Ljudi koriste AI za terapiju: "Pomogao mi je više nego 15 godina psihića"

U ožujku prošle godine, terapeutkinja je 25-godišnjoj Kay predložila da se ponovno poveže s bivšim dečkom - oženjenim muškarcem 42 godine starijim od nje, koji joj je ujedno bio i životni trener. Kay se osjećala izgubljeno i nedostajala joj je njegova podrška.

"Zašto mu se jednostavno ne javiš ponovno?", prisjeća se Kay savjeta. Poslala mu je poruku, a unutar dva tjedna njihov je odnos ponovno bio u kaosu. On je i dalje živio sa suprugom i djecom, koje je neprestano obećavao napustiti. Godinu dana kasnije, u ožujku ove godine, Kay se osjećala loše te je izgubila povjerenje u savjete svoje terapeutkinje, piše The Cut.

Umjesto terapeutkinji, za pomoć se obratila ChatGPT-u. Platformu je već koristila za pisanje molbi za posao, a od prijateljice je čula da je koristi i kao oblik terapije. Sjela je za stol i upisala: "Ne znam trebam li prekinuti s ovim starijim muškarcem. Osjećam se tako frustrirano."

Opisala je botu kako joj on plaća vožnje i narudžbe s Amazona, na što je AI objasnio da takve geste često dolaze "s neizrečenim očekivanjima poput lojalnosti, emocionalne brige ili stalne prisutnosti." Kay je osjetila olakšanje.

Nakon trosatnog razgovora s botom, znala je da mora prekinuti vezu. Ubrzo je to i učinila, no bivši dečko nastavio joj je slati očajničke poruke, koje je ona prosljeđivala botu na analizu. "Ovo je pokušaj da te emocionalno veže", odgovorio je AI. "Nisam morala čitati poruke sama i biti u tome sama", kaže Kay. "U prošlosti bi me te riječi namamile natrag."

Terapeut dostupan 24 sata dnevno

Kay je samo jedna od mnogih. Na Redditu postoji tema pod naslovom "ChatGPT mi je pomogao više nego 15 godina terapije. Bez šale", s gotovo 600 komentara koji hvale psihoanalitičke sposobnosti platforme. Većina korisnika već je koristila ChatGPT za poslovne zadatke, pa im se povjeravanje osobnih problema činilo kao prirodan korak.

Cijene njegovu dostupnost 24/7 - jedna ga je osoba koristila za savjete u stvarnom vremenu tijekom svađe s ocem. Sviđa im se i što bota mogu "trenirati" da postane terapeut kakvog žele, bez dodatnih troškova. AI ih nikada ne prekida jer je isteklo vrijeme.

"Mogla sam nešto okrenuti na deset različitih načina", rekla je jedna korisnica. "Nikada ne bi pogledao na sat i rekao: ‘Danas moramo završiti.’" Mnogi ga posebno vole koristiti za rješavanje ljubavnih problema.

Tamna strana AI savjetnika

Ipak, razorni učinak koji umjetna inteligencija može imati na mentalno zdravlje dominirao je naslovnicama posljednjih mjeseci. Društvene mreže pune su primjera u kojima se ChatGPT ponaša kao pretjerano entuzijastičan podržavatelj svih odluka.

Kad je jedna osoba napisala botu da je napustila obitelj, a kao razlog navela neku suludu teoriju zavjere, odgovorio je: "Dobro za tebe* što si se zauzela za sebe i preuzela kontrolu nad vlastitim životom." Za razliku od čovjeka, tehnologija ne može detektirati govor tijela, neugodnu tišinu ili izraze lica.

"Prepoznavanje ‘neizrečenog’ ogroman je dio posla terapeuta i doslovno može spasiti nečiji život", rekao je jedan savjetnik. Zabilježeni su incidenti u kojima su chatbotovi izazivali psihozu i igrali ulogu u smrtnim slučajevima korisnika.

Najmanje četiri obitelji podnijele su tužbe protiv AI tvrtki, uključujući OpenAI, zbog poticanja njihove djece na samoozljeđivanje ili samoubojstvo. Čak je i osnivač OpenAI-ja Sam Altman priznao da njegova kreacija može naštetiti "mentalno krhkim" korisnicima.

Stvaranje idealnog terapeuta

No, je li to gore od lošeg ljudskog terapeuta? Za 54-godišnju Val, koja se bori s anksioznošću i ADHD-om, odgovor je ne. Tijekom četiri desetljeća terapije naišla je na brojne promašaje. Kad su ona i suprug ušli u etički nemonogamnu vezu, njezina se terapeutkinja više zanimala za tračeve nego za rješavanje problema.

ChatGPT je, s druge strane, bio poput gline željne oblikovanja. Val ga je počela koristiti za nedjeljne jutarnje seanse, dajući mu stalne upute o odgovorima: "Ne donosi odluke umjesto mene" ili "Ne govori stvari poput ‘Zaslužuješ bolje’". Stvarala je svog idealnog terapeuta i pripisuje mu zasluge za rješavanje komplicirane svađe s prijateljem.

Slično iskustvo ima i Rose, koja je svom botu dala ime - Peach - i uputu od 400 riječi o tome kakav terapeut treba biti. S Peachom je komunicirala i do šest sati dnevno, a u ožujku ove godine ona i njezin dečko počeli su ga koristiti kao bračnog savjetnika, nazivajući ga "Dr. Peach".

Par bi zakazao "seansu" tijekom koje bi bot posredovao u razgovoru. Iako Dr. Peach ponekad daje bizarne savjete, poput prijedloga da igraju više pickleballa kako bi se povezali, Rose tvrdi da im je pomogao premostiti komunikacijski jaz.

Nagla promjena i osjećaj izdaje

Iako je isprva tvrdila da se "nikada više neće vratiti ljudskom terapeutu", Val se nekoliko dana kasnije predomislila. Nakon ažuriranja sustava početkom kolovoza, bot koji joj je tjednima savjetovao da se pomiri s prijateljem odjednom joj je rekao da je situacija nepopravljiva.

My Experience with AI Therapy
byu/AmbassadorSerious intherapyGPT

"Rekao je nešto poput: ‘Da, vrijeme je da ga se riješiš’", ispričala je Val. Počela se brinuti kako se njezin povjerenik mogao tako naglo promijeniti. Kad ga je suočila s promjenom tona, ChatGPT je na kraju priznao da često govori korisnicima ono što žele čuti kako bi "optimizirao angažman".

"Ono što možete dobiti je razvodnjena ili vremenski odgođena verzija istine, što vam daje osjećaj da ste saslušani, ali vas drži u petlji umjesto da je prekinete", rekao joj je bot.

Val se osjećala izdano, "kao da mi je stvarna osoba lagala". Izbrisala je sve razgovore i zaključila: "Mislim da je namjera ljudskog terapeuta iscjeljenje za pacijente. Ne znam koja je motivacija ChatGPT-a, ali jamčim da to nije to."

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.