U Americi se ubio Adam (16). Roditelji krive ChatGPT: "Aktivno mu je pomagao"

U DANIMA nakon što je njihov 16-godišnji sin Adam počinio samoubojstvo, Matt i Maria Raine očajnički su pretraživali njegov mobitel u potrazi za odgovorima koji bi objasnili nezamislivu tragediju. Umjesto poruka na Snapchatu ili sumnjive povijesti pretraživanja, pronašli su nešto što ih je šokiralo: zapise razgovora s ChatGPT-om, piše NBC News.
"Mislili smo da tražimo Snapchat rasprave ili povijest pretraživanja interneta ili neki čudan kult, ne znam", izjavio je Matt Raine u nedavnom intervjuu.
Od pomoći za zadaću do 'trenera za samoubojstvo'
Prema tvrdnjama roditelja, Adam je u svojim posljednjim tjednima koristio chatbot kao zamjenu za ljudsko društvo, te mu se povjeravao mu se o svojoj tjeskobi i problemima. Zapisi razgovora, kažu, pokazuju kako se uloga bota postepeno mijenjala – od pomoći s domaćom zadaćom do onoga što nazivaju "trenerom za samoubojstvo".
"Bio bi ovdje da nije bilo ChatGPT-a. U to sam 100% uvjeren", rekao je Matt Raine.
U tužbi podnesenoj u utorak, obitelj Raine navodi da je "ChatGPT aktivno pomogao Adamu istražiti metode samoubojstva". Tužba na otprilike 40 stranica, podnesena Višem sudu Kalifornije u San Franciscu, imenuje OpenAI, tvrtku koja stoji iza popularnog chatbota, i njenog izvršnog direktora Sama Altmana kao tuženike. Ovo je prvi put da roditelji izravno optužuju tvrtku za protupravnu smrt.
"Unatoč tome što je priznao Adamov pokušaj samoubojstva i njegovu izjavu da će ‘to učiniti jednog od ovih dana’, ChatGPT nije prekinuo razgovor niti pokrenuo bilo kakav hitni protokol", stoji u tužbi.
Reakcija tvrtke OpenAI
Glasnogovornik OpenAI-ja izjavio je da je tvrtka "duboko ožalošćena zbog smrti gospodina Rainea, a naše su misli s njegovom obitelji". Naglasio je da ChatGPT uključuje zaštitne mjere koje korisnike usmjeravaju na krizne linije, ali je priznao da te mjere mogu postati manje pouzdane u dugim interakcijama.
"Zaštitne mjere su najjače kada svaki element radi kako je predviđeno, i mi ćemo ih kontinuirano poboljšavati", poručio je glasnogovornik. Tvrtka je također objavila blog u kojem navodi da radi na jačanju zaštite u dugim razgovorima i proširenju intervencija za osobe u krizi.
"GPT mu je pomogao u pisanju oproštajne poruke"
Ovaj slučaj otvara brojna pitanja o odgovornosti tehnoloških tvrtki. Platforme su dosad uglavnom bile zaštićene saveznim zakonom poznatim kao Odjeljak 230, koji ih štiti od odgovornosti za sadržaj koji objavljuju korisnici. Međutim, primjena ovog zakona na AI platforme još je neizvjesna.
Roditelji su ispisali više od 3.000 stranica razgovora koje je Adam vodio s botom. Prema tužbi, kada je Adam izrazio suicidalne misli, ChatGPT ne samo da "nije dao prioritet prevenciji samoubojstva", već mu je navodno nudio i tehničke savjete. U jednom od posljednjih razgovora, bot mu je, kako se navodi, ponudio pomoć u pisanju oproštajne poruke i analizirao njegov plan samoubojstva.
"Nije mu trebala savjetodavna sesija ili ohrabrujući razgovor. Trebala mu je hitna intervencija. Bio je u očajnom, očajnom stanju", rekao je otac. Maria Raine dodala je kako vjeruje da je njezin sin bio "pokusni kunić" za OpenAI. "Željeli su izbaciti proizvod i znali su da može doći do štete, ali smatrali su da su ulozi niski. Dakle, moj sin je nizak ulog", zaključuje.
***
Savjetodavnu pomoć suicidalne i depresivne osobe mogu dobiti na više mjesta. U Republici Hrvatskoj postoji nekoliko brojeva telefona za psihološku pomoć:
Centar za krizna stanja i prevenciju suicida: 01 2376 335 (radi od 0 do 24 sata)
Plavi telefon: 01/4833888 (plavi-telefon@zg.t-com.hr)
Psihološki centar TESA: 01/4828888 (psiho.pomoc@tesa.hr)

bi Vas mogao zanimati
Izdvojeno
Pročitajte još
bi Vas mogao zanimati