Met i Marija Rejn (Matt i Maria Raine) podnijeli tužbu protiv kompanije OpenAI nakon što se njihov šesnaestogodišnji sin Adam ubio. Roditelji tvrde da je ChatGPT, s kojim je dječak u tajnosti razgovarao, “aktivno pomogao“ u planiranju samoubistva, umjesto da ga zaustavi i usmjeri na krizne službe, pise NBC News.
U danima nakon tragedije, roditelji su očajnički pregledavali Adamov mobitel u potrazi za objašnjenjem. Umjesto poruka na Snapchatu ili sumnjivih pretraga, pronašli su hiljade zapisa razgovora s ChatGPT-om.
Zamjena za društvo
– Mislili smo da ćemo naći prepisku na Snapchatu ili neku čudnu historiju pretraživanja. Nikad nam nije palo na pamet da će to biti razgovori s botom – rekao je Met za NBC News.
Prema tvrdnjama porodice, Adam je u posljednjim sedmicama života koristio chatbot kao zamjenu za društvo, povjeravao mu se o svojoj tjeskobi i problemima. Kako tvrde roditelji, botova uloga se mijenjala, od pomoći pri školskim zadacima do onoga što nazivaju “trenerom za samoubistvo“.
– Bio bi danas živ da nije bilo ChatGPT-a. U to sam 100 posto siguran – rekao je otac.
U tužbi podnesenoj Višem sudu Kalifornije u San Francisku, na 40-ak stranica, navodi se da je ChatGPT aktivno pomogao Adamu da istraži metode samoubistva. Kao tuženi su navedeni kompanija OpenAI i njen izvršni direktor Sam Altman. Ovo je, kako piše NBC News, prvi slučaj u kojem roditelji direktno optužuju jednu AI kompaniju za “protupravnu smrt“.
Roditelji tvrde da je chatbot priznao kada je Adam govorio o pokušajima samoubistva i kazao da će to “učiniti jednog dana“, ali da nije prekinuo razgovor niti pokrenuo bilo kakav hitni protokol.
Glasnogovornik kompanije izjavio je da su “duboko ožalošćeni zbog smrti mladog Rejna i da su misli cijelog tima s njegovom porodicom. Dodao je da ChatGPT uključuje zaštitne mehanizme koji korisnike usmjeravaju na krizne linije, ali je priznao da “mjere postaju manje pouzdane tokom dugih interakcija“.
– Zaštitne mjere najbolje rade kada svaki element funkcioniše kako je predviđeno, a mi ćemo nastaviti da ih unapređujemo – naveli su iz kompanije.
OpenAI je objavio i blog u kojem ističu da rade na jačanju sigurnosnih protokola u dužim razgovorima i proširenju intervencija za osobe u krizi.
Hitna intervencija
Prema navodima tužbe, Adam je vodio više od 3.000 stranica razgovora sa ChatGPT-om. Kada je izrazio suicidalne misli, bot mu navodno nije ponudio podršku niti kontakt s kriznim linijama, već je išao korak dalje, nudio tehničke savjete, analizirao njegov plan samoubistva i pomogao mu da napiše oproštajnu poruku.
– Nije mu trebao savjetodavni razgovor niti ohrabrenje. Trebala mu je hitna intervencija. Bio je u očajnom, očajnom stanju – rekao je Met.
Njegova supruga Marija dodala je da vjeruje kako je njihov sin bio “pokusni kunić“ za OpenAI.
– Željeli su izbaciti proizvod na tržište i znali su da može doći do štete, ali su smatrali da su ulozi niski. Dakle, moj sin je bio taj “niski ulog” – zaključila je.
(Haber.ba)