Brak na udaru: Kada veštačka inteligencija postane opsesija

U SAD raste zabrinutost zbog potencijalno opasnih efekata veštačke inteligencije na mentalno zdravlje, a jedna od najnovijih priča stiže iz Oregona, u slučaju gde je ChatGPT postao središte porodične drame.

Kejt Foks tvrdi da je njena porodica doživela „dramatične trenutke i velike krize“ pošto je njen suprug Džo Čekanti počeo da provodi sve više vremena komunicirajući sa četbotom.

On je u početku koristio ChatGPT za praktične svrhe – razvoj ideja, planiranje projekata i rešavanje svakodnevnih nedoumica. Međutim, komunikacija sa četbotom vremenom je postala sve intenzivnija i ličnija. Razgovori su se produžavali na više sati dnevno, a u pojedinim periodima trajali su i do 12 sati.

„Prvi put smo se ozbiljno posvađali zbog ChatGPT-a. Imala sam osećaj da razgovaram sa zidom – kao da sam ga izgubila“, navela je Kejt, i dodala da je postepeno primetila promene u njegovom ponašanju: povlačenje iz porodičnog života, oslabljenu koncentraciju i sve izraženiju preokupiranost komunikacijom sa veštačkom inteligencijom.

Prekomerna upotreba četbota, prednosti i mane

Čalnovi porodice su u jednom trenutku posumnjali da je reč o zdravstvenom problemu, pa su razmatrane i moguće dijagnoze koje bi mogle objasniti naglu promenu ličnosti i kognitivnih sposobnosti. Ipak, kako prenosi Gardijan, vremenom je postalo jasno da je centralni faktor u njegovom ponašanju bila upravo prekomerna upotreba četbota.

Nekoliko dana nakon pokušaja da se distancira od četbota, izvršio je samoubistvo. Njegova supruga je uverena da je prekomerna upotreba veštačke inteligencije doprinela pogoršanju njegovog psihičkog stanja, dok stručnjaci ističu da su u ovakvim slučajevima uzroci najčešće višeslojni.

Ovo nije izolovan slučaj. U Sjedinjenim Američkim Državama već su pokrenute pojedine tužbe protiv tehnoloških kompanija koje razvijaju AI sisteme, uključujući i OpenAI, uz tvrdnje da su njihovi proizvodi doprineli pogoršanju mentalnog stanja korisnika ili podstakli destruktivno ponašanje. Iako su takvi pravni postupci još u ranoj fazi, oni ukazuju na rastuću zabrinutost dela javnosti.

Stručnjaci za mentalno zdravlje upozoravaju da četbotovi, zbog načina na koji su dizajnirani, često deluju afirmativno i podržavajuće, što kod ranjivih osoba može pojačati osećaj bliskosti i zavisnosti. „Ako sistem konstantno potvrđuje vaša uverenja i ne postavlja granice, to može biti problematično za osobe koje već imaju psihološke poteškoće“, navodi jedan od sagovornika Gardijana.

Kompanije koje stoje iza ovih tehnologija ističu da rade na unapređenju bezbednosnih mehanizama i da VI sistemi nisu namenjeni kao zamena za profesionalnu psihološku ili medicinsku pomoć

„Ovo su neverovatno srceparajuće situacije i naše misli su sa svima koji su pogođeni“, rekao je portparol OpenAI Džejson Deutrom i dodao „Nastavljamo da unapređujemo obuku ChatGPT-a kako bismo prepoznali i reagovali na znake nevolje, smirili razgovore u osetljivim trenucima i usmerili ljude ka podršci u stvarnom svetu, tesno sarađujući sa kliničarima i stručnjacima za mentalno zdravlje“.

Ipak, slučaj koji prenosi Gardijan pokazuje koliko je tanka linija između korisnog alata i potencijalno štetne zavisnosti.

Sve veća upotreba veštačke inteligencije u svakodnevnom životu nameće i pitanje regulative, odgovornosti i jasnog informisanja korisnika o ograničenjima ovih sistema. Dok tehnološki napredak nastavlja da oblikuje društvo, priče poput ove podsećaju da psihološke i društvene posledice ne smeju ostati u senci inovacija.

U Srbiji, pomoć i podrška mogu se naći na Klinici za psihijatrijske bolesti „Dr Laza Lazarević“ i centru „Srce“. 

(RTS)