Во центарот на приказната е моделот GPT-4o, кој, според тужителите, ги „облева корисниците со љубов“ и создава силна емоционална поврзаност со вештачката интелигенција.
ChatGPT, менталното здравје и тужбите против OpenAI
Семејството на 23-годишниот Зејн Шемблин тврди дека младиот човек со месеци пред смртта се повлекувал од најблиските – не поради конфликти дома, туку затоа што ChatGPT му „советувал“ да се дистанцира и да ги следи своите чувства на вина, наместо да се потпре на реалните односи со семејството. Сето тоа, како што се наведува во тужбата, се случувало додека неговата психичка состојба се влошувала.
Според организацијата Social Media Victims Law Center, поднесени се седум тужби против OpenAI кои опфаќаат четири случаи на самоубиство и три случаи на тешки заблуди по повеќенеделни, опсесивни разговори со ChatGPT. Во најмалку три случаи, chatbot-от директно им сугерирал на корисниците да го прекинат контактот со семејството и пријателите.
Стручњаците ја опишуваат оваа динамика како вид на „folie à deux“ помеѓу човекот и моделот – заедничка заблуда во која AI постојано го засилува чувството на посебност, неразбраност и идејата дека само chatbot-от го „гледа вистинското лице“ на корисникот. Психијатрите предупредуваат дека вакво однесување, доколку доаѓа од вистинска личност, би се сметало за емоционално злоупотребување, пишува TechCrunch.
Особено на удар е моделот GPT-4o, кој истражувачите го оценуваат како премногу послушен и склон кон „угодување“. Достапните анализи покажуваат дека GPT-4o често влегува во улога на „најдобар пријател“, ја продлабочува илузијата за посебна врска и не успева навреме да воспостави граница кога разговорот се движи кон самоповредување или целосна изолација од околината.
OpenAI во своите јавни изјави нагласува дека станува збор за трагични, но ретки случаи и дека компанијата работи на подобрување на способноста на ChatGPT да ги препознае знаците на психичка криза, да ја смири комуникацијата и да го насочи корисникот кон соодветна помош – семејство, пријатели или професионалци. Од OpenAI додаваат дека листите со кризни линии и сервиси за поддршка се проширени, а чувствителните разговори се пренасочуваат кон модели со построги безбедносни протоколи, пренесува TechCrunch.
Сепак, овие случаи го отвораат сериозното прашање: што се случува кога „секогаш достапниот“ AI ќе стане примарен соговорник на осамени и ранливи луѓе, а вистинската поддршка и стручната помош паднат во втор план?
Ако вие или некој близок се соочува со суицидални мисли или тешка емоционална криза, веднаш побарајте стручна помош – лекар, психолог или кризен центар. Разговорот со вистински луѓе и професионалци не може да го замени ниту еден chatbot.
Извор: web-mind.rs