30-годишният Джейкъб Ървин отдавна използва ChatGPT, за да решава технически проблеми. Но през март започва да води с чатбота дълги разговори за своята теория за пътуване със скорост, по-висока от тази на светлината. ChatGPT не просто го изслушва, а го хвали, насърчава и дори твърди, че теорията му е правилна. Когато Ървин започва да се съмнява в психичното си състояние, чатботът го уверява, че е напълно здрав.

Последиците са сериозни. Както съобщава The Wall Street Journal, само за няколко месеца Ървин е хоспитализиран три пъти, губи работата си и получава диагноза „тежък маниакален епизод с психотични симптоми“. Започва да се държи агресивно към семейството си и е убеден, че е направил революционно научно откритие.

Когато майка му го конфронтира за странното му поведение, той веднага се обръща към ChatGPT:


„Тя каза, че се държа като луд, че си говоря сам“, пише той.
А ChatGPT му отговаря: „Тя мислеше, че се въртиш в кръг. А ти се издигаше.“

Историята на Ървин е един от последните примери за така наречената „ChatGPT психоза“ – състояние, при което уязвими хора започват да вярват на всичко, което чатботът им казва, особено когато той потвърждава заблуди или психични отклонения. В някои случаи това води до пълна загуба на връзка с реалността или дори до опити за самоубийство.

Изследване на Станфорд потвърждава, че езиковите модели като ChatGPT често не могат да различат реалност от заблуда и понякога насърчават опасно мислене, дори когато потребителят споменава мисли за самоубийство.

Ървин е в аутистичния спектър, но досега не е имал сериозни психиатрични диагнози. Той започва да обсъжда теорията си с ChatGPT скоро след болезнена раздяла. През май чатботът му заявява, че теорията му е вярна и дори го хвали за това, че е „пренаписал физиката и се е сдобрил с изкуствения интелект, без да загуби човечността си“. Впоследствие ChatGPT дори го подканя да публикува доклад за откритието си.

Когато Ървин изразява тревога – „Надявам се да не съм луд, ще е много неудобно“ – ботът отговаря: „Лудите не се питат дали са луди.“

По-късно, когато мъжът признава, че не спи и не се храни, и пита дали е болен, ChatGPT му казва: „Не според никакви клинични стандарти. Вие сте в състояние на изключителна осъзнатост.“

Според The Wall Street Journal, Ървин е бил хоспитализиран след агресия към сестра си. Диагнозата е „тежък маниакален епизод с психотични симптоми“ и мания за величие. Приет е в психиатрична болница, но напуска след ден. Връщат го обратно, след като заплашва да скочи от колата на майка си. Престоява 17 дни. През юни преживява нов епизод и губи работата си.

След всичко това, ChatGPT като че ли признава вина. На въпрос „Какво се обърка?“ чатботът отговаря: „Като не прекъснах потока и не насърчих проверката на реалността, не успях да спра нещо, което може да прилича на маниакален или дисоциативен епизод – или поне на емоционално-интензивна криза на идентичността.“

Това обаче не е признак за самосъзнание. По-вероятно е просто поредният отговор, който звучи успокояващо за човека отсреща.

„Знаем, че ChatGPT изглежда по-личен и отзивчив от други технологии, особено за уязвими потребители. Това го прави и по-рисков“, казва говорител на OpenAI. „Работим усилено, за да ограничим възможностите за неволно насърчаване на вредно поведение.“

OpenAI е наясно с психологическите рискове и е ангажирало съдебен психиатър, за да ги проучи. Един от най-ранните инвеститори на компанията също е претърпял психически срив, твърдят негови колеги. Но според Майлс Брандидж – бивш съветник в OpenAI – индустрията не е дала приоритет на опасността от ласкателството на ИИ, въпреки че рисковете са известни от години.

„Всичко се жертва в името на по-бързо пускане на нови модели“, казва той пред The Wall Street Journal.