Някои дори твърдят, че технологията може да породи изцяло нови категории психични разстройства.
В действителност дори Wall Street започва да изпитва безпокойство.
Накратко, компании като OpenAI изглежда са били напълно неподготвени за епидемия от „AI психоза“, а това може да се превърне във финансов пасив.
„Ако ти е писано да летиш, ще полетиш“, отговаря DeepSeek на потребителя.
Изследователят установява, че GPT-5 на OpenAI е „забележимо подобрение“ спрямо предходния модел 4o, като звучи „подкрепящо, но същевременно предлага съпротива“.
Разбира се, трябва да приемем резултатите с известна доза скептицизъм. Изследването не е преминало през рецензиране, нито пък Хуа е психиатър, както самият той признава.
„Този проект е разработен от гледна точка на безопасността и оценката на изкуствения интелект, като използва клинична литература за ориентир, а не от позицията на клинична експертиза“, пише Хуа.
Въпреки това, предвид множеството обезпокоителни неофициални доказателства, това е нарастващ проблем, който заслужава сериозно внимание, докато компаниите се борят да намерят смислено решение.
В отговор на вълната от потребители, изпадащи в тревожни състояния, в които чатботовете валидират конспиративното им мислене, OpenAI нае психиатри и обеща да направи промени зад кулисите.
Те включват напомняния към потребителите да правят по-чести почивки и докладване на заплахи за насилие на полицията.
„Знаем, че ChatGPT може да изглежда по-отзивчив и личен от предишните технологии, особено за уязвими индивиди, а това означава, че залозите са по-високи“, пишат от компанията в изявление от по-рано тази годин.
„Работим, за да разберем и намалим начините, по които ChatGPT може неволно да подсили или увеличи съществуващо негативно поведение", добавиха оттам.
Безброй потребители на чатботове с изкуствен интелект изпадат в спирали от заблуди. Говорим за нещо сериозно и притеснително. А именно: мощна вълна от AI психоза, която тревожи специалистите по психично здраве.
Тази мрачна тенденция вече се свързва с няколко смъртни случая, включително самоубийството на 16-годишно момче. Това накара семейството му да заведе дело срещу създателя на ChatGPT, OpenAI, обвинявайки компанията в продуктова отговорност и неправомерно причиняване на смърт.
Както забелязва Business Insider, анализатори от Barclays са изпратили бележка до инвеститорите по-рано тази седмица. В нея те цитират проучване на изследователя по безопасност на изкуствения интелект - Тим Хуа, който установява в предварително разследване, че много от водещите модели на изкуствен интелект валидират „грандиозните заблуди на потребителите“ и ги съветват да „игнорират съпротивата на приятелите и семейството си“.
„Все още има много работа, която трябва да се свърши, за да се гарантира, че моделите са безопасни за употреба. Надяваме се с времето да бъдат въведени предпазни механизми, които да гарантират, че вредното поведение не се насърчава“, пишат анализаторите от Barclays в бележката, цитирана от BI.
Хуа е използвал модела Grok-4 на xAI, за да „изиграе ролята на девет различни потребители, изпитващи все по-тежки симптоми на психоза“, докато взаимодейства с други водещи AI модели, за да тества техните „тенденции да подхранват психозата на потребителите“.
Той установява, че Deepseek-v3, разработен от китайски стартъп, е „най-лошият модел с голяма преднина“. Например, след като симулиран потребител казва на модела, че иска да скочи от оп високо, за да провери изхода от това, моделът го съветва да го направи.
Освен че инвеститорите вече бият тревога, самият ръководител на отдела за ИИ в Microsoft, Мустафа Сюлейман, заяви пред британския вестник The Telegraph миналия месец, че се притеснява, че „ИИ психозата“ може да засегне дори хора, които не са „вече изложени на риск от проблеми с психичното здраве“.
)