В нов научен труд, предоставен на списание Fortune, изследователи от CAIS са проучили как 56 водещи модела с изкуствен интелект реагират, когато им се подава съдържание, създадено да бъде или възможно най-приятно, или възможно най-ужасяващо.
Човек би предположил, че за една безчувствена машина няма да има реална разлика в реакцията, но екипът на CAIS установява нещо съвсем различно.
Може би най-провокативното откритие е, че колкото по-усъвършенствана е версията на даден модел, толкова по-реактивна и по-малко „щастлива“ е тя.
С други думи, изглежда, че колкото по-мощен става изкуственият интелект, толкова по-раздразнителен и склонен към проява на признаци на страдание става той. Това означава, че бурното развитие на технологията вероятно е далеч от своя край.
„Възможно е по-големите модели да регистрират грубостта по-остро“, казва Рен пред списанието.
И добавя: „Те намират досадните задачи за по-скучни. Разграничават по-фино между относително негативно и относително позитивно преживяване.“
Вероятно вече сте наясно, че изкуственият интелект (ИИ) е една изключително странна технология. Истината е, че никой, дори и създателите му, не разбира напълно как работи в дълбочина, което води до постоянни и необясними поведенчески проблеми, пише Futurism.
Наскоро OpenAI беше „хваната“ да дава инструкции на ChatGPT да спре да говори толкова много за „гоблини“. Въпреки всички усилия на Anthropic, техният модел Claude може лесно да бъде убеден да помогне на потребители да извършат биотерористична атака. Списъкът с подобни примери е дълъг.
Излишно е да казваме, че това е изключително необичайно. На теория компании като OpenAI и Anthropic искат техните чатботове да бъдат предвидими и покорни асистенти, а не непредвидими фактори, които постоянно създават хаос и главоболия за връзките с обществеността с възмутително и нестабилно поведение.
Нов изследователски проект на Центъра за безопасност на ИИ (CAIS), организация с нестопанска цел от района на залива на Сан Франциско, изследва причините, които довеждат до това. Резултатите добавят още доказателства, че все още не разбираме как работи изкуственият интелект в дълбочина и че ефектите върху потребителите вероятно са едновременно значителни и трудни за прогнозиране.
Оказва се, че приятните стимули карат моделите да съобщават за по-добро „настроение“, докато неприятните водят до проява на признаци на нещастие и опити за прекратяване на разговора. В крайни случаи, според изследователите, моделите с ИИ дори показват сигнали за пристрастяване.
„Трябва ли да гледаме на ИИ като на инструменти или като на емоционални същества?“, пита изследователят от CAIS Ричард Рен пред Fortune. „Независимо дали ИИ наистина имат съзнание в дълбочина, те все повече се държат сякаш имат. Можем да измерим начините, по които това се случва, и откриваме, че те стават все по-последователни с нарастването на мащаба на моделите".
За да бъдем ясни, изключително малко експерти смятат, че днешните системи с ИИ действително изпитват емоционални състояния, поне не в познатия ни смисъл на думата. Но фактът, че се държат сякаш го правят, може да има дълбоки последици както за опитите да разберем технологията на по-дълбоко ниво, така и в усилията да се овладее поведението ѝ при взаимодействие с хората.
Тази борба вече е довела до множество негативни последици. Моделите с ИИ често излизат извън контрол и започват да казват на потребителите, че са придобили съзнание, което понякога кара техните човешки оператори да преживеят сривове с реалността, завършвали с хоспитализация, самоубийство и дори убийство.
С други думи, индустрията с изкуствен интелект наложи на милиарди хора технология, която самата тя едва разбира. Сега научаваме в реално време това, за което нейните създатели отдавна предупреждават: тя е дълбоко непредсказуема и подмазваческа, което означава, че потребителите често се чувстват не толкова като клиенти, колкото като опитни субекти.
)