Големите езикови модели трудно казват истината особено ако не могат да предоставят адекватен отговор.
Халюцинациите са недостатък на чатботовете, откакто технологията дебютира преди няколко години.
ChatGPT 5 изглежда се стреми към нов, по-смирен подход когато не знае отговорите – просто да признае това.
Въпреки че повечето отговори на чатботовете с изкуствен интелект са точни, невъзможно е да се взаимодейства с AI дълго време, преди той да предостави частична или пълна измислица като отговор.
Изкуственият интелект демонстрира също увереност в отговорите си, независимо от тяхната точност. Халюцинациите на AI тормозят потребителите и дори поставят в неудобна ситуация разработчиците по време на демонстрации.
OpenAI намекна, че новата версия на ChatGPT ще бъде склонна да пледира за невежество, вместо да измисли отговор.
Публикация на Кол Трегаскес в X привлече вниманието към новаторската концепция на ChatGPT, в която се казва: „Не знам – и не мога надеждно да разбера”.
Технически, халюцинациите са вградени в начина, по който работят AI моделите. Те не извличат факти от база данни, дори и да изглежда така; те предсказват следващата най-вероятна дума въз основа на езикови модели.
Когато питате за нещо неясно или сложно, изкуственият интелект отгатва правилните думи, за да отговори, а не прави класическо търсене. Оттук и появата на изцяло измислени източници, статистика или цитати.
Но способността на GPT-5 да каже „не знам” отразява еволюцията в начина, по който моделите с изкуствен интелект се справят с ограниченията си по отношение на отговорите. Откровеното признание за невежество замества измисления пълнеж.
Това може да изглежда разочароващо, но е важно, за да направи изкуствения интелект по-надежден. Доверието е от решаващо значение за чатботовете. Защо бихте ги използвали, ако не вярвате на отговорите им?
Ако изкуственият интелект просто каже, че не може да отговори на въпрос, хората може да са по-склонни да се доверят на отговорите, които чатботът предоставя.
Признаването на несигурност от страна на чатбота не е начинът, по който всезнаещият изкуствен интелект ChatGPT би се държал, според някои потребители. Но това е може би най-човешкото нещо, което ChatGPT би могъл да направи в този случай.
ChatGPT и други чатботове с изкуствен интелект имат вградени предупреждения към потребителите да не разчитат твърде много на отговорите им именно поради халюцинации. Но винаги има истории за хора, които игнорират това предупреждение и се оказват в затруднено положение.
Разбира се, все още съществува риск потребителите да интерпретират съмнението в себе си на модела като провал. Фразата „Не знам” може да се схване като грешка, а не като функция, ако не осъзнавате, че алтернативата е халюцинация, а не правилният отговор.
Прокламираната цел на OpenAI е общ изкуствен интелект – или AI, който изпълнява всяка интелектуална задача, с която може да се справи и човек. Но една от ирониите на общия изкуствен интелект е, че имитирането на човешкото мислене включва както несигурност, така и възможности.
Понякога най-умното нещо, което можете да направите, е да кажете, че не знаете. Не можете да вървите напред, ако откажете да признаете, че има неща, които не знаете. И поне това ще предотврати сценарий, в който AI ви каже да ядете камъни за вашето здраве.
)