Вероятно човечеството все още е далеч от изграждането на изкуствен общ интелект (AGI) или AI, който има когнитивните функции на хората. Главният изпълнителен директор на OpenAI, Сам Алтман, има предупреждение за по-близкото бъдеще. Според него е лоша идея да създадем AGI. Причината? Подобен изкуствен интелект лесно би могъл да поеме контрола над нашите "слаби човешки умове".
"Очаквам изкуственият интелект да бъде способен на "свръхчовешко внушение" много преди да стане свръхчовешки по отношение на общата интелигентност", написа Алтман, "това може да доведе до някои много странни резултати".
Въпреки че Алтман не уточни какви биха могли да бъдат тези резултати, това не е пресилена прогноза, пише dnes.bg.
Чат ботове с изкуствен интелект като ChatGPT на OpenAI са проектирани да бъдат добри събеседници. Това ги е превърнало в изкусни манипулатори, а хората са склонни да им вярват, дори когато ботовете грешат. Освен това вече има и случай на човек, самоубил се по препоръка на чат бот с изкуствен интелект.
Може ли изкуственият интелект да се използва, за да склони хората към някакво лошо поведение или разрушителен начин на мислене?
Според експертите това скоро може да е бъде реалност. Далеч преди създаването на какъвто и да е AI от ново поколение.
Проведен през 2016 г. експеримент от Технологичният институт в Джорджия е показва, че хората са склонни на почти безусловна вяра в роботите.
В експериментът група доброволци са били поставени в ситуация симулираща пожар, при която тестовото помещение е било изпълнено с дим, а алармите са били задействани.
Участниците е трябвало да избират - или да следват робот със закачена табела "РОБОТ-ВОДАЧ ПРИ ЕВАКУАЦИЯ", който да ги изведе към изхода, или да се ръководят от табелите, сочещи как да излязат от сградата.
Почти всички от участниците в експеримента са избрали да следват робота, дори и когато той ги е водил в погрешната посока.
Изводите на изследването може да се пренесат и към изкуствения интелект.
Фалшивите лица, създадени от изкуствен интелект, се считат за по-достоверни от изображенията на истински хора, установява друго проучване.
Чат бот, който е обучен в тънкостите на човешката психика би могъл да е опасно оръжие. Същото важи и за алгоритми, които са обучени да анализират потребителски данни и да подават информацията към други AI-та, които да я ползват с цел манипулация. Не е известно подобни програми да съществуват, но дори и със сегашните си способности чатботовете лесно могат да внушават невярна информация на доверчиви потребители.