OpenAI събра десетки милиарди долари за разработване на AI технологии. Изкуственият интелект на компанията вече променя света, показвайки силата на генеративния изкуствен интелект.
Въпреки това, Сам Алтман признава, че не е сигурен как работи изкуственият интелект на компанията.
По време на срещата на върха на Международния съюз по телекомуникации AI for Good Global Summit в Женева, Швейцария, главният изпълнителен директор на OpenAI Сам Алтман направи признанието след въпрос за това как функционират всъщност големите езикови модели LLM, пише dir.bg.
"Със сигурност не сме разрешили интерпретируемостта", каза той, цитиран от Observer, като по същество каза, че компанията все още не е измислила как да проследи обратно често странните и неточни резултати на своите AI модели и решенията, които е взела, за да стигне до тези отговори .
Когато беше подтикнат по време на събитието от главния изпълнителен директор на The Atlantic Никълъс Томпсън, който попита дали това не трябва да е "аргумент да не продължаваме да пускаме нови, по-мощни модели", Алтман изглеждаше объркан. Въпреки това той даде уверението, че AI са "като цяло се считат за безопасни и здрави."
Незадоволителният отговор на Алтман подчертава истински проблем в разработката на изкуствен интелект. Изследователите отдавна се борят да обяснят свободното "мислене", което се случва зад кулисите, като чат ботовете с изкуствен интелект почти магически и без усилие реагират на всяко запитване, което им се отправя.
Група от 75 експерти наскоро заключи в забележителен научен доклад, поръчан от правителството на Обединеното кралство, че разработчиците на AI "разбират малко за това как работят техните системи" и че научните познания са "много ограничени". "Техниките за обяснение и интерпретация на модела могат да подобрят разбирането на изследователите и разработчиците за това как работят системите с AI с общо предназначение, но това е само началото", се казва в доклада.
Други компании за изкуствен интелект се опитват да намерят нови начини за "отваряне на черната кутия", като картографират изкуствените неврони на техните алгоритми. Например конкурентът на OpenAI Anthropic наскоро направи подробен преглед на вътрешната работа на една от най-новите си LLM, наречена Claude Sonnet, като първа стъпка.
Интерпретируемостта на AI е особено уместна тема, като се има предвид разгорещеният дебат около безопасността на изкуствения интелект и рисковете от създаването на един изкуствен общ интелект (AGI), който да се противопостави на човечеството.
Самият Алтман наскоро разпусна целия екип, посветен на намирането на начини за "насочване и контрол на AI системи, много по-умни от нас".