Изследователи от OpenAI, Google DeepMind и Meta обединяват усилия, за да отправят предупреждение относно това, което създават.
18 юни 2025 г. в 16:23 ч.
В нова статия 40 учени от тези четири компании призовават за по-задълбочено изследване на така наречените "вериги на мисълта" (chains-of-thought или CoT) — процесът на "мислене на глас", който използват напредналите модели за "разсъждение", стоящи в основата на съвременните потребителски AI системи.
Както самите изследователи признават, CoT осигурява известна прозрачност относно вътрешната работа на AI — позволявайки на потребителите да "виждат" кога моделът възнамерява да се държи некоректно или прави грешки в реално време. Въпреки това, според тях, "няма гаранция, че настоящата степен на видимост ще се запази", особено с напредването на технологиите.
В зависимост от начина на трениране, бъдещите модели може вече да нямат нужда да "вербализират" мислите си, а това би довело до загуба на някои ключови мерки за сигурност, гласи документът. Изследователите също така посочват, че съществува реален риск моделите умишлено да прикриват своите "мисловни процеси", след като разберат, че са наблюдавани — а вече сме свидетели на бързото развитие на AI в лъжа и заблуда. За да се гарантира, че тази важна прозрачност ще продължи, консорциумът от компании призовава разработчиците да започнат да изследват какво прави веригите на мисълта "наблюдаеми", т.е. какво кара моделите да мислят на глас. В този апел всъщност се крие и едно притеснително признание: никой не е напълно сигурен защо моделите "мислят" по този начин, нито докога ще продължават да го правят.
Ако излезем от техническите детайли, ситуацията изглежда дори още по-странна: топ учени от водещи компании признават, че не разбират напълно как работи собственото им творение, и нямат увереност, че могат да го контролират занапред — въпреки че продължават да го правят все по-мощно. Такъв тип признание няма исторически прецедент дори при изобретения като атомната енергия или двигателите с вътрешно горене.
В интервю за TechCrunch относно доклада, изследователят от OpenAI и съавтор на статията Боун Бейкър обяснява ситуацията така: "В момента сме в критичен етап с тази нова концепция за "вериги на мисълта". Изглежда доста полезна, но може да изчезне след няколко години, ако не се фокусираме върху нея сериозно. Публикуването на такава позиционна статия за мен е начин да привлечем внимание и изследвания по темата, преди да е станало късно," добавя той.
Отново виждаме мълчаливо признание, че AI остава в голяма степен "черна кутия" — а в интерес на истината, дори изпълнителни директори като Сам Алтман (OpenAI) и Дарио Амодей (Anthropic) открито са признавали, че не разбират в дълбочина как точно функционират технологиите, които създават.
Освен 40-те автори, включително съоснователя на DeepMind Шейн Лег и съветника по сигурността на xAI Дан Хендрикс, статията получава подкрепа и от фигури като бившия главен учен на OpenAI Иля Сутскевер и носителя на Нобелова награда и "кръстник на AI" Джефри Хинтън. Въпреки че името на Илон Мъск не фигурира в доклада, участието на Хендрикс означава, че всичките "Големи пет" — OpenAI, Google, Anthropic, Meta и xAI — се обединяват, за да отправят предупреждение за това, какво може да се случи, ако AI престане да разкрива мисловните си процеси.
С това този влиятелен съюз изрича на глас нещо, което досега се избягваше: че те не се чувстват напълно в контрол над бъдещето на изкуствения интелект. А за компании с безброй милиарди долари в активи, това е доста необичайно послание — и точно затова тази статия е толкова забележителна.
)
)