По същия начин Изкуственият Интелект се самозарежда със „знания“, които обаче са умишлено подвеждащи. Интелектуално „био“-оръжие. Отрова за информационния поток.
Този вид „информационно изпиране“ подкопава доверието в дигиталните платформи, руши демократичната устойчивост и дава на Русия оръжие на минимална цена.
_________________________________
Този коментар изразява личното мнение на автора
и може да не съвпада с позициите на редакцията на Novini.bg.
В дигиталната епоха бойното поле на дезинформацията се промени. Както EUvsDisinfo пише, „появата на интернет и други технологии за комуникация позволиха по-голяма гъвкавост и по-силен ефект с по-малко ресурси“ от страна на руската машина за информационна война.
С навлизането на големите езикови модели (large language model или LLM) стратегията на Кремъл еволюира.
Тя вече не се прицелва само в хората чрез социалните мрежи и манипулираните новини, а НАСОЧВА УСИЛИЯТА СИ КЪМ САМИТЕ МАШИНИ. Звучи странно? Може би. Но съвременните проблеми изискват съвременни решения.
Според статията Русия се занимава с т.нар. LLM grooming. Тоест, заливане на интернет с огромни количества нискокачествено, подвеждащо съдържание, което бива погълнато от системите с изкуствен интелект и изкривява техните отговори.
Как работи методът: мрежа от уебсайтове на различни езици произвежда съдържание, което преразказва фалшиви твърдения от държавни медии или прокремълски източници. Тези сайтове, като т.нар. мрежа Правда, действат в целеви региони – Украйна, САЩ, Германия, Полша, Великобритания и дори някои африкански държави. Обемът е огромен и е създаден така, че големите езикови модели, използвани от чатботове и търсачки, да го усвоят, нормализират и възпроизведат като факт.
LLM (ако искате да го наричаме, за по-лесно, просто „Изкуственият Интелект“?...) се самообучава, използвайки наличното в мрежата. Взема каквото намери там, така както едни човек „взема“ знания от библиотеката. Само дето го прави в пъти по-бързо и мащабно.
Когато „библиотеката“ е пълна с глупости и лъжи, то и мозъкът на човекът се напълва с глупости и лъжи.
На практика Кремъл вече не се състезава само на терена на общественото мнение; той променя самата инфраструктура на знанието. EUvsDisinfo отбеляза и друго – че с превръщането на AI-базираните асистенти в основен инструмент за проверка на факти и извличане на информация, замърсяването на техните източници се превръща в голяма заплаха за сигурността.
Имайте предвид, че все повече хора заместиха Google с LLM. Било ChatGPT, било Gemini, било нещо друго.
ОСВЕН ТОВА(!) самият Google въведе AI-търсенето и синтезирането в търсачката си. Когато търсите нещо, вече ви излизат НЕ САМО линковете към търсеното от вас, но и цели абзаци от синтезирана информация по темата. Дори не ви се налага да отваряте сайтовете един по един – Google-ският AI го е направил вместо вас, подредил е и ви „сипва“ наготово.
Само че… какво чете той? Откъде и от какво черпи „знанията“… Именно! Тук е новото бойно поле.
Един цитиран пример: тест на 10 водещи чатбота показва, че фалшивата и подвеждаща информация в отговорите им се е увеличила от 18% през 2024 г. до 35% през 2025 г.
Колко ще е през 2026 г.? Ами през 2027 г.? А след десетилетие?...
Процесът е дълбоко тревожен. Щом веднъж моделите усвоят манипулираните „истини“ и „новини“, те започват да ги третират като реални. И когато потребител зададе въпрос, отговорът може да изглежда правдоподобен, добре формулиран и авторитетен, но да е построен върху кремълски изкривени опорки и фалшиви глупости.
Защо това е толкова важно именно сега? Защото LLM-ите вече са вградени в ежедневието: търсачки, виртуални асистенти, чатботове за обслужване на клиенти, образователни приложения. Ако тези системи бъдат хранени с изкривени „истини“, обикновеният потребител няма как да разбере, но…
… ще действа, решава или мисли по различен начин в резултат на това. Малко по малко, стъпка по стъпка, въпрос по въпрос, отговор по отговор.
Става дума за архитектурата на знанието, която тихо се пренаписва…
Дезинформационната кампания на Кремъл става все по-опасна, именно защото е много трудно откриваема.
Традиционната проверка на факти се съсредоточава върху класическия арсенал: търсят се и се изобличават фалшиви новини, обработени изображения, ботове, които усилват хаштагове и т.н.
Да де, но когато целта са алгоритмите и самите AI модели, конвенционалните методи се провалят. Кой фактчекър на света има властта и влиянието да промени „знанието“ на Изкуствения Интелект?
Какво може да се направи? Малко е прекалено оптимистично да се вярва в успеха на следващите предложения, но все пак е по-добре да се има предвид, че съществуват някакви опции, отколкото безпомощно да се вдигат рамене.
Трябва повече прозрачност относно това откъде идват обученията на AI моделите; ПО-ДОБРА ДИГИТАЛНА ГРАМОТНОСТ В ОБЩЕСТВОТО; и подсилване на устойчивостта на AI екосистемата чрез откриване на „враждебни“ входове.
…
Но фокусът на историята тук е друг, да не се отплесваме в технически подробности: става дума за това, че защитата на демокрацията в ерата на AI вече не е просто въпрос на регулиране на платформите, медиите и т.н., както беше досега. Вече говорим за защита на самите шаблони на знанието, данните и алгоритмичния изход.
Накратко: историята на руската информационна война се променя. Анализаторите ясно заявяват, че големите езикови модели вече са „новото бойно поле“. Войната на идеите все още е тук, но вече е кодирана, алгоритмична и скрита пред очите ни.
Инструментите, които ни помагат да намираме истината, може да се превърнат в оръжие срещу демокрацията ни, срещу нас, срещу имунната ни система, бореща манипулациите.
И ако не си пренастроим навреме регулациите и най-вече начините за обучение на младите как да се справят с морето от фалш, може да се окажем не просто спорещи с опорките, а живеещи вътре в една такава.
)