От държавна пропаганда към дезинформация срещу заплащане
Аутсорсингът като щит
Team Jorge и комерсиализацията на измамата
Хибридни операции: там, където онлайн среща офлайн
Автоматизация и изкуствен интелект: новият мултипликатор на сила
Асиметрична информационна война
Залогът за демокрацията и пътят напред
__________________________
Този коментар изразява личното мнение на автора
и може да не съвпада с позициите на редакцията на Novini.bg.
Появата на глобална, мащабна индустрия за дезинформация „приватизира“ операциите за влияние, предоставяйки на държавите стратегически обхват при наличие на правдоподобно отричане.
Тихата „революция“ е прекрасно описана от анализаторите на EUvsDisinfo. Анализът им проследява как тя се е случила в света на пропагандата. Операции, които някога се били ръководени от авторитарни правителства и разузнавателните им служби, днес се възлагат на частни компании, които продават дезинформация и заблуда като „услуга“.
Зловещо е.
От фалшиви армии в социалните мрежи до очернящи кампании, задвижвани от изкуствен интелект, дезинформацията, чуждестранната манипулацията и намесата в информационното пространство (FIMI – Foreign Information Manipulation and Interference) се превърнаха в глобален бизнес, даващ на авторитарните режими нови начини да влияят върху други. И възможността да могат след това да отричат всичко.
В продължение на десетилетия информационните операции са строго контролирани от държавите. Съветският съюз усъвършенства изкуството на дезинформацията; по-късно Русия го институционализира чрез съвременни дигитални операции през Агенцията за интернет изследвания (IRA).
През последното десетилетие обаче този модел се комерсиализира. Дезинформацията и измамата се превърнаха в услуга с търговска цел, предлагана от компании с опит в разузнаването, армията или маркетинга. Тези фирми, действащи по целия свят, продават пълни FIMI-пакети, включващи фалшиви кампании в социалните мрежи, хакерски атаки, изтичане на данни и „управление на наратива“, с цел разпространение на фалшиво и манипулирано съдържание в демократични държави.
Този аутсорсинг осигурява едновременно ефективност и възможност за отричане. Авторитарните държави все по-активно се стремят да изнасят информационните операции към частни посредници, като същевременно се предпазват от дипломатически и правни последици.
Чрез този модел злонамерените актьори могат да експериментират и с рискови тактики като генерирано от ИИ съдържание, хакерство или deepfake материали – операции, които биха били политически или дипломатически взривоопасни, ако се извършват директно от държавни институции. Така те могат да атакуват цели общества чрез целенасочени кампании за влияние, като същевременно поддържат правдоподобно отричане, твърдейки, че нямат връзка с частните структури, които ги изпълняват.
Аутсорсингът позволява и т.нар. „пране“ на информация – прикриване на истинския произход на дезинформацията чрез преминаването ѝ през частни фирми, фалшиви акаунти и прокси медии. Когато тези актьори повтарят и усилват дадено послание, то започва да изглежда органично и локално произведено. Това дава възможност за разпространение на целеви наративи, като същевременно се отрича всякакво участие.
Всичко това е информационният еквивалент на използването на наемници: клиентът получава резултата, без да поема вината.
Разследване на Forbidden Stories от 2023 г. за структура, наречена „Team Jorge“, разкри вътрешната работа на тази нова екосистема за влияние срещу заплащане. Фирмата твърдеше, че е участвала в намеса в 33 президентски избори, като е „спечелила“ 27 от тях. Клиентите ѝ включвали политически партии, корпорации и дори актьори.
В основата на системата на Team Jorge стоеше Advanced Impact Media Solutions (AIMS) – софтуер, способен да създава и координира хиляди фалшиви акаунти в социалните мрежи, снабдени със синтетични снимки, биографии и измислени житейски истории. Тези аватари можеха да бъдат мобилизирани за заливане на публични дебати, разпространяване на наративи или тормоз над опоненти.
Русия продължава да бъде основен играч в тази аутсорсната екосистема. Частни компании като Social Design Agency (SDA) и Structura вече провеждат мащабни операции за влияние, които отразяват – и в много отношения заменят – функциите на старите „тролски фабрики“ от Санкт Петербург. Тези фирми управляват прикрити онлайн активи, прокарват наративи, съвпадащи с държавната линия, и осигуряват на Кремъл допълнителен слой на отричане.
Журналисти под прикритие са снимали как фирмата демонстрира хакерски техники, инфилтрация в медии и внедряване на измислени новинарски истории. Мащабът на тези операции и достъпността им за клиенти с пари показаха как дезинформацията се е превърнала в глобална стока.
Съвременните кампании за влияние вече не съществуват само онлайн, а действат в хибридното пространство между дигиталната и физическата реалност.
Агенцията за интернет изследвания (IRA) демонстрира това по време на изборите в САЩ през 2016 г., когато руски оперативни служители, представящи се за американски активисти, организираха реални протести, плащаха на участници и координираха онлайн усилването около тях. Това, което започна като „война на мемета“, завърши с физическа мобилизация.
Днешните хибридни операции съчетават хакерство, тайно финансирани местни инфлуенсъри и прикрити медийни фронтове. Операторите на кампании изграждат на пръв поглед достоверни новинарски сайтове и инфлуенсърски образи, за да вкарват целеви наративи в публичното пространство. След като влязат в обръщение, тези наративи се смесват с автентично съдържание и се разпространяват както в дигиталните, така и в традиционните медии, което прави манипулацията трудна за откриване.
Първоначалният модел на тролските ферми – стотици млади хора, публикуващи ръчно на смени – се заменя от автоматизация, задвижвана от изкуствен интелект.
Системи като AIMS на Team Jorge или по-нови инструменти, базирани на големи езикови модели, вече могат да управляват хиляди фалшиви акаунти и да генерират многоезично съдържание, адаптирано към целеви аудитории в реално време. ИИ позволява кампании, които някога изискваха стотици хора, да се провеждат от шепа оператори или дори от един-единствен човек. Това, за което някога бяха нужни тролска ферма и цяла сграда в Санкт Петербург, днес се побира в един лаптоп.
Появата на тези фирми за влияние срещу заплащане създаде нов стратегически дисбаланс – асиметрична информационна война.
В тази асиметрия автокрациите разполагат с максимален обхват при минимален риск. Вътре в страната те са защитени от цензура, контрол и отричане. Демокрациите обаче са по-уязвими. Обвързани с прозрачност и върховенство на закона, те се изправят пред максимална уязвимост с ограничени защитни механизми.
Този дисбаланс не е само политически, а и структурен. Авторитарните режими могат да използват дезинформация и ИИ инструменти, за да оформят глобални наративи, да влияят върху избори в чужбина и да подкопават доверието, като същевременно се опитват да избегнат пряка отговорност. Демокрациите, от своя страна, са принудени да играят защита в отворени мрежи, създадени за свободно изразяване.
Тези операции вече променят политическите реалности. Фирми за влияние срещу заплащане са насочвали атаки към избори в Африка, Европа и Латинска Америка. Кампаниите за дезинформация усилват поляризацията, делегитимират медийните институции и експлоатират социални разделения, за да отслабят демократичната спойка.
Превръщането на дезинформацията в пазар рискува да създаде глобална сива зона, в която истината е по избор, а отговорността – трудно уловима. С поевтиняването и усъвършенстването на ИИ инструментите тези операции вероятно ще нарастват по мащаб и сложност.
Разпознаването на тази асиметрия и отговорът чрез устойчивост и регулация са единственият начин да се предотврати превръщането на самата истина в стока.
)