"Възкръснали" с AI политици идват за изборите

YouTube
share

Един страховит армейски генерал, управлявал Индонезия с железен юмрук повече от три десетилетия, отправи послание към избирателите преди наскоро проведените избори в страната – от гроба си.

„Аз съм Сухарто, вторият президент на Индонезия“, казва бившият генерал в триминутен видеоклип, навъртял над 4,7 милиона гледания в социалните мрежи.

Сухарто почина през 2008 г. на 86-годишна възраст. Откъде е изпратил видеото?

Филмчето е генерирано от изкуствен интелект. Това е така нареченият майсторски фалшификат или „дийпфейк“, създаден с помощта на софтуерни инструменти за клониране на лицето и гласа на Сухарто.

„Видеото е направено, за да ни напомни колко важни са нашите гласове на предстоящите избори“, каза Ервин Акса, заместник-председател на Голкар – една от най-големите и най-стари политически партии в Индонезия. Акса е човекът, който първи сподели видеото в X преди изборите на 14 февруари.

Big Tech се договори за борба с генерираната от AI изборна дезинформация

Партията е една от 18-те, които се състезаваха в тазгодишната надпревара. Повече от 200 милиона избиратели имат право на глас в Индонезия. Голкар всъщност не издигна свой собствен кандидат за президент, но подкрепи такъв от друга партия – отново бивш армейски генерал, действал по време на железния режим на Сухарто.

Чрез видеото с лицето на лидер, който отдавна е покойник, малко седмици преди вота, намеренията на Голкар бяха ясни: да насърчи гласоподавателите да подкрепят партийния „наследник“ на Сухарто. Самият Акса каза, че е горд от постигнатото в Индонезия по времето на Сухарто.

Мнозина осъдиха акта на използване на лицето и гласа на мъртвец, особено за политическа пропаганда. „Това е състоянието на страната ни днес – връщане към живота на мъртви диктатори, за да ни заблуждават и плашат, за да гласуваме“, написа един индонезиец в X. „Етично ли е да се създават дийпфейкове с образите на мъртви хора? Чувствам го толкова погрешно от морална гледна точка“, каза друг.

Избори в ерата на майсторския фалишификат

Онлайн светът играе огромна роля в политиката – не само в Индонезия. Във всяка страна с високо ниво на използване на интернет почти всички политически партии и политици поддържат силно присъствие в социалните медии. Там те търсят обратна връзка, последователи, влияние.

„Майсторските фалшификати могат значително да повлияят на изборите – на начина, по който се провежда дадена кампания, както и на резултатите“, казва Голда Бенджамин, кампаниен мениджър за Азиатско-тихоокеанския регион в Access Now, американска организация с нестопанска цел за цифрови права. „Опасността се крие в това колко бързо се разпространява. Дийпфейкът може лесно да достигне до милиони хора за секунди, лашкайки общественото мнение и манипулирайки милионите избиратели“.

В навечерието на индонезийските избори почти всички големи партии в почти всички страни са обърнали към AI и са използвали различни „майсторски фалшификати“ за политическа цел.

Изкуственият интелект и изборите: заплахите са много

Така например едно друго видео, което привлече силна критика, показваше образи на деца, генерирани от AI. Детските лица бяха използвани от партия в телевизионна реклама, за да заобиколят правилата, забраняващи на деца да се снимат в политически кампании.

На фона на всичко това навярно изглежда напълно нормално и невинно, че някои политици използват чатботове в своите уебстраници, за да отговарят на запитвания относно политиките си.

Нащрек

Медийни агенти, политици, комуникатори и кампанийни мениджъри са на мнение, че днес трябва да сме особено критични, знаейки, че вече има AI технология, която може да генерира реалистични аудио или визуални изображения – но всъщност фалшиви. Ако нещо „сензационно“ обикаля интернет с бясна скорост и в него срещаме лицата на политиците, трябва да имаме най-малко едно наум, пише technews.bg.

В огъня на политическата конкуренция могат да се родят всякакви майсторски фалшификати, от брутално компрометиращи „тайни записи“ до възкръсването на покойници като някогашния индонезийски президент.

Регулации по този въпрос няма. В същото време очевидно има ентусиасти, които са готови на всякакви експерименти – подобно на Ервин Акса. Те не биха се посвенили да използват фалшиви образи, нито да ги пуснат „в обращение“.

Водещи новини

Още новини