Европол предупреди за увеличаване на киберпрестъпленията с използване на изкуствен интелект

Pixabay
share

Хакерството, сексуалното насилие над деца и финансовите измами са най-тревожните тенденции при киберпрестъпността в ЕС, показва нов анализ, разпространен днес от Европол и цитиран от ДПА. В анализа си Европол предупреждава, че изкуственият интелект играе все по-голяма роля в тази област.

Милиони граждани на ЕС ежедневно стават жертва на организирана престъпност онлайн, посочва Европейската агенция за полицейско сътрудничество със седалище в Хага. Киберпрестъпниците все по-често се насочват към малки и средни предприятия, неразполагащи с усъвършенствани инструменти за защита на данните си от кибератаки, при които се иска откуп, допълва Европол.

Агенцията отбелязва същевременно, че европейските потребители продължават да стават жертва на фишинг кампании и други форми на финансови измами.

Увеличава се и броят на случаите на сексуално изнудване онлайн, насочено към уязвими непълнолетни лица, предупреждава агенцията.

Европол предупреди, че организираната престъпност набира сила в Европа

Европол алармира и за киберпрестъпления, подпомагани от изкуствен интелект, които все повече започват да създават сериозно предизвикателство за правоприлагащите органи.

Европейската агенция за полицейско сътрудничество отбелязва, че е особено загрижена за създаване с помощта на изкуствен интелект на материали за сексуално насилие над деца, както и за усъвършенствани методи за изнудване, използвани от измамници и лица, които искат да подготвят в социалните мрежи деца с цел извършване на незаконни сексуални действия.

Според анализа на Европол все по-широко се използват и така наречените дийп фейк видео- и аудиоматериали. Могат да се копират така например гласове за телефонни разговори с цел изнудване за пари или получаване на данни за достъп до банкови сметки. Изкуствен интелект се използва също и за манипулиране на видеоклипове или изображения, показващи сексуално насилие над деца, отбелязва БТА.

 

Водещи новини

Още новини