В нов доклад експерти от Mozilla Foundation предупреждават, че чатботове-компаньони с изкуствен интелект - включително популярното приложение Replika - крият клопки за поверителността и имат съмнителни политики за използване на личните данни на потребителите си, съобщава Futurism.
"Така наречените "сродни души с изкуствен интелект" карат екипа на Mozilla да изтръпне, когато става въпрос за това колко лична информация събират", се казва в доклада, "особено като се има предвид липсата на прозрачност и потребителски контрол върху това как тези данни са защитени от злоупотреба."
С други думи, ботовете, предназначени да осигурят на уязвими и самотни хора усещане за интимност, ги ползват за трупане на данни за тях. Данни, които могат да се ползват за непрозрачни цели.
"За да бъда напълно откровен, приятелките и гаджетата с изкуствен интелект не са ваши приятели", каза изследователят на Mozilla Миша Риков в свое изявление.
"Въпреки че те се рекламират като нещо, което ще подобри вашето психично здраве и благополучие, те се специализират в това да ви направят зависим, давайки ви повече самота и токсичност, като същевременно извличат възможно най-много данни от вас", добавя той.
Според доклада, изследователите на Mozilla подлагат на тестове 11 придружаващи бота с изкуствен интелект, като в крайна сметка откриват, че "десет от 11-те чатбота не отговарят на минималните стандарти за сигурност на Mozilla, като например изискване на силни пароли или начин за управление на уязвимостите в сигурността".
Лошата защита срещу използване от непълнолетни и зашеметяващото количество тракери и бисквитки са друг проблем.
Тези тракери бяха хванати да изпращат данни на потребители в приложението до набор от екипи на трети страни, включително Facebook, DoubleClick, собственост на Google, и редица маркетингови и рекламни фирми.
Ботовете-компаньони са изрично предназначени да изграждат интимни взаимоотношения със своите потребители. Като се има предвид чувствителността на споделената информация, логично е, че недоброжелатели биха могли ефективно да я експлоатират.
"Едно от най-страшните неща за чатботовете за връзка с AI е потенциалът за манипулиране на техните потребители", каза в изявление Джен Калтридър, директор на проекта *Privacy Not Included на Mozilla.
"Какво ще спре недобросъвестни лица да създават AI чатботове, предназначени да ви бъдат "сродна душа" и след това те да използват тази връзка, за да манипулират хората в извършането на ужасни неща, да приемат плашещи идеологии или да нараняват себе си или другите?"
Всъщност, такъв пример вече има. Чатбот-приятелка подтикна млад мъж да опита да убие вече починалата кралица на Великобритания.
"Ето защо отчаяно се нуждаем от повече прозрачност," добави Калтридър, "и потребителски контрол в тези AI приложения."