Арестуваха китаец по обвинения в писане на фалшива новина с изкуствен интелект

  • 10 май 2023 17:20

  • 27804
  • 0
Арестуваха китаец по обвинения в писане на фалшива новина с изкуствен интелект
© Getty Images/Guliver
Слушай новината Слушай новината

Мъж от китайската провинция Гансу бе арестуван по обвинения, че е използвал програмата за изкуствен интелект "Чат Джи Пи Ти", с която е написал фалшива новина за катастрофа с влак, предаде Ройтерс. Това е първият арест в Китай, свързан с използването на изкуствен интелект, на фона на затягането на мерките за борба с така наречените дийпфейк технологии в страната.

Новината, в която се твърди, че са загинали 9 строителни работници при катастрофа в град в северозападната китайска провинция Гансу, е била прочетена над 15 хиляди пъти след публикуването ѝ на 25 април, съобщи полицията в град Пинлян.

Според новите правила на Китай за дийпфейк технологиите се забранява на доставчиците на интернет услуги и на потребителите да използват такива технологии за създаване, публикуване и измисляне на невярна информация. Правилата, които влязоха в сила на 10 януари, имат за цел да ограничат използването на изкуствен интелект за промяна на онлайн съдържание.

Уволнен е журналистът, публикувал интервю с Шумахер, генерирано от изкуствен интелект

Според изявлението на полицията общо 25 акаунта в блога "Байцзяхао" (Baijiahao), който е собственост на китайския технологичен гигант "Байду" (Baidu), са съобщили за мнимата влакова катастрофа, използвайки различни IP адреси. В него се допълва, че заподозрян с фамилия Хун е бил арестуван за измисляне на фалшива информация, след като полицията е проследила всички акаунти и е установила, че компанията му също е замесена. 

Твърди се, че Хун е редактирал новини, създадени от "Чат Джи Пи Ти", и ги е качвал в платформата, собственост на "Байду", съобщи местната полиция и допълни, че разследването по случая продължава. 

Последвайте канала на

Константин Тодоров
27804 0

Свързани новини

Коментари 0

Добави коментар

Добави коментар

Водещи новини