)
Компанията Anthropic въведе нова функция в своя чат-бот Claude AI, която му позволява да прекъсва диалози, оценени като "вредни или обидни".
Според разработчика, тази мярка ще се прилага само в крайни случаи и вече е налична в моделите Opus 4 и 4.1. Основната цел е да се предпази както самият модел, така и потребителите от взаимодействия, пораждащи сериозен дискомфорт.
По време на тестове Claude е показал ясна тенденция да отказва участие в създаване на вредно съдържание - от насилие и тероризъм до сексуални материали с непълнолетни.
Последвайте канала на
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)
)