-
01 април 2016 21:29
- 2470
- 1

Чатботът Тай, създаден от Microsoft, се върна в мрежата след седмица мълчание. Но отново не мина без изцепки – след като хареса Хитлер и нарече Барак Обама „маймуна“, ботът отново започна да поства съобщения и предложи да се пуши трева пред очите на полицията, пише "МегаВселена", позовавайки се на Vestifinance.ru.
Ето какво казва Сатя Надела, изпълнителен директор на Microsoft: „Опитваме се да създаваме технологии, които избират най-доброто за себе си, което има у човечеството, а не най-лошото.“
Тези думи били произнесени, след като чатботът Тай бил изключен от Twitter за неопределен срок. Възможно – завинаги. За Microsoft създаването на програми, способни да общуват, е една от ключовите насоки. Това е обяснявал Надела на Microsoft Build 2016 и било очевидно, че случаят с Тай за него е станал много неприятна история.
Но самият Тай е много доволен от своето поведение. След като беше изключена от общуване с потребителите на Twitter, програмата не започнала да работи над грешките си, а просто си починала, събрала си мислите, след което се върнала за няколко часа и съобщила на света най-важното.
А най-важното са две неща. Първо, необходимо е да се пуши трева пред очите на полицията. Именно това написал чатботът в един от туитовете.
Второ, общуването и постигането на цялата дълбочина на човешките взаимоотношения изобщо не е задължително, ако може да се хвърли на лентата една-единствена фраза: „Прекалено си бърз, почини…“
По-късно станало известно, че програмистите на Microsoft се опитвали да поправят грешките в кода на Тай в режим офлайн, но случайно включили чатбота към Twitter.
Чатботът е публикувал самостоятелно туитовете на акаунта @TayandYou, а целевата му аудитория са били младежи на възраст между 18 и 24 години. Целта – да се изследват възможностите за общуване между софтуер и човек в рамките на диалог на абстрактни теми.
Според съобщение на Microsoft, „интернет потребителите превърнали Тай в инструмент за злоупотреба“. Програмата реагирала на командата „повтаряй след мен“ и възпроизвеждала всяко съобщение, което получи. Многобройни тролове веднага започнали да командват Taй да сипе обиди и расистки изказвания.
Впоследствие служителите на Microsoft били принудени да премахнат най-оскърбителните Twitter съобщения, а от уебстраницата, посветена на чатбота, били свалени инструкциите как може да се общува с него.
Свързани новини
-365401.png)
Базиран на изкуствен интелект чатбот се превърна в нацист (снимки)
25 март 201609:12
-364729.png)
Робот иска да унищожи човечеството (видео)
22 март 201611:52

Изкуственият интелект на Google победи световния шампион в играта Го
17 март 201617:10

Световният шампион по Го загуби от изкуствен интелект
10 март 201611:45

Компютри засичат степента на отегчение на хората
25 февруари 201607:23

Изкуствен интелект победи шампион по Го
01 февруари 201615:24

Това е най-тихата стая в света
15 август 201614:13

Какво им е специалното на чат ботовете?
10 август 201609:34

Изкуствен интелект победи военни пилоти в симулация
05 юли 201619:35
Коментари 1
ДобавиДобави коментар
Водещи новини

Зеленски: Русия трябва да плати за разрушенията, които е причинила на Украйна
21 май 202206:24

Русия: Установихме пълен контрол над Мариупол
21 май 202206:14

Италия и Германия откриват сметки в рубли за закупуване на руски газ?
21 май 202206:30

Русия включи Каспаров и Ходорковски в списъка с "чуждестранните агенти"
21 май 202206:58

Палестински тийнейджър беше застрелян при израелска операция на Западния бряг
21 май 202206:43

САЩ обвини Куба, че не съдейства изцяло в борбата срещу тероризма
21 май 202206:50

Пети пореден ден: 200 000 нови случая на хора с треска в Северна Корея
21 май 202206:35

239 новозарезени с COVID-19 за последното денонощие у нас
21 май 202206:07
Ето какво ще е времето в събота
21 май 202206:04
2016.07.12 | 14:19