Екип от изследователи в Япония твърди, че е открил начин да преведе кудкудякането на кокошки в човешка реч с помощта на изкуствен интелект.
Както е подробно описано в препринт, който все още предстои да бъде рецензиран, екипът, ръководен от професора от университета в Токио Адриан Дейвид Чеок е създал "система, способна да интерпретира различни емоционални състояния при пилета, включително глад, страх, гняв, задоволство, вълнение и страдание" чрез използване на "авангардна AI техника, която наричаме обучение с дълбок емоционален анализ".
Техниката се "вкоренява в сложни математически алгоритми" и дори може да се използва за адаптиране към непрекъснато променящите се гласови модели на пилетата, което означава, че става все по-добра в дешифрирането на "пилешки вокализации" с течение на времето.
За да изпробват новата си система, екипът записва и анализира проби от 80 пилета. След това те подават тези проби към алгоритъм, за да свържат тези вокални модели с различни "емоционални състояния" на птиците.
Обединявайки се с "екип от осем животински психолози и ветеринарни хирурзи", изследователите казват, че са успели да определят психическото състояние на дадено пиле с изненадващо висока точност.
"Резултатите от нашите експерименти демонстрират потенциала за използване на AI и техники за машинно обучение за разпознаване на емоционални състояния при пилета въз основа на техните звукови сигнали", се казва в документа. "Високите средни вероятности за откриване на всяка емоция предполагат, че нашият модел се е научил да улавя смислени модели и характеристики от звуците на пилето."
В своята статия изследователите признават, че точността на техния модел може да се промени с различните породи и условия на околната среда и че "наборът от данни, използван за обучение и оценка, може да не обхване пълния набор от емоционални състояния и вариации на пилетата".
След това има много други начини, по които пилетата комуникират, от "други неакустични знаци, като езика на тялото и социалните взаимодействия".