Для обучения «Алисы» записали около четырёх часов речи с разными эмоциями
Команда Яндекса раскрыла подробности об обновлении виртуального помощника «Алисы». Как сообщили в пресс-службе, общение с «Алисой» стало более живым и похожим на разговор с человеком. С помощью технологии эмоционального синтеза она научилась выражать голосом целый спектр эмоций. Например, она может подбодрить, посочувствовать или порадоваться за пользователя.
«Алиса» научилась передавать голосом такие эмоции, как дружелюбие, любопытство, удивление, сочувствие, обиду и грусть. При выборе эмоции она учитывает ситуацию общения, реплику пользователя и текст ответа, который генерирует для неё нейросеть YandexGPT. При этом «Алиса» способна менять оттенки эмоций в рамках одной реплики, как это делают люди. Например, если рассказать «Алисе» о чём-нибудь необычном, она выразит удивление, а потом сменит интонацию на более спокойную.
Для обучения «Алисы» записали около четырёх часов речи с разными эмоциями. На основе этих данных разработчики создали нейросетевую модель, которая синтезирует эмоционально окрашенную речь. Затем собрали примеры диалогов «Алисы» с пользователями и разметили, какая эмоция уместна в том или ином случае. Послушать примеры интонаций «Алисы» можно в специальном альбоме в «Яндекс Музыке».
Новая возможность уже доступна в «Станциях Лайт 2» и позже появится в других умных устройствах Яндекса.