Ученые из Пеннсильванского государственного университета, под руководством аспиранта Питера Мориарти (Peter Moriarty) совместили акустический подход и сканирование мозга младенцев, чтобы разобраться, как последние воспринимают на слух разные эмоции. О полученных результатах авторы отчитались в ходе проходящей в эти дни ежегодной встречи Акустического общества США, о чем и сообщает его пресс-релиз.

В ходе экспериментов, младенцам ставили 15-секундные записи голоса их матерей, которые произносили одну и ту же фразу с разными интонациями: счастливой, сердитой и нейтральной. При этом аудиоролики анализировались с акустических позиций, а младенцам делались снимки функциональной магнитно-резонансной томографии мозга (фМРТ).

Оказалось, что на основании акустического анализа можно уверенно определить, какая эмоция звучит в речи матери, и какую активность она вызовет в мозге ребенка. Набрав достаточное количество данных, ученые научились это надежно предсказывать.

Данное исследование — пилотное в рамках более крупного нового проекта, под названием «Проект обработки эмоционального окружения» (The Processing of the Emotional Environment Project, PEEP). Его цель — разобраться в подробностях, как наш мозг воспринимает чужие эмоции на слух. В перспективе, возможно, удастся «научить» этому и роботов.

«Вы не можете говорить с Siri [голосовой помощник в iOS] так, чтобы она понимала ваши эмоции, — привел пример Мориарти — Чтобы делать такие выводы, нужна очень сложная модель. Проблема в том, что существует очень сложное взаимодействие между этими акустическими параметрами и типом эмоции, а также негативом или позитивом, который мы с ней ассоциируем».

Напомним, недавно выяснилось, что собаки тоже умеют различать человеческие эмоции — причем и по голосу, и по выражению лица.