В 1940-х годах была разработана инженерная модель, объясняющая, как люди могут определять местонахождение источника звука на основе разницы в несколько десятков миллионных долей секунды в том, когда звук достигает каждого уха. 

Эта теория основывалась на том, что у нас должен быть набор специализированных детекторов, единственной функцией которых является определение того, откуда исходит звук, а местоположение в пространстве представлено специальным нейроном. С тех пор данная модель направляет и влияет на исследования и дизайн аудиотехнологий.

Однако новая работа, опубликованная в журнале Current Biology исследователями слуха из Университета Маккуори, наконец-то показала, что идея нейронной сети, предназначенной для пространственного слуха, не соответствует действительности.

Ведущий автор работы, заслуженный профессор Университета Маккуори Дэвид Макэлпайн (David McAlpine), потратил последние 25 лет на то, чтобы доказать, что большинство животных на самом деле используют гораздо более разреженную нейронную сеть, в которой нейроны с обеих сторон мозга выполняют слуховую функцию в дополнение к другим. Показать это в действии на людях было сложнее.

Теперь с помощью специального слухового теста, передовой визуализации мозга и сравнения человека с другими млекопитающими, включая макак-резусов, команда ученых впервые показала, что люди также используют нейронные сети.

«Нам нравится думать, что наш мозг должен быть намного более развитым, чем у других животных, но это не так. Нам удалось показать, что песчанки похожи на морских свинок, морские свинки — на макак-резусов, а макаки-резусы в этом отношении похожи на людей», — говорит профессор Макэлпайн.

Учёные также доказали, что та же самая нейронная сеть отделяет речь от фоновых звуков — вывод, который имеет большое значение для разработки слуховых аппаратов и электронных помощников в наших телефонах.

Все типы слуховых аппаратов борются с проблемой слышимости в шуме, известной как «проблема коктейльной вечеринки». Из-за этого людям с такими устройствами сложно выделить один голос в толпе, а нашим смартфонам — понять, когда мы с ними разговариваем.

Последние результаты учёных говорят о том, что вместо того, чтобы сосредоточиться на больших языковых моделях, которые используются в настоящее время, мы должны использовать гораздо более простой метод. «Главное — уметь определить источник звука, и для этого нам не нужен особый подход. Другие животные умеют это делать, и у них нет языка», — пояснили учёные.

Когда мы слушаем, наш мозг не отслеживает звук все время, что пытаются делать большие языковые процессоры. Вместо этого мы, как и другие животные, используем «поверхностный мозг» для выделения очень маленьких фрагментов звука, включая речь, и используем их для определения местоположения и, возможно, даже личности источника.

Для этого не нужно реконструировать сигнал с высокой точностью, а достаточно понять, как наш мозг представляет звук на нейронном уровне, задолго до того, как он достигнет языкового центра в коре головного мозга. Это показывает нам, что машину не нужно обучать языку, как человеческий мозг, чтобы она могла эффективно слушать.

Следующий шаг команды — определить минимальное количество информации, которое можно передать в звуке, но при этом получить максимальное пространственное восприятие.

[Фото: Macquarie University]