Новая ИИ-архитектура, созданная в МФТИ, решает важную проблему машинного обучения — катастрофическое забывание и позволяет сохранять информацию в сотни тысяч раз дольше. Это поможет создать автономные ИИ-системы, способные постоянно учиться и адаптироваться к изменяющимся условиям: промышленные роботы, беспилотники и дроны. Результаты исследования опубликованы в The European Physical Journal Special Topics.
«Возможно, мы нашли ответ на одну из главных загадок мозга: как он умудряется учиться новому, не стирая при этом старые “файлы”. Всё дело в постоянной перестройке нейронных связей — ревайринге. Именно он превращает хрупкую кратковременную память в прочные долговременные воспоминания», — рассказывает Сергей Лобов, ведущий научный сотрудник лаборатории нейробиоморфных технологий МФТИ.
Нейронная сеть чем-то похожа на карту. Когда она учится, в ней возникают следы памяти, подобные дорожкам, протоптанным в лесу. Однако, если прохожие начнут спонтанно ходить вокруг тропы, она быстро размоется и станет незаметной. То же происходит и внутри нейронных сетей: поглощая информацию, они постоянно переписывают свои параметры и забывают старые. Происходит «катастрофическое забывание» — память становится нестабильной, ведь в реальном мире условия меняются постоянно.
Решение проблемы пришло из нейробиологии. Ученые МФТИ предложили модель памяти на основе спайковой нейронной сети — нового типа ИИ, который работает по принципам реального мозга. В нее добавили механизм перестройки связей — ревайринг. Он работает в тандеме с основным механизмом обучения мозга — временной пластичностью, зависящей от спайков (STDP). STDP усиливает или ослабляет связь между двумя нейронами в зависимости от того, кто сработал раньше.
«Как это работает? Сначала сеть учится под внешним воздействием, связь между нейронами усиливается и формируется кратковременная память. А дальше начинается самое интересное. После обучения внешний сигнал выключается, и сеть остается наедине со своей спонтанной активностью. В этот момент включается ревайринг. Система самостоятельно перестраивает свою анатомическую структуру, буквально "впечатывая" этот паттерн в карту связей. Этот процесс мы назвали самоорганизованной консолидацией памяти. Благодаря ему кратковременная память превращается в долговременную — устойчивое структурное изменение в архитектуре сети», — рассказал Сергей Лобов, ведущий научный сотрудник лаборатории нейробиоморфных технологий МФТИ.
Эксперименты показали: надежность памяти увеличилась в сотни тысяч раз.
Чтобы оценить качество модельной памяти, ученые моделировали обучение и анализировали, сколько всплесков активности переживет сеть, прежде чем забыть информацию. Если обычная сеть забывала информацию после 1000 всплесков, сеть с перестройкой связей выдерживала до 170 миллионов.
Ученые обнаружили, что в процессе обучения под действием стимулов в сети возникают «хабовые» нейроны. Одиночный импульс такого нейрона способен запускать синхронные всплески активности сотен других нейронов по всей сети. Эксперименты показали, что в стандартных сетях после обучения количество таких хабов быстро сокращается, в то время как в сетях с перестройкой связей остается высоким и даже растет. Вероятно, именно они являются энграммными клетками, создающими стабильный «каркас» для долговременного хранения информации в нейронной сети.
Сейчас новая ИИ-архитектура существует в виде компьютерной модели. Следующий шаг — физические нейроморфные процессоры, реализующие этот принцип. Они позволят создать автономные ИИ-системы, которые смогут постоянно учиться и адаптироваться в изменяющемся мире: роботы-исследователи, беспилотные автомобили и др.
Информация предоставлена пресс-службой МФТИ
Источник фото: ru.123rf.com



















