Ученые выяснили, что точнее всего исследовать плазму — ионизированный газ — с высоким пространственным разрешением позволяет компьютерный алгоритм, сочетающий обратное преобразование Абеля (математический инструмент для изображения трехмерных структур на плоскости) с регуляризацией — одним из способов борьбы с шумами в данных. К такому выводу авторы пришли, сравнив работу 14 различных алгоритмов по отдельности и в сочетании с тремя методами подавления шумов. Полученные данные позволят точнее контролировать состояние плазмы, используемой на производствах и в лабораториях для анализа и синтеза новых соединений и обработки материалов. Результаты исследования, поддержанного грантом Российского научного фонда (РНФ), опубликованы в журнале Spectrochimica Acta Part B: Atomic Spectroscopy, а анонс статьи размещен на обложке январского номера.
Плазма — ионизированный газ — широко используется в технике для обработки материалов, в химии — для элементного анализа, а также синтеза новых соединений и наноструктур, в физике — для исследования грозовых разрядов и других явлений. В каждом случае важно строго контролировать свойства плазмы — температуру, электронную плотностью и распределение частиц в пространстве. Проще всего оценивать эти параметры можно по ее собственному излучению. Так, с помощью приборов ученые сначала фотографируют плазму и регистрируют спектры ее излучения. Затем по полученным данным компьютерные алгоритмы восстанавливают пространственное распределение различных параметров в плазменном факеле, но такие изображения изначально получаются двумерными (плоскими).
Чтобы получить объемную структуру плазмы из плоских изображений, в таких алгоритмах используется математический инструмент, называемый обратным преобразованием Абеля. Однако из-за шумов, которые возникают при экспериментальных измерениях, модель может получиться неточной. В попытках уменьшить влияние шумов ученые разработали различные приемы борьбы с ними, которые используются при преобразовании Абеля.
Исследователи из Московского государственного университета имени М.В. Ломоносова (Москва) проанализировали 14 алгоритмов, чтобы понять, какие из них лучше всего работают даже при низкокачественных («зашумленных») экспериментальных данных. Кроме того, авторы протестировали комбинации алгоритмов с методами подавления шумов: сглаживанием, фильтрацией и регуляризацией.
Сглаживание — это подход, при котором экспериментальные данные (результаты измерений), грубо говоря, усредняют: сильно выбивающиеся значения отсекаются подобно тому, как ножом удаляют шипы на стебле розы.
Фильтрация основана на идее о том, что полезная информация в данных и шум имеют разные частоты. Опираясь на это предположение, частоту, соответствующую шуму, удаляют. Этот подход широко используется в электронных устройствах, например телефонах, при передаче и обработке аудио- и видеозаписей.
Регуляризация появилась как способ нахождения решения изначально некорректно поставленных задач. Идея состоит в том, что к решению добавляется небольшое слагаемое (штраф), которое тем больше, чем сильнее нарушается некое ожидаемое от решения свойство. Очень часто таким свойством является «гладкость» функции. Таким образом, чем больше шумов и чем менее правильная получается функция, тем больше слагаемое-штраф. Именно на этой идее основано использование регуляризации при борьбе с шумом.
Исследователи провели численный эксперимент, обработав с помощью всех исследуемых алгоритмов наборы «зашумленных» данных, которые теоретически могут описывать состояние плазмы. Наиболее точные модели удалось получить при использовании алгоритма «Piessens-Verbaeten», поскольку в нем есть встроенные инструменты фильтрации. При этом использование регуляризации как метода подавления шума практически стерло различия между алгоритмами, то есть все они стали очень похожи по результатам между собой. При этом погрешность таких моделей с регуляризацией не превышала 8–12%, тогда как без регуляризации для отдельных алгоритмов она достигала 100%.
Таким образом, регуляризация как инструмент шумоподавления позволяет с наименьшими погрешностями моделировать пространственные параметры плазмы в условиях повышенного уровня шума и малого количества экспериментальных данных.
«Плазменные источники широко используются не только в научных исследованиях, но и при обработке материалов, нанесении различных защитных покрытий, лазерной сварке и резке, а также при изучении процессов горения. Поэтому полученные результаты могут помочь оптимизировать подобные технологические процессы, в которых необходимо генерировать плазму со строго определенными характеристиками. В дальнейшем мы планируем применить разработанный алгоритм не только для изучения лазерной плазмы, но и для еще одного широко используемого плазменного источника — тлеющего разряда», — рассказывает участник проекта, поддержанного грантом РНФ, Тимур Лабутин, кандидат химических наук, доцент кафедры лазерной химии химического факультета МГУ имени М.В. Ломоносова.
Информация и фото предоставлены пресс-службой Российского научного фонда