Российские ученые-программисты разрабатывают технологию, которая бы позволила закладывать специальную «подпись» или водяной знак в видео, сгенерированные посредством искусственного интеллекта. Об этом директор Института системного программирования им. В.П. Иванникова РАН, академик Арутюн Ишханович Аветисян рассказал в докладе на конференции GRID’2025 в Объединенном институте ядерных исследований 7 июля.

«Весь мир сейчас движется в том направлении, что в генеративных ИИ обязательно должен внедряться механизм водяных знаков. Open AI уже сказали, что пока регуляторно они не могут этого требовать, потому что технологий соответствующего уровня пока нет. Но уже и европейцы, и китайцы, и мы движемся именно этим путем», — подчеркнул А.И. Аветисян.

Ученый отметил, что отечественные компании уже занимаются разработкой технологий, которые бы давали возможность отслеживать происхождение сгенерированного видео, то есть использованную для этого нейросеть. При этом многие проблемы в этой задаче пока не решены: открытым остается вопрос, можно ли добавить «подпись» в данные, на которых будет обучаться модель. Однако команда А.И. Аветисяна рассчитывает, что в сотрудничестве со Сбером сможет найти необходимый технологический ответ.

«Зачем это нужно компаниям? Потому что даже сейчас очень много случаев, когда публикуется политически ангажированный или порнографический контент, а потом его создатели заявляют, что видео было создано при помощи Сбербанка или еще кого-то. Компании хотят защититься от этого, и государство, понятно, тоже должно быть защищено. Технологии водяных знаков позволят всем нам проще администрировать информационное пространство», — объяснил академик.

При этом А.И. Аветесян заострил внимание на том, что технологически, без подписи, отличить дипфейк от реальной видеозаписи невозможно. Да, существуют и разрабатываются детекторы, но они всегда будут в позиции «догоняющих». Еще недавно технология были передовые работы, где определяли подделку по пульсу на лице То есть можно было определить дипфейк, потому что пульс на лице и другой части тела отличался. Сейчас же технологии дошли до того уровня, что и пульс может быть подделан.

«Я на всякий случай подчеркну: я не за криминализацию искусственного интеллекта! Я за то, чтобы мы, как потребители, были защищены. Когда я смотрю что-нибудь, я должен иметь возможность нажать клавишу и знать — смотрю ли я реальное видео или нет. Запреты — это не наш путь, но знать, как гражданин, я должен», — подвел итог академик.

Арутюн Ишханович Аветисян — математик, специалист в области системного программирования, доктор физико-математических наук, академик РАН, директор Института системного программирования им. В.П. Иванникова РАН.  Под руководством и при непосредственном участии ученого были получены фундаментальные, не имеющие аналогов в России результаты в области безопасности программного обеспечения. Заведует кафедрами системного программирования факультета вычислительной математики и кибернетики МГУ им. М.В. Ломоносова, факультета управления и прикладной математики МФТИ и факультета компьютерных наук НИУ ВШЭ.

Новость подготовлена при поддержке Министерства науки и высшего образования РФ