Фото слева: В. Терехов, источник: Интерфакс, Справа: К. Воронцов, Фото: архив портала "Научная Россия", фотограф - Андрей Луфт

Фото слева: В. Терехов, источник: Интерфакс, Справа: К. Воронцов, Фото: архив портала "Научная Россия", фотограф - Андрей Луфт

 

После Президиума РАН на тему  "Искусственный интеллект в контексте информационной безопасности" спецкор INTERFAX.RU Вячеслав Терехов записал актуальное интервью с профессором  РАН Константином Воронцовым. Представляем его вам.

Корр.: На заседании эта тема обсуждалась несколькими докладчиками, которые затронули темы доверия к искусственному интеллекту (ИИ), его устойчивости к атакам, этики применения ИИ в таких областях как медицина и образование, влияния технологий ИИ на безопасность государства и общества.

В частности, один из докладчиков, профессор РАН Константин Воронцов, даже заметил, что "информационные технологии в определённом смысле вышли из-под нашего контроля, но те же технологии способны помочь вернуть нам этот контроль". По окончанию заседания я попросил К.В. Воронцова более подробно остановиться на этом выводе.

Вырвались из-под контроля!

Воронцов: Пока футурологи рассуждали о восстании машин в далёком будущем, некоторые угрозы незаметно реализовались в настоящем и прочно вошли в нашу жизнь вместе с теми великолепными возможностями, от которых мы уже никогда не откажемся.

Социальные сети, поисковые и рекомендательные системы научились подстраиваться под наши интересы. Это сервисы, основанные на технологиях искусственного интеллекта. Стремление угодить пользователям естественно для коммерческих платформ, которые монетизируют внимание аудитории. Но есть и побочный эффект этого стремления — так называемые "информационные пузыри", которые приводят к поляризации общества.

Могут существовать два разных блога, в которых высказываются противоположные точки зрения на одно и то же событие. В обоих лайки и поддакивания. Эти два сообщества не замечают друг друга и не способны к диалогу. В случае социально значимых вопросов, таких как пандемия, миграция или отношение к власти, поляризация может перерастать в социальную напряжённость и конфликты, поскольку каждый чувствует за собой толпу сторонников.

Появление информационных пузырей

Люди получили возможность быстро находить комфортные для себя компании единомышленников. Не страшно, если речь идёт об определении стиля одежды или способа развлечения на выходных. Однако те же механизмы определяют наше отношение к пандемии, собственному здоровью и безопасности, к вопросам внутренней и внешней политики, к лженаучным и конспирологическим теориям. Например, по данным социологов, наше общество расколото примерно пополам по вопросу "были ли американцы на Луне". А это один из триггерных вопросов о картине мира и идеологических установках граждан нашей страны. Другой пример — в наши дни мы наблюдаем, как домыслы антиваксеров мешают остановить пандемию и уносят сотни тысяч жизней.

Корр.: Распространение фейков — это ещё одна опасность?

Воронцов: Да. Ложную историю исходно могли придумать с целью развлечения, но позже другие люди выдали её за факт. Как докопаться до истины, если у человека нет на это ни времени, ни достаточной мотивации? Пропагандистские и идеологические воздействия легко скрывать за так называемым "инфотейментом", ещё одним новым способом потребления информации. Когда стирается грань между реальным миром и художественным вымыслом, человек перестаёт замечать, в какой момент, кем и с какой целью, его картина мира была искажена и стала более токсичной.

В социальных сетях любой человек или небольшая группа людей получают возможности распространения информации, ранее доступные только профессиональным СМИ. Далеко не все платформы занимаются перепроверкой этой информации. Отдельным бизнесом стали ботофермы, которые берутся имитировать любое общественное мнение на любую тему, причём эта услуга стремительно дешевеет за счёт автоматизации.

Технологии DeepFake позволяют генерировать миллионы ненастоящих новостей, и если позволить им заполонить всё информационное пространство, мы уже не сможем отыскать среди них истину. На протяжении всей истории человечества люди лгали друг другу, сплетничали и распространяли слухи. Из психологии известно, что люди распространяют ложную информацию охотнее, чем правдивую, а негативную — охотнее, чем позитивную. Так уж мы в массе своей устроены. Технологии интенсифицировали это явление. Для него даже пришлось придумать новое название "политика постправды", признавая его влияние на решения, принимаемые на самых высоких уровнях.

Корр.: Какие ещё опасности мы не заметили вовремя?

Кое-что интересное произошло в те годы, когда поисковики и социальные сети научились зарабатывать на рекламе. С одной стороны прекрасно, что такие полезные для людей сервисы стали прибыльными и получили ресурсы на развитие технологий. Но у этой медали есть и обратная сторона: отобрав львиную долю рекламных бюджетов у средств массовой информации, они фактически лишили их остатков независимости. Не думаю, что кто-то в этом коммерческом соперничестве просчитывал социальные последствия. В результате СМИ утратили функцию "четвёртой власти", им стало намного труднее иметь собственную позицию. Разнообразие мнений перешло в интернет, где требуется новая информационная культура, чтобы отличать профессиональный контент от дилетантского и не попадаться на уловки пропаганды.

Война миров продолжается

Почему Ютуб постоянно рекомендует мне "Голос Америки" (Настоящий материал (информация) произведен, распространен и (или) направлен иностранным агентом «Голос Америки» либо касается деятельности иностранного агента «Голос Америки») или "Немецкую волну", но очень быстро забывает рекомендовать новые выпуски "Время, вперёд!" с позитивным контентом о России, которые я смотрю регулярно? Могу ли я после этого надеяться, что поисковая выдача Гугла, который является владельцем Ютуба, не столь тенденциозна для жителей РФ? Это вопрос о доверии ИИ, точнее, конкретному производителю ИИ, находящемуся в юрисдикции иностранной державы, открыто объявившей информационную войну нашей стране.

Корр.: Каков должен быть ответ? Симметричный или асимметричный?

Воронцов: Человечество постоянно создаёт опасные технологии. Мы уже давно сидим на бочке с порохом. Однако всякий раз одновременно с угрозой создаются средства сдерживания и противодействия, как правило, на основе тех же технологий.

В данном случае мы говорим о создании ИИ, способного идентифицировать угрозы в информационном пространстве. Уверен, что довольно скоро в каждом браузере появится анализатор медиа-контента, предупреждающий пользователя о недостоверной информации, токсичном контенте, использовании приёмов речевой манипуляции, и дающий ссылки на доверенные источники. Встроенный поисково-рекомендательный сервис, который ничего не запрещает, не является цензором и не нарушает свободу слова; он лишь обнаруживает риск обмана, предостерегает и информирует.

Корр.: Насколько это реалистично?

Воронцов: Вполне. Это задача на ближайшие годы. Сейчас мы столкнулись с тем, что решение таких задач требует совместных усилий исследователей в области ИИ и гуманитарных наук — лингвистов, психологов, социологов, политологов, журналистов, историков. Методологически, в целом, есть понимание, как такие задачи решать. Требуется концентрация усилий и ресурсов.

 

Интервью проведено при поддержке Министерства науки и высшего образования РФ и Российской академии наук.