Цифровизация и информационные технологии стали частью нашего существования. Но наряду с очевидными плюсами все отчетливее проявляются минусы. Социальные сети и поисковые системы научились подстраиваться под наши интересы и влиять на принятие решений. Стремление крупных компаний угодить пользователям имеет серьезный побочный эффект — появляются «информационные пузыри», которые приводят к поляризации общества. О том, как не угодить в один из них, — интервью с профессором РАН Константином Вячеславовичем Воронцовым.

Константин Вячеславович Воронцов — доктор физико-математических наук, профессор Российской академии наук, профессор кафедры математических методов прогнозирования факультета вычислительной математики и кибернетики МГУ им. М.В. Ломоносова.

— На одном из заседаний президиума РАН вы упомянули, что информационные технологии в некотором смысле вышли из-под нашего контроля. В чем это проявляется?

— Хорошо, что вы начали именно с этого вопроса. Это высказывание можно истолковать превратно, если вырвать его из контекста. Поэтому оно требует пояснения. Заседание было посвящено искусственному интеллекту в контексте информационной безопасности. А мой доклад — применению технологий искусственного интеллекта для обеспечения информационной безопасности государства и общества.

Сегодня мы все пользуемся интернетом. Он воспринимается обществом как благо. Поэтому мы совершенно точно никогда от него не откажемся. Но у каждой технологии есть две стороны. С одной стороны, интернет обеспечил нам небывалую свободу обмена информацией и выражения своих идей и мнений. С другой стороны, каждый человек получил возможность распространения информации, которая раньше была доступна только профессиональным СМИ. Но за достоверность этой информации он не отвечает. Пока не отвечает. Любой пользователь может распространять слухи, сплетни, лженаучные и конспирологические теории, непреднамеренные заблуждения и намеренную проплаченную ложь. При определенных, чисто технических усилиях человек может быть услышан миллионами людей в разных уголках планеты. Еще 30 лет назад мы не могли и мечтать о подобном. Конечно, люди врали друг другу на протяжении всей человеческой истории. Однако сейчас это явление приобрело новые формы и масштабы и получило название постправды.

Мы склонны верить в такую ложь, которая нам приятна или утешительна, которая укладывается в нашу персональную картину мира, создает ощущение психологического комфорта. Что поделать, мы так устроены, такова наша природная склонность, которая отчетливо проявляется, если ее не контролировать сознательно. Мы охотно делимся домыслами и вымыслами. Раньше они распространялись не спеша, старушками на лавочках, а теперь — почти мгновенно, с помощью смартфонов.

Истина всегда одна, зато версий лжи огромное количество — пойди найди среди них правду. Капля в море. В поисках информации в интернете мы натыкаемся на все эти версии, на их опровержения, на опровержения опровержений. И те и другие могут звучать убедительно. И даже если ложь давно опровергнута, а правда была найдена и восторжествовала, все эти версии лжи продолжают существовать и размножаться в информационном пространстве. И люди продолжают ежедневно сталкиваться с дилеммой: чему из этого верить. Явление «неопровержимой лжи» — не новое для человечества. Новым оказался его масштаб. Все может быть подвергнуто искажению и сомнению. Любое искажение может оказаться кому-то выгодно.

— Как решить эту проблему?

— В подобных информационных условиях важно приобретать навыки информационной гигиены, развивать критическое мышление. Анализируя полученную информацию, необходимо всегда задавать себе вопрос: почему я знаю то, что я знаю? Из какого источника получено это знание? Есть ли у источника корыстная заинтересованность в искажении информации? Стоит ли за искажением какая-то идеология?

Информационная безопасность- от цифровой гигиены до криптографии

Каждый из нас сегодня вынужден проводить собственное детективное расследование буквально по любому поводу — от покупки вещей до доверия властям. Но, конечно, у людей нет на это ни времени, ни сил, ни навыков. Ведь мы относительно недавно столкнулись с такой информационной реальностью. Пока не все осознают, насколько критически надо относиться ко всему, что опубликовано в социальных сетях и средствах массовой информации. Кстати, Оксфордский словарь объявил термин «постправда» словом 2016 г. после президентских выборов в США и референдума о выходе Великобритании из Европейского союза — Брекзита. Эти события наглядно показали, что убеждать своих оппонентов можно вообще без доводов и фактов, только на эмоциях.

«Неопровержимая ложь» порождает еще одно интересное явление —«информационные пузыри». Речь идет о больших стратах общества, которые замыкаются в каких-то предубеждениях или теориях заговора. Например, в лунный заговор верит около половины населения России, согласно опросу ВЦИОМ. Опровергнутый сотни раз фейк продолжает бередить умы наших соотечественников от простого люда до государственных чиновников. Психологическая суть этого массового когнитивного искажения ясна: приятно и утешительно осознавать, что геополитический противник слаб и погряз во лжи. Опасное предубеждение. Кстати, ложь в наше время всегда перемешана с правдой, вопрос лишь в том, в какой пропорции и как понять, что есть что.

Технологии социальных сетей, поисковых и рекомендательных систем, рекламных сетей и планирования медиакампаний значительно усиливают явления «неопровержимой лжи» и «информационных пузырей», исходно имеющие чисто социальную природу. Именно это я и имел в виду, когда говорил, что технологии вырвались из-под контроля.

— А можно ли считать фейковые новости и приложения для создания дипфейков последствием эпохи постправды?

— Скорее, этим технологиям не повезло появиться в эпоху постправды, в такой политической атмосфере, где они представляют угрозу для общества и в этом смысле вырываются из-под контроля. Они способны окончательно утопить каплю правды в море разнообразных версий лжи. Действительно, можно синтезировать компрометирующее видео про любого человека. Ему будет довольно трудно доказать, что он ничего преступного не делал. Можно создавать псевдоновости с помощью нейронных сетей. Они обучались по выборке из миллиардов новостных сообщений и могут генерировать нечто похожее на то, что уже знают. Обычному человеку будет казаться, что эта новость реальна. Но по факту это будет набор слов, связанных между собой машиной, которая ничего про внешний мир не знала. А поскольку нейронная сеть способна генерировать миллионы фейковых новостей в минуту, то вся эта разнообразнейшая ложь затруднит поиск правды. Эта ситуация сравнима с примером из военной области. При запуске ракеты выбрасывается куча ложных целей для обмана системы ПВО. Так вот, ежедневно в нас могут «лететь» 200 ложных версий одних и тех же событий. А мы это все воспринимаем и подчас не можем отличить истину от лжи.

Но надо понимать, что эти опасности порождают не технологии, а то, как их используют люди. Это люди создают друг для друга угрозы и опасности, и не надо винить в этом технологии. Современное общество живет на пороховой бочке, и даже не на одной. При этом постоянно подсыпает пороха.

Для каждой технологии должна быть своя инструкция по эксплуатации и технике безопасности. Но для современных технологий, которые возникли недавно, еще не все опасности осознаны. Обязанность ученых — работать над средствами защиты и разъяснять обществу, в чем именно опасность.

Константин Вячеславович Воронцов

Константин Вячеславович Воронцов

Фото: Андрей Луфт / Научная Россия

Мир всегда балансирует на грани добра и зла. Эта дилемма относится ко всем технологиям, которые мы создаем. Они несут одновременно и опасности, и возможности. По мере того как технологии будут становиться мощнее, все труднее будет находить баланс. Это вызов, который человечество бросает само себе.  

— То есть дело в нас самих?

— Конечно.

— А информационные технологии — это просто инструмент.

— Конечно. Топор — тоже инструмент. Им можно старушку зарубить, как в известном романе, а можно дом построить.

— Как в таких условиях говорить об информационной безопасности? Или современное интернет-пространство уже нельзя считать таковым?

— Конечно, не все так плохо. На всякий меч найдется щит. В свое время все боялись спама и компьютерных вирусов. Но сегодня против спама есть антиспам, против вирусов есть антивирус. Против плагиата — антиплагиат. Поэтому неизбежно появятся антифейк, антипостправда, антипропаганда.

Создателям новых технологий приходится определяться, на какой они стороне — светлой или темной? Это выбор принципиальный и бескомпромиссный. Я никогда не стану работать над технологией, которая генерирует фейки, но мне было бы интересно создать технологию, которая фейки распознает.

Думаю, что скоро появятся расширения для браузеров, которые будут подсказывать пользователю, где в тексте содержится обман, где приемы речевой манипуляции, какие существуют альтернативные мнения, где искать доказательства или опровержения. Людям необходимы ориентиры в реальности постправды, поэтому появление таких технологий неизбежно.

— Можно ли сказать, что чем выше уровень цифровизации, тем больше рисков появляется в интернет-пространстве?

— Я бы обобщил это утверждение. Чем больше человечество создает новых технологий и чем они мощнее, тем больше появляется рисков. И это относится не только к интернету, а ко всем технологиям — от биологических и медицинских до военных и космических. Каждая из них создает опасности. Но без технологий нет прогресса и развития.

— А какие еще проблемы существуют сегодня в современной отрасли информационной безопасности?

— Не могу говорить за всю отрасль — я специалист в области искусственного интеллекта, а не информационной безопасности. На стыке этих областей в числе прочего находятся проблемы мониторинга информационного пространства, автоматической детекции фейков, манипуляций, поляризации общественного сознания и других признаков информационных войн. Кстати, с этим связано одно интересное наблюдение: в 2016 г. в научной литературе тема детекции фейков (fake news detection) буквально взорвалась. Число публикаций выросло за год-другой в 50 раз. В эти исследования активно включились технологические сообщества анализа данных и ИИ. В то же время число гуманитарных исследований в области информационных войн (information warfare) никак не отреагировало на хайп и осталось на прежнем уровне. Традиционно там крайне мало количественных исследований на материале больших данных с использованием технологий ИИ. Налицо разобщенность двух огромных научных сообществ. Объединение их усилий в междисциплинарной работе — важная задача, требующая решения в ближайшее время.

Сегодня проблематика информационных войн не только крайне важна, но и очень технологична. И даже не только с точки зрения геополитических и военных конфликтов. Компании, работающие на высококонкурентном рынке, подвергаются медиаатакам практически ежедневно. Это явления, с которыми раньше рядовые граждане, быть может, не сталкивались, но сейчас мы все подвержены этим воздействиям. Нам всем необходимы новые технические средств антифейка, антипропаганды, антипостправды.

— А что может сделать обычный человек, не имеющий отношения ни к политике, ни к крупным компаниям, чтобы обеспечить собственную информационную безопасность?

— Это очень важный вопрос. Уровень осведомленности людей по этому вопросу крайне низкий. Нам часто говорят о необходимости критического мышления, что «надо думать своей головой». Увы, это пустые слова и недооценка реальной степени опасности. Мы находимся в ловушке собственной психики. Вы знаете, что каждые девять из десяти людей считают себя умнее среднего? Точно так же каждый из нас полагает: «Уж я-то точно обладаю критическим мышлением и думаю своей головой». И продолжает сидеть в своем комфортном информационном пузыре.

Нужны общедоступные образовательные курсы, которые рассказывали бы о средствах информационной гигиены, когнитивных искажениях, пропаганде и манипулировании, истории научного познания и о том, как заблуждения распространяются в социуме. Нужны навыки выживания в токсичной информационной среде, которые нарабатываются путем разбора конкретных примеров. Эти знания и навыки должны стать базовыми. Их основы необходимо преподавать в школе.

Сегодня уже систематизированы сотни когнитивных искажений, из-за которых мы можем неправильно интерпретировать даже истинную, но фрагментированную информацию. Есть огромное количество примеров из истории науки, на которых можно проиллюстрировать каждое из них. Таких уроков или курсов, которые учат мыслить и расширяют кругозор, не хватает сегодня в школах и университетах.  

Рациональное мышление и кругозор даются вместе с хорошим образованием при условии, что человек не ленив и мотивирован искать правду. Почему мы все чаще слышим суждение, что таких людей очень мало? В советское время их было достаточно. Вот и иллюстрация того, как работает пропаганда — негативная и позитивная. В нашей недавней истории есть масса примеров того, как это происходит. В 1990-е гг. нам буквально за несколько лет перевернули отношение ко многим вещам, которые казались незыблемыми. Наука была объявлена ненужной, культура — второстепенной, подвиги — фальшивыми, достижения — не имеющими особой ценности. Появились демотиваторы типа «Если ты такой умный, то почему такой бедный?» и прочие в том же духе. Они начали менять систему ценностей населения огромной страны. Нам навязывался общенациональный комплекс неполноценности, цель которого — ввести население в депрессию, остановить созидательное развитие.

Опыт Китая был более успешным. Там вовремя осознали, что нельзя формировать у своего населения депрессивное сознание, хотя в их истории было ничуть не меньше ошибок и трагических страниц, чем в нашей. Но пропаганда была позитивной — признавалось соотношение 70/30 в оценке числа верных и ошибочных решений Великого Кормчего. Конечно, это оценка «с потолка». Но смотреть в будущее, развиваться и совершенствоваться гораздо проще с убеждением, что осталось лишь исправлять незначительные ошибки прошлого, а не перестраивать все заново.

Константин Вячеславович Воронцов

Константин Вячеславович Воронцов

Фото: Андрей Луфт / Научная Россия

— Вернемся к первому вопросу об утрате контроля над технологиями. Как его вернуть?

— Если подходить к вопросу системно, то средства противодействия должны работать на трех уровнях.

На уровне государственном нужна глобальная система мониторинга информационного пространства. Роскомнадзор постоянно ведет работу по обнаружению и блокировке сайтов, распространяющих запрещенную информацию, связанную с терроризмом, экстремизмом, наркотиками и десятками прочих видов противоправной активности. Существует также поток информации, не подпадающий под действие законодательства, опасность которого менее очевидна или трудно идентифицируема, например фейки, идеологические и информационные войны. Невозможно запретить все. Необходим правильный баланс между безопасностью и свободой слова. Его выработка невозможна без общественного консенсуса, гласного или негласного соглашения между властью и гражданским обществом.

Второй уровень — общественные организации и профессиональные сообщества, занимающиеся перепроверкой фактов (fact checking). Обычно это журналистские сообщества и волонтеры. Им требуется технологическая поддержка в виде специализированных информационно-поисковых систем. Более сотни таких платформ появилось во всем мире за последнее годы.

Третий уровень — персональная защита пользователей интернета. Должны быть созданы встроенные системы антифейка или антипостправды, предупреждающие пользователя о потенциальной угрозе: читаемый им текст манипулятивный, содержит лженаучные представления, замалчивания или иные приемы пропаганды, несет в себе элементы определенной идеологии. Невозможно, да и неправильно запрещать людям это читать. Но можно давать подсказки и снабжать ссылками.

— А в России подобные технологии разрабатываются?

— Да. Возможно, не на всех уровнях и я не все их знаю. Хотелось бы, конечно, чтобы таких разработок было больше. Сейчас мы организуем в Институте искусственного интеллекта МГУ лабораторию, которая будет заниматься исследованиями и разработками технологий для выявления фейков, речевых манипуляций, поляризации общественного мнения, психоэмоциональных воздействий текста на человека.

Нас интересуют как негативные, так и позитивные воздействия. Замечу, что слова «пропаганда» и «идеология» изначально были нейтральными, только потом стали ругательными. Пропаганда — это распространение идей. Идеология — это цельная картина мира, побуждающая к практической деятельности. Но распространять ведь можно как созидательные, так и разрушительные идеи. Очень важно, чтобы создатели технологий закладывали в них позитивные ценностные установки. Они хотят только деньги заработать или изменить мир к лучшему — сделать его более удобным, более умным, более безопасным? К сожалению, эти ценности не всегда совместимы.

Любой ученый задается вопросами «Зачем я занимаюсь именно этим исследованием?» или «К чему в итоге приведут мои разработки?» Ожидается, что в пределах двух-трех десятилетий искусственный разум превзойдет человеческий. Но почему-то Рэймонд Курцвейл и другие футурологи рисуют не слишком радужные, часто апокалиптические картины будущего. Почему в их прогнозах достижения превращаются в угрозы? Думаю, потому, что они экстраполируют в будущее современное технократическое мышление «Сделал потому, что мог», пронизанное идеологией индивидуализма. Новое цивилизационное мышление должно исходить из другого принципа: «Сделал ради сохранения и развития человеческой цивилизации».

Человеческая цивилизация создала столько потенциальных опасностей, что скоро станет невозможно воевать, придется договариваться. Мы на пороге важной развилки: либо мы самоуничтожимся как цивилизация, либо изменим к лучшему наши политику и экономику, социальные отношения, нашу психику или даже биологию. Как минимум — наше целеполагание.

Поэтому я считаю своим долгом и приоритетом заниматься теми технологиями, которые уменьшают риски и опасности, а не создают новые.

Не так давно я стал вести на платформе «Яндекс.Дзен» блог «Цивилизационная идеология», где обсуждаю будущее искусственного интеллекта, явления постправды и пропаганды с точки зрения цивилизационной системы ценностей.

— А чем грозит бездействие в этой сфере?

— Любые бездействие и некомпетентность ведут к потере темпов развития и всегда проигрывают труду и знаниям. Это же очевидно! Если вас кто-то пытается убедить в обратном, то это пропаганда, причем негативная.

— Существуют ли исследования, анализирующие то, как эта сложившаяся реальность влияет на мнения людей и на принятие решений?

Исследований довольно много. Одним из первых можно считать древнекитайский трактат «Искусство войны» Сунь-Цзы, ему около 2,5 тыс. лет. Вот одна из знаменитых цитат из него: «Пусть на улицах вражеской столицы шепчутся, что князь обворовывает народ, советники его предали, чиновники спились, а воины голодные и босые. Пусть жители калечат имя своего князя и произносят его неправильно... Пусть им при сытой жизни кажется, что они голодают. Пусть состоятельные жители завидуют тем, кто в княжестве Вэй пасет скот. Разжигайте внутренний пожар не огнем, а словом, и глупые начнут жаловаться и проклинать свою родину. И тогда мы пройдем через открытые ворота».

Поисковые системы сделали благое дело, приблизив знания к людям. Сегодня не надо ходить в библиотеку, не надо долго выискивать информацию или находить эксперта, который помог бы решить проблему. Набрал запрос, не сходя с рабочего места, — получил ответ. Но верен ли этот ответ? Знание ли мы нашли или это чьи-то заблуждения, предубеждения, корыстный обман? А может, это токсичное сообщение из княжества Вэй?

Интервью проведено при поддержке Министерства науки и высшего образования РФ и Российской академии наук.