В среду, 13 марта, Европейский парламент большинством голосов одобрил закон об искусственном интеллекте (ИИ). Соответствующее постановление, согласованное в декабре 2023 г. на переговорах ЕП с государствами-членами Евросоюза, поддержали 523 парламентария, 46 высказались против, 49 воздержались. Это первый в мире закон, регулирующий разработку и применение ИИ.
Закон вводит четыре «категории риска» — низкую, среднюю, высокую и неприемлемую для систем, основанных на ИИ, и запрещает использование технологий, нарушающих права граждан.
В частности, запрещены системы биометрической идентификации, которые используют изображения лиц из интернета и записи камер видеонаблюдения для создания баз данных. Запрещено использование систем распознавания лиц в режиме реального времени в общественных местах, а также систем распознавания эмоций, «социального рейтинга» и профилирования. А также ИИ, который «манипулирует поведением человека или эксплуатирует уязвимость людей».
Правоохранительным органам запрещается использование систем биометрической идентификации за исключением особых случаев, таких как поиск пропавшего человека или предотвращение террористической атаки.
Согласно законопроекту, системы искусственного интеллекта, входящие в категорию высокого уровня риска, должны быть прозрачными и обеспечивать человеческий контроль. В категорию входят «критически важные инфраструктуры, образование и профессиональная подготовка, частные и государственные услуги, например, здравоохранение, банковское дело, определенные системы правоохранительных органов, миграция и управление границами, правосудие и демократические процессы».
Системы ИИ общего назначения должны соответствовать определенным требованиям прозрачности, включая соблюдение законодательства ЕС об авторском праве. А изображения, созданные или обработанные с применением ИИ, должны быть промаркированы.
Граждане будут иметь право подавать жалобы на системы ИИ.
Содокладчик Комитета по внутреннему рынку Брандо Бенифей во время пленарных дебатов сказал, что первый в мире обязательный закон об искусственном интеллекте поможет бороться с дискриминацией и обеспечит прозрачность. Теперь неприемлемая практика ИИ будет запрещена в Европе, а права работников и граждан будут защищены.
«Евросоюз — пока единственная юрисдикция в мире, которая пытается пойти путем запретов. То, что определенную часть технологий ИИ нужно регулировать или сертифицировать, в целом ни у кого не вызывает сомнений. Но отечественные компании, например, выступают за добровольную сертификацию (в тех случаях, когда обязательная сертификация от ФСТЭК не нужна), чтобы обеспечить высокое качество применения ИИ.
Разработчики, которые занимаются технологиями искусственного интеллекта, совместно с гуманитарным блоком должны подумать, нужны ли нам запреты, и какие конкретно. Что касается водяных знаков, с потребительской точки зрения хотелось бы при просмотре фото, видео, текста нажать на кнопку и получить ответ, сгенерированный контент или нет. Это не ограничение, а, скорее, дополнительное требование к компаниям, которые предоставляют такого рода продукцию. Нас, как потребителей, это могло бы уберечь от быстрых необдуманных решений под влиянием такого контента», — комментирует директор Института системного программирования им. В.П. Иванникова РАН академик Арутюн Ишханович Аветисян.
А.И. Аветисян рассказал, что для оценки влияния запретов в сфере применения ИИ, в том числе в экономическом плане, необходимо междисциплинарное обсуждение с участием юристов, социологов, психологов и программистов. «На нашей первой конференции «Доверенный искусственный интеллект» в мае прошлого года технический специалист одной крупной компании сказал, что запретительная политика в отношении ИИ привела к тому, что приблизительно 18-20% стартапов Евросоюза выразили намерение покинуть юрисдикцию, так как будет некомфортно вести дела. Это потенциальная проблема. Где консенсус? Можно ли не потерять эти проценты, но в то же время сделать разумные ограничения? Это нужно обсуждать совместно», — отметил специалист.
Стоит ли ориентироваться на такую практику Евросоюза, будут ли другие страны внедрять ее у себя — пока неочевидно. «Вопросы технологической безопасности можно и нужно ставить на международном уровне, а затем транслировать на национальный. Но нужно быть аккуратными с этическими вопросами. В каждой стране, да даже в отрасли, они могут быть свои. Например, в финансовой и медицинской отраслях этические требования и профессиональные стандарты вполне вероятно разные. Что же касается общетехнологических вопросов безопасности, то тут другое дело. Можно разговаривать и на уровне ООН, и в открытом режиме всем миром развивать инструментарий, который будет равнодоступен для любых стран и компаний и сможет обеспечивать высокий уровень безопасности и доверия к системам ИИ», — подытожил А.И. Аветисян.
Напомним, что вчера на выставке-форуме «Россия» была подписана Декларация об ответственной разработке и использовании сервисов на основе генеративного искусственного интеллекта. Среди подписантов — крупнейшие отечественные разработчики ИИ, вузы и отраслевые организации.
«Президент Владимир Путин уделил особое внимание применению искусственного интеллекта в недавнем Послании Федеральному Собранию. Среди задач — формирование цифровых платформ во всех ключевых отраслях экономики и социальной сферы, обеспечение роста вычислительных мощностей суперкомпьютеров в 10 раз, дополнительная поддержка компаний, которые производят оборудование для хранения и обработки данных, разрабатывают программное обеспечение. Все они будут решаться в рамках нового национального проекта "Экономика данных", который планируется запустить с 2025 г.», — рассказал вице-премьер Дмитрий Чернышенко.
Он также добавил, что в феврале этого года глава государства утвердил обновленную национальную стратегию развития ИИ до 2030 г.
Фото на странице: everythingpossible / Фотобанк 123RF, Елена Либрик / «Научная Россия».