Власти планируют взять под контроль распространение фейков с помощью IT-системы. Подведомственный Роскомнадзору Главный радиочастотный центр ищет разработчика информационной системы, которая позволит находить в интернете "факты распространения общественно значимой информации под видом достоверных сообщений". Это следует из материалов организации, с которыми ознакомились "Известия". Стартовая цена конкурса - 60 млн рублей. Новая система должна помочь в выявлении негатива и оскорблений, кампаний по дезинформации общественности, оценивать степень влияния фейков на аудиторию и прочее. Сегодня на рынке уже есть алгоритмы для поиска примитивных фейков, но такие решения всё же предусматривают участие живого модератора, указали эксперты. Однако выявить изобретательно поданную недостоверную информацию, например связанную с манипуляцией статистическими данными, пока может только человек, признали специалисты.
Главный радиочастотный центр (ГРЧЦ), подведомственный Роскомнадзору, ищет разработчика системы раннего выявления "точек информационной напряжённости" в интернет-СМИ и на других сетевых ресурсах. Это следует из материалов ГРЧЦ, с которыми ознакомились "Известия". Стартовая цена конкурса на создание системы под условным обозначением "Вепрь" - 60 млн рублей, сказано в бумагах.
Под "точками информационной напряжённости" (ТИН) заказчик понимает "факты распространения общественно значимой информации под видом достоверных сообщений, которая создаёт угрозу причинения вреда жизни и (или) здоровью граждан, имуществу, угрозу массового нарушения общественного порядка и (или) общественной безопасности" - то есть фейки.
Алгоритм должен работать на основе математических поисковых и оптимизационных моделей и методов машинного обучения, требует от потенциальных разработчиков ГРЧЦ. "Вепрь" должен охватывать ресурсы с ежедневной аудиторией не менее 1 млн человек и уметь приоритизировать ТИН по степени их влияния на посетителей, оценивать возможность преобразования фейка в угрозу для информационной безопасности. Среди задач системы также "выявление негатива, оскорблений в отношении заданного субъектного и объектного состава" в рамках определённых тем, выявление распространения недостоверной информации по этим темам, а также целенаправленно проводимых информационных кампаний.
"Известия" направили запросы в Роскомнадзор и ГРЧЦ.
"Вепрь" - не единственная IT-система, которую подведомственное Роскомнадзору предприятие заказывает для автоматизации выявления противоправного контента в Сети. Например, как писали "Известия", в июне этого года ГРЧЦ объявил конкурс на создание информсистемы "Окулус", которая с помощью искусственного интеллекта будет выявлять нарушающие российское законодательство изображения и видеоматериалы. Как следует из технического задания, система должна анализировать не менее 200 тыс. изображений в сутки с погрешностью не более 20%. Алгоритмы должны выявлять в том числе материалы с признаками терроризма и экстремизма, призывами к массовым беспорядкам, оскорбления в адрес российских государственных символов и органов власти.
Систем, которые могли бы полностью автономно выявлять фейки в социальных сетях и интернете, в мире пока нет, отметил эксперт Российской ассоциации электронных коммуникаций (РАЭК) Карен Казарян. Twitter и Facebook (соцсеть принадлежит организации Meta, признанной в РФ экстремистской) умеют только размечать потенциально нарушающие их правила публикации для проверки людьми, рассказал он. Фейки - вещь сугубо субъективная, поэтому автоматизировать их поиск крайне сложно, но новая система могла бы использовать в качестве вспомогательного инструмента для сокращения работы модераторов, полагает эксперт.
МОНИТОРИНГ С ЧЕЛОВЕЧЕСКИМ ЛИЦОМ
Организовать мониторинг фейков несложно, продуктов для этого довольно много, отметил руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров. Заявленный бюджет проекта в 60 млн рублей даже несколько избыточен, утверждает он. Но сложности возникают с тем, какую информацию считать достоверной: здесь никаких методов и приёмов нет.
- За исключением самых элементарных - можно выявить, к примеру, когда одни лица открыто оскорбляют других, в частности связанных с государством. То есть такой контент можно выявлять там, где есть чёткая семантика. Но там, где она нечёткая, где приводится статистическая и иная сложная информация, заставляющая пользователя сделать вывод относительно достоверности тех или иных сведений, искусственный интеллект помочь не сможет. А именно такие публикации и представляют наибольшую опасность, - отметил эксперт.
Достоверность информации зачастую не в состоянии оценить даже владелец ресурса, который её размещает, - например, если она поступает из заслуживающих доверия источников, проверить высказывания которых сложно, указал Игорь Бедеров.
Создание такой системы с технической точки зрения - реальная задача, уверен руководитель направления "Разрешение IT&IP споров" юридической фирмы "Рустам Курмаев и партнёры" Ярослав Шицле.
- Похоже, что задумка надзорных органов - автоматизация анализа публикаций в СМИ и социальных сетях, а также комментариев пользователей на предмет содержания сведений, нарушающих действующее законодательство. После выявления таких публикаций возможно два сценария: либо взаимодействие ведомства с платформой на предмет понуждения к удалению контента, либо возбуждение дел на авторов контента, - считает эксперт.
Можно предположить, что в случае успеха проекта в будущем внедрять такую систему будут и владельцы интернет-ресурсов, не исключил Ярослав Шицле.
Подобные решения могут быть интересны и востребованы не только органами власти, но и структурами, отвечающими за корпоративные коммуникации, в частности антикризисные, добавил гендиректор TelecomDaily Денис Кусков.