Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MINDSMITH и компанией «Ростелеком» определили ключевые технологии с использованием искусственного интеллекта, необходимые для мониторинга интернета и обеспечения безопасности его пользователей. Эксперты предполагают, что уже в ближайшие несколько лет системы на базе искусственного интеллекта будут интегрированы в социальные сети для отслеживания деструктивного контента в режиме реального времени. Но пока полностью доверять нейросетям проверку фактов не стоит.
Эксперты Роскомнадзора, Главного радиочастотного центра (ГРЧЦ), аналитического центраMINDSMITH и компании «Ростелеком»представили обзор трендов и передовых решений в области искусственного интеллекта в России в исследовании «Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия». В частности, они выделили 12 групп технологий, соответствующих интересам профильных организаций по мониторингу и обеспечению безопасности интернет-среды. В их число вошли обнаружение дипфейков, определение контекста происходящего на видео, автоматизация мониторинга и модерации контента, распознавание лиц, извлечение смысла из текста, поддержка проверки фактов, распознавание символики, извлечение и анализ метаданных, распознавание эмоций, поддержка решений при информационных атаках, генерация и рекомендация контента.
Одной из важнейших задач государства в последнее время стала борьба с дезинформацией. По мнению аналитиков, информационные системы уже приближаются к проверке фактов в реальном времени и будут впоследствии интегрированы в социальные сети. Например, в будущем они смогут анализировать речь и потоковое видео, проверять их и, при обнаружении ложных новостей, оповещать пользователей о недостоверном контенте. Такие системы будут включать в себя комплекс нейросетей, а внедрить их в соцсети получится в течение 3–5 лет. «Внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена специальными тегами на крупных платформах. Государства смогут напрямую влиять на фактчекинг, сформировав систему тегов и отслеживая корректность разметки новостей техногигантами», — отмечается в исследовании.
Сегодня нельзя полностью положиться на искусственный интеллект в проверке фактов. Пока наиболее релевантный вариант — автоматизировать часть процессов, отмечает член комитета Госдумы по информационной политике о информационной политике, информационным технологиям и связи Антон Немкин.
«Проверка фактов приобрела особую актуальность еще во время пандемии коронавирусной инфекции и остается важной и сейчас, когда мы боремся с потоками фейков и дезинформации, которые обрушиваются на наших пользователей. Это направление уже активно развивается: например, во второй половине 2023 года Роскомнадзор должен запустить систему «Вепрь», которая сможет выявлять потенциальные угрозы в интернете. Эксперты будут анализировать поступающую информацию и прогнозировать последующее распространение деструктивных материалов. Кроме того, еще одна автоматизированная система – «Окулус» — уже работает. Она распознает изображения и символы, противоправные сцены и действия, анализирует текст в фото- и видеоматериалах. Благодаря системе можно выявить экстремистскую тематику, призывы к массовым незаконным мероприятиям или суициду, пронаркотический контент, пропаганду ЛГБТ, при этом на одно изображение система тратит всего три секунды, что в значительной степени ускоряет выявление угроз в сети. Создание таких систем – это полноценный ответ на провокации и антироссийские действия со стороны иностранных ресурсов, которые ежедневно множат в сети фейки и материалы по всем разновидностям запрещенной информации. Перспектива развития таких технологий и внедрения в эту работу возможностей искусственного интеллекта дает надежду на то, что в будущем проблему с фейками и противоправным контентом получится решить окончательно», — считает депутат.
На фоне глобальной автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения искусственного интеллекта, считают аналитики. При этом государству необходимо решить важную инфраструктурную задачу и разработать процедуры тестирования и оценки моделей ИИ — это позволит держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты. «Сегодня у нашей страны есть все для создания отечественных моделей ИИ, самый ценный наш ресурсы — это специалисты. Уже сегодня они предлагают очень качественные решения, особенно в области распознавания лиц и работы с информационными атаками, число которых в 2023 году продолжает расти, — добавил Немкин. – При этом сама по себе область ИИ должна четко регулироваться, и “Единая Россия” уже работает над законопроектом, который поможет разобраться в этом вопросе и дать людям уверенность в том, что искусственный интеллект станет им помощником, а не врагом».
Генеральный директор исследовательской компании TelecomDaily Денис Кусков также подчеркнул важность разработки законодательных норм для систем на основе ИИ, которые будут фильтровать контент в сети. Он, кроме того, отметил, что нынешний уровень развития ИИ в России позволит начать полноценное использование таких систем в перспективе пяти лет. «У нас уже есть множество подобных систем – например, в Сбере, Яндексе, Роскомнадзоре. Однако и количество аудиовизуального контента в интернете растет очень быстро. Там уже очень много ложной информации, а учитывая существующие технологические возможности по замене голоса или изображения, это создаст еще больше проблем с точки зрения законодательства. Считаю, что нужно обязательно в этом направлении работать, и интеграция технологий ИИ в соцсети должна стать одним из шагов в заданном направлении. К коллапсу это точно не приведет, потому что будут выработаны подходы, которые позволят осуществлять модерацию контента за считанные минуты. В любом случае на начальном этапе – год и более – нельзя допускать применение исключительно автоматической системы к работе. Обязательно будет необходима и работа аналитиков», — заключил он.
Источник: Регионы России
Одной из важнейших задач государства в последнее время стала борьба с дезинформацией. По мнению аналитиков, информационные системы уже приближаются к проверке фактов в реальном времени и будут впоследствии интегрированы в социальные сети. Например, в будущем они смогут анализировать речь и потоковое видео, проверять их и, при обнаружении ложных новостей, оповещать пользователей о недостоверном контенте. Такие системы будут включать в себя комплекс нейросетей, а внедрить их в соцсети получится в течение 3–5 лет. «Внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена специальными тегами на крупных платформах. Государства смогут напрямую влиять на фактчекинг, сформировав систему тегов и отслеживая корректность разметки новостей техногигантами», — отмечается в исследовании.
Сегодня нельзя полностью положиться на искусственный интеллект в проверке фактов. Пока наиболее релевантный вариант — автоматизировать часть процессов, отмечает член комитета Госдумы по информационной политике о информационной политике, информационным технологиям и связи Антон Немкин.
«Проверка фактов приобрела особую актуальность еще во время пандемии коронавирусной инфекции и остается важной и сейчас, когда мы боремся с потоками фейков и дезинформации, которые обрушиваются на наших пользователей. Это направление уже активно развивается: например, во второй половине 2023 года Роскомнадзор должен запустить систему «Вепрь», которая сможет выявлять потенциальные угрозы в интернете. Эксперты будут анализировать поступающую информацию и прогнозировать последующее распространение деструктивных материалов. Кроме того, еще одна автоматизированная система – «Окулус» — уже работает. Она распознает изображения и символы, противоправные сцены и действия, анализирует текст в фото- и видеоматериалах. Благодаря системе можно выявить экстремистскую тематику, призывы к массовым незаконным мероприятиям или суициду, пронаркотический контент, пропаганду ЛГБТ, при этом на одно изображение система тратит всего три секунды, что в значительной степени ускоряет выявление угроз в сети. Создание таких систем – это полноценный ответ на провокации и антироссийские действия со стороны иностранных ресурсов, которые ежедневно множат в сети фейки и материалы по всем разновидностям запрещенной информации. Перспектива развития таких технологий и внедрения в эту работу возможностей искусственного интеллекта дает надежду на то, что в будущем проблему с фейками и противоправным контентом получится решить окончательно», — считает депутат.
На фоне глобальной автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения искусственного интеллекта, считают аналитики. При этом государству необходимо решить важную инфраструктурную задачу и разработать процедуры тестирования и оценки моделей ИИ — это позволит держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты. «Сегодня у нашей страны есть все для создания отечественных моделей ИИ, самый ценный наш ресурсы — это специалисты. Уже сегодня они предлагают очень качественные решения, особенно в области распознавания лиц и работы с информационными атаками, число которых в 2023 году продолжает расти, — добавил Немкин. – При этом сама по себе область ИИ должна четко регулироваться, и “Единая Россия” уже работает над законопроектом, который поможет разобраться в этом вопросе и дать людям уверенность в том, что искусственный интеллект станет им помощником, а не врагом».
Генеральный директор исследовательской компании TelecomDaily Денис Кусков также подчеркнул важность разработки законодательных норм для систем на основе ИИ, которые будут фильтровать контент в сети. Он, кроме того, отметил, что нынешний уровень развития ИИ в России позволит начать полноценное использование таких систем в перспективе пяти лет. «У нас уже есть множество подобных систем – например, в Сбере, Яндексе, Роскомнадзоре. Однако и количество аудиовизуального контента в интернете растет очень быстро. Там уже очень много ложной информации, а учитывая существующие технологические возможности по замене голоса или изображения, это создаст еще больше проблем с точки зрения законодательства. Считаю, что нужно обязательно в этом направлении работать, и интеграция технологий ИИ в соцсети должна стать одним из шагов в заданном направлении. К коллапсу это точно не приведет, потому что будут выработаны подходы, которые позволят осуществлять модерацию контента за считанные минуты. В любом случае на начальном этапе – год и более – нельзя допускать применение исключительно автоматической системы к работе. Обязательно будет необходима и работа аналитиков», — заключил он.
Источник: Регионы России