В России идет активная разработка технологий по выявлению дипфейков
2023-07-07 13:25
Российские компании и государство на сегодняшний день разрабатывают технологии по выявлению дипфейков и маркировке контента в сети, рассказал замглавы Минцифры Александр Шойтов. «Тут есть две задачи, первая — определить, действительно ли это исходное изображение или оно переделанное. Это тоже технологически важная проблема, которой сейчас занимаются. И вторая — это направление, связанное с тем, чтобы мы могли некоторым образом подписать исходное изображение и тем самым определить, что оно оригинальное. Такие технологии сейчас разрабатываются. Что касается нормативного закрепления, я думаю, что это будет немного позже», — сообщил Шойтов журналистам. По его словам, первые результаты этой работы могут появиться уже в этом году.
По своей сути, дипфейк — это изображение или видео, созданное при помощи технологий искусственного интеллекта. При этом в законодательстве сегодня нет четкого определения этой технологии - работа над тем, чтобы исправить этот пробел, уже идет, напомнил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Дипфейки в последнее время все чаще используются в мошеннических целях. При том отличить реальное от нереального в сети становится все сложнее. В связи с этим, предложения по маркировке не только вновь созданного контента при помощи ИИ, но и оригинальных изображений, звучит логично. При этом первоочередной задачей сейчас все же является правовое определение этого явления, как ранее отмечал глава нашего комитета Александр Хинштейн. Соответствующий законопроект будет разработан в осеннюю сессию Госдумы. Отталкиваясь от этого, мы сможем идти в сторону дальнейшего ужесточения законодательства за использование дипфейков в преступных целях», - отметил парламентарий.
Ранее в АНО «Диалог Регионы» представили новую систему выявления дипфейков – она получила название «Зефир». Она умеет в реальном времени анализировать аудиовизуальный контент и определять, причастен ли к его созданию искусственный интеллект. Опробовать систему специалисты смогли уже в начале июня – тогда она помогла доподлинно установить, что видеоролик с «обращением» президента России Владимира Путина, который был врезан злоумышленниками в вещание ряда телеканалов и радиостанций, был подготовлен при помощи технологии дипфейк с использованием замены лица. «Итоговая оценка системы — 87%, это говорит о том, что исследованное видео однозначно является дипфейком. Тип атаки мы относим к face swap — это замена лица. В данном случае непосредственно лица Владимира Путина», — рассказывал журналистам начальник отдела аналитического обеспечения АНО «Диалог Регионы» Сергей Маклаков.
Сегодня применение таких систем нужно масштабировать, подчеркнул Антон Немкин. «Сегодня мы живем в новом мире, где такие системы становятся обязательным условием обеспечения информационной безопасности наших граждан. Здорово, что отечественные специалисты могут так оперативно адаптироваться к возникающим угрозам, эта работа должна быть масштабирована. Внедрять такие системы стоит всем соцсетям и онлайн-платформам, которые публикуют контент», - заключил он.