Темпы использования технологий искусственного интеллекта (ИИ), в том числе в злонамеренных и террористических целях, в 2024 году сильно возросли, заявила эксперт по ИИ, представитель отдела контртеррористических угроз ООН Балкес Альрадван.
«Мы видим сегодня, что темп использования этих технологий в 2024 году сильно увеличился, и злонамеренное использование ИИ тоже увеличивается. Мы на это обращаем внимание», – заявила Альрадван на конференции МПАСНГ, ее цитирует РИА Новости.
По ее словам, для злонамеренного использования ИИ, в том числе для террористических целей, проводятся кибератаки. В них решения искусственного интеллекта применяются для подавления механизмов защиты и взлома паролей.
«На основе ИИ работают шпионские программы, фишинговые приложения… ИИ используется для работы дронов, для дезинформации - здесь мы говорим о "дипфейках", о манипуляции, о подделке данных и других действиях», – рассказала она.
Всего через несколько лет человеку будет сложно отличить настоящее видео от видео, созданного ИИ, подчеркнул Альрадван.
«Появляются новые технологии "дип фейков". Мы можем только думать, что будет через год, через два, через пять, насколько глубокими и умелыми станут эти инструменты и насколько опасными станут эти технологии при попадании в руки террористов… Все это нужно контролировать. Мы как люди, человеческие существа вскоре будем неспособны отличить искусственное видео от реального. Медиаорганизациям также будет очень непросто в дальнейшем определять, что настоящее, что "дипфейк», – отметила она.
Тема использования ИИ в преступных целях сейчас, действительно, стоит очень остро, отметил депутат Госдумы, член комитета по информполитике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин. «Число атак, совершенных с использованием ИИ, серьезно выросло. При этом как в отношении частных пользователей, так и в отношении коммерческого сектора. К примеру, во второй половине 2024 года в России выросла доля разведывательных атак с применением ИИ-решений, до 22% от общей структуры киберинцидентов. Также ИИ активно используется для проведения массированных DDoS-атак. Выросла и доля применения ИИ в сетевом мошенничестве. Чаще всего ИТ-преступникиавтоматизируют фишинговые атаки при помощи нейросетей. До 40% фишинговых сообщений, рассылаемых по электронной почте, могут бытьсгенерированы ИИ», – отметил депутат.
По прогнозу экспертов рынка, в 2025 году технологии нейросетей и чат-ботов с искусственным интеллектом будут использовать около 90% нелегальных кибергруппировок. Тем не менее, искусственный интеллект – только инструмент в руках человека, подчеркивает Немкин. «Тренд на развитие доверенных ИИ-систем, очевидно, сегодня должен стать глобальным. Такие модели не могут быть использованы в противоправных целях. В России, к примеру, к 2027 году планируется запустить реестр доверенных ИИ-технологий. Сейчас повышенная ответственность лежит на разработчиках ИИ-продуктов – необходима приоритизация информационной безопасности их технологий. Уже сейчас можно найти взломанные версии ИИ-моделей, которые могут быть использованы в противоправных целях. Такого, конечно, быть не должно», – подчеркнул депутат.
Немкин напомнил, что Россия выступила инициатором первой в истории Конвенции по борьбе с киберпреступностью. «Она одобрена Генассамблеей ООН. Конвенция охватывает несколько направлений международного сотрудничества в сфере информационной безопасности. И важно, чтобы к ней присоединились как можно больше стран. Это создаст прочный фундамент для борьбы с преступностью», – подчеркнул депутат.
«Мы видим сегодня, что темп использования этих технологий в 2024 году сильно увеличился, и злонамеренное использование ИИ тоже увеличивается. Мы на это обращаем внимание», – заявила Альрадван на конференции МПАСНГ, ее цитирует РИА Новости.
По ее словам, для злонамеренного использования ИИ, в том числе для террористических целей, проводятся кибератаки. В них решения искусственного интеллекта применяются для подавления механизмов защиты и взлома паролей.
«На основе ИИ работают шпионские программы, фишинговые приложения… ИИ используется для работы дронов, для дезинформации - здесь мы говорим о "дипфейках", о манипуляции, о подделке данных и других действиях», – рассказала она.
Всего через несколько лет человеку будет сложно отличить настоящее видео от видео, созданного ИИ, подчеркнул Альрадван.
«Появляются новые технологии "дип фейков". Мы можем только думать, что будет через год, через два, через пять, насколько глубокими и умелыми станут эти инструменты и насколько опасными станут эти технологии при попадании в руки террористов… Все это нужно контролировать. Мы как люди, человеческие существа вскоре будем неспособны отличить искусственное видео от реального. Медиаорганизациям также будет очень непросто в дальнейшем определять, что настоящее, что "дипфейк», – отметила она.
Тема использования ИИ в преступных целях сейчас, действительно, стоит очень остро, отметил депутат Госдумы, член комитета по информполитике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин. «Число атак, совершенных с использованием ИИ, серьезно выросло. При этом как в отношении частных пользователей, так и в отношении коммерческого сектора. К примеру, во второй половине 2024 года в России выросла доля разведывательных атак с применением ИИ-решений, до 22% от общей структуры киберинцидентов. Также ИИ активно используется для проведения массированных DDoS-атак. Выросла и доля применения ИИ в сетевом мошенничестве. Чаще всего ИТ-преступникиавтоматизируют фишинговые атаки при помощи нейросетей. До 40% фишинговых сообщений, рассылаемых по электронной почте, могут бытьсгенерированы ИИ», – отметил депутат.
По прогнозу экспертов рынка, в 2025 году технологии нейросетей и чат-ботов с искусственным интеллектом будут использовать около 90% нелегальных кибергруппировок. Тем не менее, искусственный интеллект – только инструмент в руках человека, подчеркивает Немкин. «Тренд на развитие доверенных ИИ-систем, очевидно, сегодня должен стать глобальным. Такие модели не могут быть использованы в противоправных целях. В России, к примеру, к 2027 году планируется запустить реестр доверенных ИИ-технологий. Сейчас повышенная ответственность лежит на разработчиках ИИ-продуктов – необходима приоритизация информационной безопасности их технологий. Уже сейчас можно найти взломанные версии ИИ-моделей, которые могут быть использованы в противоправных целях. Такого, конечно, быть не должно», – подчеркнул депутат.
Немкин напомнил, что Россия выступила инициатором первой в истории Конвенции по борьбе с киберпреступностью. «Она одобрена Генассамблеей ООН. Конвенция охватывает несколько направлений международного сотрудничества в сфере информационной безопасности. И важно, чтобы к ней присоединились как можно больше стран. Это создаст прочный фундамент для борьбы с преступностью», – подчеркнул депутат.