Новые технологии, включая искусственный интеллект и облачные решения, станут определяющими в сфере развития информационной безопасности. Другой не менее важный фактор, который должны учитывать отечественные компании – рост сложности атак.
В «Б1» отметили, что в период с 2021 по 2023 годы число киберинцидентов в России увеличилось в 3–3,5 раза. Тренд на рост атак продолжился и в 2024 году, при этом расширилась сфера воздействия атак – в 3–4 раза.
По мнению экспертов компании, киберриски перестали быть исключительно технологическим вызовом. Теперь – это приоритет бизнес-стратегии. Так, вопросы обеспечения безопасности обсуждаются на уровне высшего менеджмента, а на руководителей возлагается персональная ответственность за обеспечение информационной безопасности.
Россия входит в топ-10 стран по объемам инвестиций в информационную безопасность, отмечают аналитики. Тем не менее, в процентном соотношении затрат к ВВП Россия все еще уступает западным странам, что указывает на потенциал роста рынка. По прогнозам аналитиков, рынок кибербеза в России к 2030 году увеличится в 2,3 раза, достигнув объема в 681 млрд руб.
По словам депутата Госдумы, члена комитета по информполитике, федерального координатора партийного проекта «Цифровая Россия» Антона Немкина, искусственный интеллект может повлиять не только на утечки данных, но и принципиальным образом изменить структуру киберпреступлений. «Возможности использования технологий искусственного интеллекта для осуществления противоправной деятельности широки. С помощью ИИ-решений можно анализировать ИБ-системы организаций, создавать ботнеты и управлять ими в автоматическом режиме, а также адаптировать потоки запросов в DDoS-атаках», – рассказал депутат.
Особое беспокойство вызывает и применение ИИ-решений в мошеннической деятельности. «Сейчас злоумышленники активно внедряют искусственный интеллект для автоматизации фишинга. Например, чат-боты позволяют генерировать большое количество правдоподобных текстов, используемых для фишинговых рассылок. Новый для отрасли вызов – применение дипфейков. Уже сейчас можно встретить мошеннические схемы, в которых злоумышленники подделывают пользовательские голоса, вымогая у близких жертвы деньги», – предупредил депутат.
Немкин отметил, что в 2025 году число киберинцидентов с применением ИИ вырастет. «Помимо актуализации инструментов безопасности, необходимо в очередной раз поднять вопрос о создании доверенных ИИ-систем. Доверенный искусственный интеллект базируется на текущих законодательных требованиях и не может быть использован в противоправных целях. Схожие технологии уже внедряются в генеративные ИИ-модели, и этот тренд должен активно развиваться. В противном случае у злоумышленников появятся слишком большие ресурсы для осуществления незаконной деятельности», – подчеркнул депутат.
В «Б1» отметили, что в период с 2021 по 2023 годы число киберинцидентов в России увеличилось в 3–3,5 раза. Тренд на рост атак продолжился и в 2024 году, при этом расширилась сфера воздействия атак – в 3–4 раза.
По мнению экспертов компании, киберриски перестали быть исключительно технологическим вызовом. Теперь – это приоритет бизнес-стратегии. Так, вопросы обеспечения безопасности обсуждаются на уровне высшего менеджмента, а на руководителей возлагается персональная ответственность за обеспечение информационной безопасности.
Россия входит в топ-10 стран по объемам инвестиций в информационную безопасность, отмечают аналитики. Тем не менее, в процентном соотношении затрат к ВВП Россия все еще уступает западным странам, что указывает на потенциал роста рынка. По прогнозам аналитиков, рынок кибербеза в России к 2030 году увеличится в 2,3 раза, достигнув объема в 681 млрд руб.
По словам депутата Госдумы, члена комитета по информполитике, федерального координатора партийного проекта «Цифровая Россия» Антона Немкина, искусственный интеллект может повлиять не только на утечки данных, но и принципиальным образом изменить структуру киберпреступлений. «Возможности использования технологий искусственного интеллекта для осуществления противоправной деятельности широки. С помощью ИИ-решений можно анализировать ИБ-системы организаций, создавать ботнеты и управлять ими в автоматическом режиме, а также адаптировать потоки запросов в DDoS-атаках», – рассказал депутат.
Особое беспокойство вызывает и применение ИИ-решений в мошеннической деятельности. «Сейчас злоумышленники активно внедряют искусственный интеллект для автоматизации фишинга. Например, чат-боты позволяют генерировать большое количество правдоподобных текстов, используемых для фишинговых рассылок. Новый для отрасли вызов – применение дипфейков. Уже сейчас можно встретить мошеннические схемы, в которых злоумышленники подделывают пользовательские голоса, вымогая у близких жертвы деньги», – предупредил депутат.
Немкин отметил, что в 2025 году число киберинцидентов с применением ИИ вырастет. «Помимо актуализации инструментов безопасности, необходимо в очередной раз поднять вопрос о создании доверенных ИИ-систем. Доверенный искусственный интеллект базируется на текущих законодательных требованиях и не может быть использован в противоправных целях. Схожие технологии уже внедряются в генеративные ИИ-модели, и этот тренд должен активно развиваться. В противном случае у злоумышленников появятся слишком большие ресурсы для осуществления незаконной деятельности», – подчеркнул депутат.