Реестр доверенных технологий искусственного интеллекта (ИИ) в России планируют запустить к 2027 году. Предложения рабочей группы по нему уже прошли первый этап согласования, пишут в ComNews.
Разработка реестра доверенных технологий ИИ стартует в России в 2025 году, сообщила начальник Аналитического центра кибербезопасности «Газинформсервис» Лидия Виткова. «Наша задача – подготовить часть материалов для проекта. В 2026 г. мы планируем запустить пилот. В его рамках будут протестированы взаимодействия модулей внутри государственной информационной системы и с внешними информационными системами. А в 2027 г. сам реестр должен уже появиться», – отметила она.
В 2024 году на базе Консорциума для исследований безопасности технологий ИИ была образована рабочая группа, одна из функций которой – формирование дорожных карт по запуску реестра. «Мы разработали план, включающий форсайт - метод стратегического анализа, который помогает выявлять долгосрочные тенденции и формировать сценарии развития с участием ключевых стейкхолдеров (физических или юридических лиц, которые прямо или косвенно влияют на деятельность компании или заинтересованы в ее результатах). Нашей целью было создать реестр, учитывая их мнения и предложения. На первом этапе мы провели форсайт и стратегические встречи», – рассказала Виткова.
К концу августа 2025 года рабочая группа сформирует проект технического задания для будущего реестра, добавила она.
Как пояснил депутат Госдумы, член комитета по информполитике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин, доверенный искусственный интеллект – это концепция разработки и использования ИИ-систем, которые соответствуют критериям безопасности, надежности, прозрачности и этичности. «Доверенный ИИ не просто выполняет поставленные задачи, а делает это предсказуемо, без скрытых угроз для пользователей, общества или государства. Основные принципы таких решений – защита пользовательских данных, отсутствие любой дискриминации в алгоритмах, возможность объяснения принимаемых решений и устойчивость к возможным злоупотреблениям – например, в части использования ИИ-систем в противоправных целях», – сказал Немкин.
Необходимость в доверенном ИИ возникла из-за растущих рисков, связанных с бесконтрольным применением искусственного интеллекта, подчеркнул депутат. «Например, ИИ-алгоритмы могут несправедливо отказывать в приеме на работу, системы распознавания лиц, автономные боты – распространять дезинформацию или проводить кибератаки. Доверенный ИИ призван предотвратить подобные сценарии, обеспечив соответствие технологий правовым нормам», – обратил внимание парламентарий.
По словам Немкина, создание реестра доверенных ИИ-систем решает несколько критически важных задач. «Во-первых, реестр позволит отделить проверенные, безопасные разработки от потенциально опасных или недобросовестных. Это особенно важно для госсектора, здравоохранения или сферы финансов, где ошибки ИИ могут привести к серьезным последствиям. Во-вторых, реестр помогает бизнесу и гражданам выбирать надежные продукты – это своеобразный сертификат качества. В-третьих, такая система упрощает регулирование: профильные регуляторы могут точечно ограничивать использование небезопасных алгоритмов, не замедляя развитие всей отрасли. Напомню, что уровень внедрения ИИ-решений в приоритетных секторах экономики в нашей стране сегодня составляет 31,5%, при этом в бизнесе значение доходит до 43%. Одна из задач для всей отрасли сегодня – сформировать эффективную правовую базу, а также разработать механизмы реагирования на негативные аспекты ИИ-решений. Запуск реестра – часть этой работы», – заключил парламентарий.
Разработка реестра доверенных технологий ИИ стартует в России в 2025 году, сообщила начальник Аналитического центра кибербезопасности «Газинформсервис» Лидия Виткова. «Наша задача – подготовить часть материалов для проекта. В 2026 г. мы планируем запустить пилот. В его рамках будут протестированы взаимодействия модулей внутри государственной информационной системы и с внешними информационными системами. А в 2027 г. сам реестр должен уже появиться», – отметила она.
В 2024 году на базе Консорциума для исследований безопасности технологий ИИ была образована рабочая группа, одна из функций которой – формирование дорожных карт по запуску реестра. «Мы разработали план, включающий форсайт - метод стратегического анализа, который помогает выявлять долгосрочные тенденции и формировать сценарии развития с участием ключевых стейкхолдеров (физических или юридических лиц, которые прямо или косвенно влияют на деятельность компании или заинтересованы в ее результатах). Нашей целью было создать реестр, учитывая их мнения и предложения. На первом этапе мы провели форсайт и стратегические встречи», – рассказала Виткова.
К концу августа 2025 года рабочая группа сформирует проект технического задания для будущего реестра, добавила она.
Как пояснил депутат Госдумы, член комитета по информполитике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин, доверенный искусственный интеллект – это концепция разработки и использования ИИ-систем, которые соответствуют критериям безопасности, надежности, прозрачности и этичности. «Доверенный ИИ не просто выполняет поставленные задачи, а делает это предсказуемо, без скрытых угроз для пользователей, общества или государства. Основные принципы таких решений – защита пользовательских данных, отсутствие любой дискриминации в алгоритмах, возможность объяснения принимаемых решений и устойчивость к возможным злоупотреблениям – например, в части использования ИИ-систем в противоправных целях», – сказал Немкин.
Необходимость в доверенном ИИ возникла из-за растущих рисков, связанных с бесконтрольным применением искусственного интеллекта, подчеркнул депутат. «Например, ИИ-алгоритмы могут несправедливо отказывать в приеме на работу, системы распознавания лиц, автономные боты – распространять дезинформацию или проводить кибератаки. Доверенный ИИ призван предотвратить подобные сценарии, обеспечив соответствие технологий правовым нормам», – обратил внимание парламентарий.
По словам Немкина, создание реестра доверенных ИИ-систем решает несколько критически важных задач. «Во-первых, реестр позволит отделить проверенные, безопасные разработки от потенциально опасных или недобросовестных. Это особенно важно для госсектора, здравоохранения или сферы финансов, где ошибки ИИ могут привести к серьезным последствиям. Во-вторых, реестр помогает бизнесу и гражданам выбирать надежные продукты – это своеобразный сертификат качества. В-третьих, такая система упрощает регулирование: профильные регуляторы могут точечно ограничивать использование небезопасных алгоритмов, не замедляя развитие всей отрасли. Напомню, что уровень внедрения ИИ-решений в приоритетных секторах экономики в нашей стране сегодня составляет 31,5%, при этом в бизнесе значение доходит до 43%. Одна из задач для всей отрасли сегодня – сформировать эффективную правовую базу, а также разработать механизмы реагирования на негативные аспекты ИИ-решений. Запуск реестра – часть этой работы», – заключил парламентарий.