Правительство России разрабатывает законопроект, вводящий обязательную сертификацию систем искусственного интеллекта (ИИ) высокого и критического уровня риска в Федеральной службе по техническому и экспортному контролю (ФСТЭК) и Федеральной службе безопасности (ФСБ). Об этом сообщает РБК со ссылкой на копию документа и источники на IT-рынке.
Проект закона «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты» вводит четыре уровня критичности ИИ: минимальный, ограниченный, высокий и критический. К последним двум относятся системы, функционирующие на объектах критической информационной инфраструктуры (КИИ), а также способные угрожать жизни людей или принимать автономные решения без участия человека.
Определять уровень риска, вести реестр допущенных систем и координировать процесс будет новая структура — Национальный центр искусственного интеллекта в сфере госуправления.
Тестирование ИИ-систем на соответствие требованиям безопасности планируется проводить на специальном полигоне Минцифры, созданном по инициативе участников рынка информационной безопасности.
Документ также вводит запрет на использование на объектах КИИ систем ИИ, права на которые принадлежат иностранным лицам.
Помимо сертификации, законопроект обязывает операторов маркировать ИИ-контент, а использование таких систем в противоправных целях (в том числе для манипуляций общественным мнением или вмешательства в выборы) будет считаться отягчающим обстоятельством.
Параллельно в 2026 году стартует эксперимент по внедрению генеративного ИИ в государственном управлении — для анализа документов, законопроектов и проверки резюме кандидатов на госслужбу.
Законопроект направлен на минимизацию рисков в чувствительных сферах (госуправление, оборона, здравоохранение, КИИ), сохраняя при этом рамочный и относительно мягкий подход к регулированию ИИ в коммерческом секторе. Требования к сертификации ФСТЭК и ФСБ будут детализированы отдельными подзаконными актами.
