Созданная рабочая группа, в составе которой юристы, эксперты консалтинговых компаний и депутаты, обсудит проект по государственному регулированию искусственного интеллекта (ИИ), поскольку он оценивается как имеющий «угрожающий уровень риска». Об этом со ссылкой на источники сообщило РБК.

ИЗВЕСТИЯ/Анна Селина

В пояснительной записке к документу под названием «О регулировании систем искусственного интеллекта в России» говорится, что его разработка велась в рамках реализации Национальной стратегии развития ИИ до 2030 года. Специалисты обсуждали инициативу на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на тематических дискуссионных площадках.

Законопроект предусматривает обозначение понятий и технологий ИИ. Документ также вводит требования в маркировке систем ИИ и их классификацию по уровню риска.

Депутаты предлагают запретить в России опасные системы, создающие угрозу безопасности личности, общества и государства, ввести ответственность за причинение вреда для жизни, проработали вопрос прав на результат интеллектуальной деятельности, который был создан с использованием ИИ.

При принятии документа операторам и разработчикам систем ИИ необходимо выполнить его требования в течение года после вступления в силу. Кроме того, созданные до принятия проекта системы ИИ с высоким уровнем риска должны будут пройти обязательную сертификацию в течение двух лет.

Как сообщало ИА Регнум, до 1 января 2026 года президент России Владимир Путин ожидает доклада об ужесточении наказания за преступления с применением ИИ. Перед правительством и Центробанком глава государства поставил задачу оценить эффективность осуществляемых мероприятий по развитию цифровой грамотности россиян и разработать комплекс мер по её повышению и популяризации цифровых навыков.

Ранее Путин предложил создать в России механизмы нормативно-правового регулирования массивов данных для развития ИИ. Президент назвал очевидным, что в связи с появлением ИИ и его внедрением в различных сферах деятельности человечество переходит к новому этапу существования. Эта технология обладает колоссальным потенциалом, но также несёт определенные риски.