Минцифры России согласилось с инициативой Следственного комитета и депутатов о включении искусственного интеллекта (ИИ) в перечень отягчающих обстоятельств при совершении преступлений. Законопроект, разработанный во втором пакете антимошеннических мер, может в перспективе существенно расширить ответственность по статьям о мошенничестве, вымогательстве, краже и вмешательстве в ИТ-системы, если в деле был задействован ИИ.
Что именно предлагается
ИИ в проекте определяется максимально широко — как «комплекс технологических решений», способный имитировать когнитивные функции. Это определение охватывает не только продвинутые нейросети, но и более простые алгоритмы обработки данных, включая голосовых помощников, чат-ботов, генераторы изображений и синтезаторы речи.
Применение ИИ в преступлении будет приравниваться к использованию оружия или служебного положения — то есть рассматриваться как отягчающее обстоятельство. Максимальное наказание по отягчающей статье — до 15 лет лишения свободы и штраф до 2 млн рублей.
Проблема в юридической неопределённости
Юрист Ярослав Шицле отмечает, что отсутствие чёткого правового определения ИИ создаёт риск расширительного толкования закона. Это означает, что под «преступление с применением ИИ» может попасть любое действие, где фигурирует сложный софт или автоматизация — даже без злого умысла или осознания того, что используется ИИ.
Таким образом, уголовная ответственность может применяться не только к организованным группам, но и к рядовым пользователям, если они, например, неосознанно используют дипфейк-технологию в видеоролике, попадающем под подозрение.
Контекст: централизованный контроль цифровых технологий
Инициатива напрямую связана с нацпроектом «Экономика данных» и общим трендом на жёсткое регулирование цифровых инструментов в России. Подобные нормы, если будут приняты, могут стать базой для уголовного преследования:
-за распространение ИИ-контента (включая пародии и мемы),
-за применение ИИ в рамках цифрового активизма или расследовательской журналистики,
-за эксперименты с открытыми нейросетями, если кто-то сочтёт их «инструментом преступления».
Не менее важно: ответственность будет исключаться, если действия направлены на ресурсы, запрещённые в РФ. Это создаёт опасный прецедент двойных стандартов, где цель может оправдывать средство.
Чем это грозит
Угроза уголовной ответственности за использование ИИ без злого умысла, включая генерацию изображений, синтез речи и автоматизацию.
Создание базы для выборочного преследования, особенно в случаях, где цифровые технологии применяются в общественно значимом или оппозиционном контексте.
Закрепление подхода, при котором технология приравнивается к оружию, независимо от характера её применения.
Что делать
Разработчикам и активистам — фиксировать технические параметры используемых ИИ-систем и юридически отделять их от действий пользователя.
Юристам и правозащитникам — следить за формулировками законопроекта, особенно за деталями применения термина «искусственный интеллект».
Пользователям — избегать автоматизированных генераторов контента, если они могут быть интерпретированы как вводящие в заблуждение, особенно в отношении персональных данных и биометрии.
Есть вопросы, как обезопасить свои данные?
Задай вопрос экспертам в нашей службе технической поддержки!
Мы даем бесплатные консультации всем пользователям.