Проект закона о регулировании искусственного интеллекта в России — на стадии разработки 🤖
Российские законодатели и представители бизнеса обсуждают новый законопроект, который впервые в России попытается системно подойти к регулированию технологий искусственного интеллекта (ИИ). Об этом сообщают сразу пять источников РБК, участвующих в рабочей группе, а также депутат Андрей Свинцов.
📜 Что это за документ?
Проект закона называется: «О регулировании систем искусственного интеллекта (ИИ) в России»
Он пока не внесён в Госдуму официально — обсуждения проходят в рамках рабочих групп с участием юристов, представителей «Деловой России», ИТ-компаний и консультантов.
🎯 Цель — проработка рисков и правил использования ИИ в разных сферах, прежде чем будет принят полноценный закон.
🧠 Какой ИИ хотят регулировать?
По тексту документа: ИИ — это технологический комплекс, имитирующий когнитивные функции человека, включая самообучение и принятие решений без заранее заданного алгоритма.
Включает такие технологии, как:
📸 Компьютерное зрение
🧾 Обработка естественного языка
🗣️ Распознавание и синтез речи
📊 Машинное обучение и интеллектуальный анализ данных
🏷️ Что предлагается?
✅ Ввести понятия:
ИИ-система
Разработчик ИИ
Оператор ИИ
Пользователь ИИ
⚠️ Ввести обязательную маркировку ИИ
Системы должны явно обозначать, что вы взаимодействуете с ИИ. Маркировка должна быть:
Явной
Недвусмысленной
Хорошо различимой
🚨 Классификация по уровню риска:
ИИ-системы планируют делить на 4 уровня:
❌ Неприемлемый риск — будет запрещено использовать и разрабатывать
⚠️ Высокий риск — потребует госрегистрации и сертификации
⚙️ Ограниченный риск — внутренние стандарты, добровольная сертификация
🟢 Минимальный риск — общие рекомендации
🧑⚖️ А что с ответственностью?
Предлагается ввести ответственность за причинение вреда здоровью, жизни или имуществу из-за работы ИИ:
Виноваты будут разработчики и операторы
Но освобождаются, если:
Приняли все меры по предотвращению вреда
Нарушение возникло по вине пользователя
🕐 Когда это всё заработает?
📅 Если законопроект будет принят, на выполнение всех требований у разработчиков и операторов будет один год.
🤔 Зачем это нужно?
Авторы закона утверждают, что такие меры помогут:
Защитить пользователей от злоупотреблений ИИ
Разграничить уровень допуска ИИ в разные сферы (от банального чат-бота до систем принятия решений в медицине или правосудии)
Предотвратить риски, связанные с "чёрным ящиком" ИИ
👁 Интересный факт:
Инициатива создаётся на фоне активного обсуждения роли ИИ в мошенничестве, дипфейках, манипуляции и даже автоматическом надзоре — всё это вызывает серьёзные опасения и в России, и за рубежом.