Российские власти хотят построить «суверенный» ИИ: что стоит за инициативой?

#Безопасность #РаспознаваниеЛиц #БПД #Госрегулирование #Госконтроль #Нейросети #Импортозамещение #Информационная безопасность #Цифровой суверенитет

В Госдуме прошло заседание экспертного совета, где ключевой темой стало формирование правовой базы для искусственного интеллекта с опорой на «суверенные» технологии. Участники заседания, включая депутатов, сенаторов, чиновников и экспертов, заявили о необходимости отхода от зарубежных ИИ-систем, поскольку те, как считают инициаторы, «отражают национальные интересы стран-разработчиков» и могут не соответствовать интересам России.

Что обсуждали
Зампред Госдумы Александр Бабаков обозначил главные ориентиры: баланс между технологическим прогрессом и минимизацией рисков, центральная роль «интересов человека», гибкость регулирования. В числе ключевых тем — безопасность, защита персональных данных и адаптация законов к быстро меняющейся среде. Упор был сделан на необходимость отказа от зарубежных решений в пользу отечественных, «суверенных» систем ИИ.

Контекст: как сейчас регулируется ИИ в России
Существует Национальный центр развития ИИ;
Принят Кодекс этики ИИ;
С 2020 года действует закон о регуляторной песочнице для ИИ в Москве;
Принят закон о страховании ответственности за вред от ИИ.
Однако пока речь идёт о фрагментарных инициативах без единой стратегии регулирования. Новая волна обсуждений указывает на движение к централизованному и идеологически мотивированному подходу.

Чем грозит: риски и последствия
Цензура и контроль. Суверенные системы ИИ могут встраиваться в модель цифрового надзора, где контроль за данными и результатами обработки концентрируется в руках государства.
Ограничение доступа к глобальным ИИ-инструментам. Если зарубежные системы будут признаны «угрозой суверенитету», доступ к ним может быть ограничен — как это уже происходит с другими интернет-сервисами.
Изоляция и отставание. В условиях санкций и технологического отставания попытка создать «полностью отечественный ИИ» может привести к снижению качества и функциональности решений.

Что делать гражданам и специалистам
Следить за инициативами: отслеживать изменения в законодательстве и участие в общественных обсуждениях.
Использовать инструменты приватности: по возможности применять VPN и альтернативные каналы доступа к глобальным ИИ-платформам.
Оценивать риски при разработке и использовании ИИ: особенно если решения требуют обработки персональных данных или могут подпадать под действие новых ограничений.
Готовиться к изменениям в трудовой среде: государственное регулирование может повлиять на карьерные перспективы в сфере ИИ и IT.

Есть вопросы, как обезопасить свои данные?

Задай вопрос экспертам в нашей службе технической поддержки!

Мы даем бесплатные консультации всем пользователям.

Скопировать ссылку Copied

Сегодня