В России разрабатывается проект закона «О регулировании систем искусственного интеллекта», который может в корне изменить подход к созданию и использованию ИИ в стране. По информации РБК, над документом работает профильная рабочая группа, в которую входят юристы, представители ИТ-бизнеса и консалтинговых компаний. Инициатива уже обсуждается в Госдуме, «Деловой России» и на специализированных площадках.
Документ направлен на реализацию положений Национальной стратегии развития ИИ до 2030 года, утверждённой в феврале 2024 года. Однако пока законопроект носит статус черновика — как сообщил Андрей Свинцов, зампред комитета по информационной политике Госдумы, инициативы пока не вышли на этап активного рассмотрения. В 2025 году могут появиться точечные предложения, касающиеся отдельных отраслей и пилотных зон.
Что предусматривает законопроект
Согласно документу, предлагается системный подход к регулированию ИИ, включая следующие ключевые положения:
- Введение чётких понятий ИИ, технологий ИИ, систем ИИ, а также роли разработчика, оператора и пользователя таких систем.
- Обязательная маркировка ИИ-систем — пользователь должен быть заранее и явно уведомлён о взаимодействии с нейросетью. Это не коснётся внутренних ИТ-систем и автоматизации в организациях.
- Классификация ИИ по уровням риска: неприемлемый, высокий, ограниченный и минимальный. Запрет будет распространяться на системы с неприемлемым уровнем риска — например, угрожающие жизни или нарушающие права человека.
- Обязательная государственная сертификация для систем с высоким уровнем риска (здравоохранение, транспорт, финансы и др.).
- Введение ответственности за причинение вреда жизни, здоровью или имуществу, с возможностью освобождения от неё при соблюдении условий эксплуатации. Также предусматривается обязательное страхование для операторов ИИ высокого риска.
- Определение авторских прав на результаты, созданные с использованием ИИ — если был творческий вклад человека, права принадлежат ему; в противном случае — оператору системы.
Если законопроект будет принят, операторам и разработчикам дадут год на соблюдение новых требований, а существующие ИИ-системы с высоким уровнем риска должны пройти сертификацию в течение двух лет.
Опасения бизнеса
Несмотря на проработанность инициативы, представители индустрии выражают опасения. По данным РБК, ранее в правительстве придерживались мнения, что регулирование ИИ преждевременно. Вице-премьер Дмитрий Григоренко в феврале 2024 года прямо заявлял, что такие шаги в ближайшие два года не планируются.
Один из собеседников издания, представитель ИТ-компании, отметил, что российские игроки уже используют механизмы саморегулирования, маркируют ИИ-контент и следуют отраслевым стандартам. Но поспешное и жёсткое регулирование может замедлить развитие важнейшей технологической отрасли, сузить возможности бизнеса и пользователей и привести к технологическому отставанию.
Пример негативного воздействия жёстких норм — ситуация в ЕС, где после принятия AI Act, по его словам, наблюдается сокращение активности крупных разработчиков, а конкурентоспособные локальные решения практически не появляются.
По мнению Романа Хазеева, директора по цифровым технологиям «Ростелекома», ни одна страна пока не выработала полноценную юридическую базу для оценки ответственности за действия нейросетей. Он считает, что регулирование должно появляться только после стабилизации процессов и чёткой формализации возникающих проблем.
«Яндекс», МТС и VK от комментариев отказались. РБК направил запрос в «Сбер».
Как ИИ регулируют в других странах
В марте 2024 года Европарламент принял Регламент об ИИ (AI Act), запрещающий использование нейросетей для манипулирования людьми, проведения массовой биометрической идентификации в реальном времени и систем социального рейтинга. Системы с высоким риском должны проходить обязательную оценку до запуска. За нарушение предусмотрены штрафы до €40 млн или 7% годового оборота компании.
В США в марте 2024 года представили законопроект о маркировке видео и аудио, созданных с помощью ИИ.
В Китае с 1 сентября 2025 года начнут действовать новые правила: платформы обязаны уведомлять пользователей, что контент создан нейросетями, а магазины приложений — проверять, соблюдаются ли правила маркировки. Это направлено на борьбу с фейками.
В России идея маркировки ИИ-контента обсуждается с 2022 года. В 2024 году в Госдуме начали разрабатывать соответствующую концепцию. В феврале Андрей Свинцов вновь призвал к введению обязательной маркировки.
Обновления программ, что нового
• Утечка: Snapdragon 8 Elite Gen 6 может получить систему охлаждения от Samsung Exynos
• Утечка: Honor 600 может получить аккумулятор емкостью 9000 мАч
• Стартовала бета-версия HyperOS 3.1 для 10 новых устройств: номера сборок для России и глобального рынка
• Покупатели Яндекс Маркета смогут создавать ИИ-подборки товаров под конкретные задачи
• Обновления безопасности Samsung за февраль 2026 года: список устройств с ежемесячными патчами
• OpenAI представляет новую модель для программирования GPT-5.3-Codex — на 25% быстрее предшественника