Рабочая группа Госдумы предложила определение искусственного интеллекта для будущего закона о регулировании нейросетей. В дефиниции — акцент на системах (данные/ПО/»железо«), которые «похожим на разум» образом обрабатывают информацию и с помощью ML/статистики генерируют контент, прогнозы и решения, влияющие на реальную и виртуальную среду. Ниже — разбор формулировки, сравнение с ЕС/ОЭСР и практические выводы для бизнеса и разработчиков.
Что именно предложено: краткий разбор формулировки
По словам участницы рабочей группы Марины Дубровской, в проект закона планируется включить широкое определение искусственного интеллекта: под него подпадут «любая система данных, ПО или аппаратное средство», способные «похоже на разум» обрабатывать информацию и — с опорой на ML или статистические методы — генерировать контент, рекомендации, прогнозы или решения, влияющие на физические и цифровые среды. Формулировка делает упор на функциональный результат (выходы системы), а не на конкретные технологии: важно, что система инференсит и влияет на мир, а не то, написана ли она на классическом ML или гибриде со статистикой.
Создатели инициативы подчёркивают, что документ не будет «запрещающим», ключевой приоритет — безопасность персональных данных. Отдельный блок дискуссии — авторское право: любой творческий вклад человека при работе с ИИ может служить основанием для защиты авторства; при этом сами рамки АП, вероятно, будут меняться. Для рынка это сигнал: регулятор видит ценность в скорости и масштабе ИИ, но готов «жёстко» защищать данные и конфиденциальность.
Как это соотносится с ЕС/ОЭСР: сходства и различия
На глобальном уровне влиятельными ориентирами остаются EU AI Act и обновлённая дефиниция ОЭСР. Обе трактовки — функциональные: «машинная система», которая для явных/неявных целей инференсит по входам и порождает выходы (контент/рекомендации/решения), влияющие на физическую или виртуальную среду; допускаются разные уровни автономности и адаптивности после развёртывания. Российская формула близка по сути (выходы + влияние), но отдельно подчёркивает «напоминание разумного поведения» и допускает охват аппаратных средств в самой дефиниции. Для практики это означает, что спектр попадающих под регулирование решений в РФ может быть шире, особенно на стыке софта и «железа» (видеокамеры с ML, умные терминалы и т.п.).
Сравнение дефиниций
Элемент | Проект РФ | EU AI Act | ОЭСР (обнов.) |
---|---|---|---|
Тип системы | «система данных», ПО или аппаратное средство | машинная система | машинная система |
Ключевой процесс | обработка данных «похоже на разум» + ML/статистика | инференс по входам | инференс по входам |
Выходы | контент, прогнозы, рекомендации, решения | контент, прогнозы, рекомендации, решения | контент, прогнозы, рекомендации, решения |
Влияние | на реальную и виртуальную среду | на физическую или виртуальную среду | на физическую или виртуальную среду |
Автономность/адаптивность | не акцентируется явно в тексте цитаты | вариативная автономность/адаптивность | вариативная автономность/адаптивность |
Что это меняет: матрица влияния для ключевых аудиторий
Широкая дефиниция задаёт периметр для будущих требований. На горизонте — обсуждение риск-подхода (по аналогии с ЕС) и «красных зон» (высокорисковые сценарии, персональные данные, навязывание технологий). Публичные сигналы: к концу августа подтверждена работа над законом, тексты вариантов отличаются; в апреле сообщалось о проработке ограничений на высокорисковый ИИ. Для бизнеса значит — готовить инвентарь ИИ-систем, процессы Data & Model Governance и оценку воздействий.
Кому | Что делать уже сейчас | Вопросы/риски |
---|---|---|
Разработчики/ИТ | Вести реестр ИИ-систем; фиксировать цели, входы/выходы, метрики; строить трассируемость данных/моделей. | Границы понятия «аппаратное средство»; критерии «разумноподобной» обработки. |
Бизнес-подразделения | Определить случаи «влияния на среду» (решения для клиентов/сотрудников); согласовать роли владельцев моделей. | Соответствие требованиям к информированию пользователей и объяснимости. |
Юристы/комплаенс | Подготовить политику AI Governance, DPIA-аналог для ИИ, договорные оговорки по данным/авторству. | Новые правила по ПДн и авторскому праву при со-создании контента с ИИ. |
Госсектор/образование | Пилоты в «песочницах», каталоги рисков, методички по безопасному применению. | Единые стандарты качества и аудит моделей. |
Что дальше
Апрель 2025. Сообщалось о подготовке проектов регулирования ИИ и обсуждении ограничений для высокорисковых сценариев.
26 августа 2025. Наталья Касперская подтверждает работу над законопроектом; отмечает наличие нескольких существенно разных версий текста.
4 сентября 2025 (ВЭФ). Рабочая группа оглашает проектное определение искусственного интеллекта и заявляет приоритет защиты персональных данных; курс — не «запрещать», а регулировать применение.
Далее ожидаем уточнения границ применения (исключения), классификацию рисков и переходные периоды, как это сделано в ЕС (обязанности вводятся поэтапно).
Чек-лист: быстрая самопроверка компании
Заключение
Предложенная в Госдуме дефиниция искусственного интеллекта — широкий «зонтик», совместимый с мировыми подходами и ориентированный на выходы системы и её влияние. В связке с приоритетом защиты персональных данных курс выглядит прагматично: регулировать применение, а не тормозить технологии. Рекомендация рынку — уже сейчас провести инвентаризацию ИИ-сервисов, выстроить контуры ответственности и подготовить минимальный пакет AI Governance — так вы войдёте в новый режим с меньшими издержками.