Российские власти намерены ввести уголовную ответственность за преступления, совершённые с применением искусственного интеллекта. Новый законопроект предусматривает штрафы и реальные сроки лишения свободы за мошенничество, кражи и вымогательство с использованием нейросетей.
Что произошло: меры против ИИ-мошенничества ужесточают
Минцифры подготовило второй пакет поправок, направленных на борьбу с преступлениями с применением информационных технологий. Один из ключевых пунктов — введение уголовной ответственности за использование нейросетей при совершении преступлений.
Согласно тексту документа (его подлинность подтверждена участниками рынка), предусмотрены следующие меры:
до 6 лет лишения свободы за мошенничество с помощью ИИ;
до 8 лет — за кражу с банковского счёта через нейросети;
штрафы до 1 млн рублей и сроки до 6 лет — за нарушение правил обращения с охраняемой информацией при использовании ИИ.
Дополнительно планируется запретить звонки с зарубежных SIM-карт по умолчанию и ввести публичный реестр мошеннических номеров. Если оператор не заблокирует номер из реестра, он будет обязан компенсировать ущерб пострадавшему.
Почему это важно: на что повлияет новый закон?
Преступления с использованием ИИ уже стали реальностью: от звонков с поддельными голосами до автоматизированных схем кражи данных. Законодательство долгое время не учитывало особенности применения нейросетей, что создавало правовой вакуум. Новый пакет мер закрывает эту лазейку.
Закон потенциально касается как злоумышленников, так и всех участников рынка — от разработчиков до интеграторов. Неопределённость формулировок может привести к правовым рискам: эксперты уже заявили о необходимости доработки документа, чтобы он не затруднял легальную разработку ИИ-сервисов.
Также важно, что мера может повлиять на инвестиции и международное сотрудничество в области ИИ — особенно если будет воспринята как ограничительная.
Что делать участникам ИТ-рынка?
Изучить законопроект. Особенно тем, кто работает с ИИ в чувствительных сферах: финтех, голосовые технологии, биометрия, безопасность.
Проверить процедуры. Убедиться, что ваши решения не могут быть использованы для совершения противоправных действий без контроля.
Следить за обсуждением. Документ может быть изменён в ходе согласований — стоит участвовать в публичных консультациях через профильные ассоциации и союзы.
Также стоит внимательно относиться к юридическим формулировкам в пользовательских соглашениях и внутренней документации — в случае инцидента это может стать аргументом в суде.
Что говорят эксперты: закон может не успевать за технологиями
По мнению представителей телеком-рынка, меры пока выглядят сырыми и требуют доработки. В частности, важно чётко разграничить умысел и технические особенности работы нейросетей — иначе можно задеть и легальные проекты.
Юристы предупреждают: если нормы будут сформулированы слишком расплывчато, это откроет путь к произвольному применению. Не исключено, что реальное применение закона начнётся только после нескольких резонансных кейсов.
Тем не менее очевидно: государство намерено усилить контроль над использованием ИИ, а это значит, что участникам отрасли стоит быть готовыми к новым требованиям — как юридическим, так и технологическим.