Авторский тренинг Андрея Парфилова
15.10.2025, в 16:27.

В России предложили штрафовать за злонамеренное распространение «дипфейков», созданных при помощи ИИ

В российском цифровом пространстве может появиться новый правовой барьер, призванный оградить граждан от мошеннических манипуляций с использованием искусственного интеллекта. Соответствующее предложение уже поступило в Министерство цифрового развития, связи и массовых коммуникаций РФ. Ожидается, что на уровне Кодекса об административных правонарушениях (КоАП) появится ответственность за злонамеренное распространение видео, созданного или измененного нейросетевыми технологиями, с целью введения в заблуждение.

В отличие от расплывчатых формулировок о «фейках», новый законопроект фокусируется на двух ключевых элементах: происхождении контента и доказанном умысле нарушителя. Речь идет именно о материалах, сгенерированных или кардинально измененных с помощью алгоритмов ИИ, которые в народе получили название «дипфейков» (от английского deepfake). При этом, согласно проекту, для привлечения к ответственности необходимо будет доказать, что распространитель действовал с прямым намерением обмануть аудиторию, выдав цифровую подделку за подлинную запись.

Предлагаемая санкция за такое правонарушение для граждан составит от 3000 до 5000 рублей. Для должностных лиц штрафы будут выше, что подчеркивает серьезность подхода регулятора к новой цифровой угрозе.

Актуальность этой инициативы сложно переоценить. Современные нейросети, такие, как Sora, Midjourney и другие  разработки, научились создавать гиперреалистичные видео, которые неотличимы от настоящих для неподготовленного глаза. Технологии, которые еще вчера были диковинкой, сегодня становятся инструментом мошенников, черных пиарщиков и злоумышленников, способных нанести урон репутации человека, повлиять на общественное мнение или дестабилизировать ситуацию.

Эксперты отмечают, что существующие технические методы защиты, такие как водяные знаки, которые некоторые разработчики встраивают в контент, созданный их ИИ, уже не являются надежным барьером. В сети появляется все больше простых в использовании программ и онлайн-сервисов, позволяющих за несколько кликов удалить такие метки, сделав видео «чистым» и еще более опасным.

—***—
Читайте нас в Яндекс.Дзен и Google News. Присоединяйтесь!
Хотите поделиться интересной новостью? Отправьте ее нам в телеграм-бот.
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER.