В России разрабатывают идеи для маркировки контента, созданного нейросетями

Российские ученые создают невидимые метки для защиты контента от дипфейков
Общество

Российские ученые работают над технологией невидимых водяных знаков для цифрового контента, чтобы противостоять распространению дипфейков и повысить доверие к материалам, созданным с помощью искусственного интеллекта, сообщает сайт MK.Ru.

Об этом рассказал академик РАН Арутюн Аветисян. Разработкой занимаются институт системного программирования им. В. П. Иванникова РАН и математический институт им. Стеклова РАН.

Руководитель направления применения водяных знаков для кибербезопасности ИСП РАН Юрий Маркин пояснил, что существуют видимые и невидимые метки. Видимые водяные знаки — это надписи, указывающие на использование ИИ. Невидимые метки внедряются в изображение или аудиофайл с помощью математических алгоритмов и не заметны пользователю. Распознать такие метки могут только специальные алгоритмы, знающие параметры внедрения.

«Если сервис ИИ внедряет в дипломную работу водяной знак с информацией о том, что текст сгенерирован нейросетью, специальная система сможет это выявить», — рассказал Маркин.

По его словам, технология позволит проверять подлинность не только изображений и видео, но и аудиофайлов. При попытке изменить контент, например, заменить лицо в видеоролике, структура водяного знака нарушается, что позволяет выявить подделку.

Внедрение подобных технологий требует законодательного регулирования. В ряде стран уже приняты законы, обязывающие компании маркировать ИИ-контент. В России соответствующие инициативы пока только обсуждаются. Эксперты считают, что регулирование необходимо для предотвращения мошенничества и повышения доверия к цифровому контенту.

Подписывайтесь на канал РИАМО в MAX.