В России разрабатывают идеи для маркировки контента, созданного нейросетями
Российские ученые работают над технологией невидимых водяных знаков для цифрового контента, чтобы противостоять распространению дипфейков и повысить доверие к материалам, созданным с помощью искусственного интеллекта, сообщает сайт MK.Ru.
Об этом рассказал академик РАН Арутюн Аветисян. Разработкой занимаются институт системного программирования им. В. П. Иванникова РАН и математический институт им. Стеклова РАН.
Руководитель направления применения водяных знаков для кибербезопасности ИСП РАН Юрий Маркин пояснил, что существуют видимые и невидимые метки. Видимые водяные знаки — это надписи, указывающие на использование ИИ. Невидимые метки внедряются в изображение или аудиофайл с помощью математических алгоритмов и не заметны пользователю. Распознать такие метки могут только специальные алгоритмы, знающие параметры внедрения.
«Если сервис ИИ внедряет в дипломную работу водяной знак с информацией о том, что текст сгенерирован нейросетью, специальная система сможет это выявить», — рассказал Маркин.
По его словам, технология позволит проверять подлинность не только изображений и видео, но и аудиофайлов. При попытке изменить контент, например, заменить лицо в видеоролике, структура водяного знака нарушается, что позволяет выявить подделку.
Внедрение подобных технологий требует законодательного регулирования. В ряде стран уже приняты законы, обязывающие компании маркировать ИИ-контент. В России соответствующие инициативы пока только обсуждаются. Эксперты считают, что регулирование необходимо для предотвращения мошенничества и повышения доверия к цифровому контенту.
Подписывайтесь на канал РИАМО в MAX.