Право на забвение: как не дать нейросетям использовать ваши данные

IT-эксперт Егоров: чтобы защитить свои данные от ИИ, нужно методично их удалять
ЭксклюзивОбщество

Фото - © Freepik.com

Полностью защитить открытые данные от парсинга нейросетями технически невозможно. Скрипты непрерывно сканируют сеть, собирая тексты и фото в гигантские базы для обучения ИИ. Об этом РИАМО сообщил IT-эксперт Александр Егоров.

«Главный барьер — жесткая приватность на этапе публикации. Закрывайте профили в соцсетях, чтобы информацию не индексировали поисковики. Авторам визуала стоит применять утилиты вроде Nightshade. Они внедряют в картинки невидимый цифровой шум, который ломает алгоритмы компьютерного зрения и буквально „отравляет“ нейросеть при попытке обучения на ваших работах», — сказал Егоров.

Стереть свой цифровой след можно только методичной работой над удалением данных.

«Сначала физически удалите исходные посты и старые аккаунты. Затем воспользуйтесь правом на забвение: отправьте запросы в поисковые системы на удаление прямых ссылок с вашими данными из выдачи», — отметил эксперт.

Можно использовать специализированные сервисы для поиска своих фото в публичных датасетах и отправлять разработчикам юридические отказы на их использование в будущих сборках.

«Однако нужно понимать суровую реальность: если ваша информация уже стала частью готовой обученной модели, извлечь ее оттуда нельзя», — заключил Егоров.

Подписывайтесь на канал РИАМО в MAX.