Право на забвение: как не дать нейросетям использовать ваши данные
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNi80L3Byb2dyYW1taW5nLWJhY2tncm91bmQtd2l0aC1wZXJzb24td29ya2luZy13aXRoLWNvZGVzLWNvbXB1dGVyLmpwZw.webp)
Фото - © Freepik.com
Полностью защитить открытые данные от парсинга нейросетями технически невозможно. Скрипты непрерывно сканируют сеть, собирая тексты и фото в гигантские базы для обучения ИИ. Об этом РИАМО сообщил IT-эксперт Александр Егоров.
«Главный барьер — жесткая приватность на этапе публикации. Закрывайте профили в соцсетях, чтобы информацию не индексировали поисковики. Авторам визуала стоит применять утилиты вроде Nightshade. Они внедряют в картинки невидимый цифровой шум, который ломает алгоритмы компьютерного зрения и буквально „отравляет“ нейросеть при попытке обучения на ваших работах», — сказал Егоров.
Стереть свой цифровой след можно только методичной работой над удалением данных.
«Сначала физически удалите исходные посты и старые аккаунты. Затем воспользуйтесь правом на забвение: отправьте запросы в поисковые системы на удаление прямых ссылок с вашими данными из выдачи», — отметил эксперт.
Можно использовать специализированные сервисы для поиска своих фото в публичных датасетах и отправлять разработчикам юридические отказы на их использование в будущих сборках.
«Однако нужно понимать суровую реальность: если ваша информация уже стала частью готовой обученной модели, извлечь ее оттуда нельзя», — заключил Егоров.
Подписывайтесь на канал РИАМО в MAX.