Copyright 2013-2025 今日媒體網 版權所有 京ICP備13154207號-1
不可學習樣本(Unlearnable Examples)是一類用于數據保護的技術,其核心思想是在原始數據中注入人類難以察覺的微小擾動,使得未經授權的第三方在使用這些數據訓練模型時,模型的泛化性能顯著下降,甚至接近隨機猜測,從而達到阻止數據被濫用的目的。
例如,對于攝影師公開發布的作品或用戶分享的個人照片,在添加擾動后,圖像在視覺上幾乎不發生變化;但若這些數據被用于訓練圖像分類模型,其測試準確率可能會從 90% 降至 10% 左右。
隨著深度模型對大規模數據依賴程度的不斷提升,不可學習樣本逐漸成為數據隱私與模型安全領域的重要研究方向。然而,現有方法在實際應用中仍面臨顯著的效率瓶頸。