基於人工智能識別的對抗性攻擊算法研究

作者

  • Si Zhang Shenzhen University 作者

DOI:

https://doi.org/10.70695/prtypb17

關鍵詞:

Deep learning, artificial intelligence, secure image recognition, adversarial samples

摘要

基於深度學習的人工智能算法在自動駕駛和醫療診斷等關鍵領域得到了廣泛應用。然而,深度神經網絡的可解釋性不足導致預測結果不可預測,給人工智能應用和部署帶來了重大的安全威脅。對抗性示例是專門設計用來引入難以察覺的擾動,導致神經網絡模型產生混亂和錯誤的預測。因此,探索對抗性示例生成和攻擊算法對於理解深度神經網絡的安全性和增強深度學習模型的可解釋性至關重要。現有的圖像識別對抗性示例生成算法仍然面臨生成效率低、樣本質量差和對抗攻擊期間轉移性不穩定等問題。本研究提出了HDSAttack,這是一種可轉移的對抗性攻擊算法,它將低維密集信息映射到高維稀疏信息,從而增強了轉移性。為了解決現有對抗性攻擊中轉移性不穩定的問題,本文建議將樣本從低維密集輸入空間映射到高維潛在空間,以擴展搜索空間並獲得更有效的信息。此外,使用KL散度在訓練過程中強製執行稀疏性約束,產生線性可分的高維稀疏信息,以實現高效的信息搜索。進一步,對多個目標網絡進行集成攻擊,使搜索網絡能夠更多地了解神經網絡結構,提高對抗性示例的轉移性。實驗結果表明,與傳統的沙漏自編碼器結構相比,所提出的搜索網絡結構將轉移攻擊成功率提高了10.39%。

已發表

2024-12-31