基于人工智能识别的对抗性攻击算法研究
DOI:
https://doi.org/10.70695/prtypb17关键词:
Deep learning, artificial intelligence, secure image recognition, adversarial samples摘要
基于深度学习的人工智能算法在自动驾驶和医疗诊断等关键领域得到了广泛应用。然而,深度神经网络的可解释性不足导致预测结果不可预测,给人工智能应用和部署带来了重大的安全威胁。对抗性示例是专门设计用来引入难以察觉的扰动,导致神经网络模型产生混乱和错误的预测。因此,探索对抗性示例生成和攻击算法对于理解深度神经网络的安全性和增强深度学习模型的可解释性至关重要。现有的图像识别对抗性示例生成算法仍然面临生成效率低、样本质量差和对抗攻击期间转移性不稳定等问题。本研究提出了HDSAttack,这是一种可转移的对抗性攻击算法,它将低维密集信息映射到高维稀疏信息,从而增强了转移性。为了解决现有对抗性攻击中转移性不稳定的问题,本文建议将样本从低维密集输入空间映射到高维潜在空间,以扩展搜索空间并获得更有效的信息。此外,使用KL散度在训练过程中强制执行稀疏性约束,产生线性可分的高维稀疏信息,以实现高效的信息搜索。进一步,对多个目标网络进行集成攻击,使搜索网络能够更多地了解神经网络结构,提高对抗性示例的转移性。实验结果表明,与传统的沙漏自编码器结构相比,所提出的搜索网络结构将转移攻击成功率提高了10.39%。
已发布
2024-12-31
如何引用
Zhang, S. (2024). 基于人工智能识别的对抗性攻击算法研究. 人工智能应用创新, 1(4), 34-39. https://doi.org/10.70695/prtypb17