级别: 硕士生
UID: 129969
精华: 0
发帖: 1662
威望: -5 点
积分转换
愚愚币: 124 YYB
在线充值
贡献值: 0 点
在线时间: 2455(小时)
注册时间: 2019-06-26
最后登录: 2024-03-28
楼主  发表于: 2019-12-03 10:18

 人工智能安全——对抗攻击分析

随着人工智能深度学习成为研究热点,其在医疗、生物,金融、自动驾驶各个领域皆有所应用,并且取得丰硕的成果。深度学习不同于传统的基于特征提取的机器学习,不需要使用者掌握太多的专业知识,只需调节好参数即可取得很好的效果,但对抗样本对于人脸识别也能导致错误分类造成影响。

    人工智能深度学习应用极其广泛,人工智能安全也开始引起人们的**************,攻击者在正常样本中增加了细微的扰动,导致人工智能深度学习模型分类判断出现错误,这种行为称为对抗样本攻击。在汉斯出版社《计算机科学与应用》期刊中,有论文综述对抗样本攻击的研究现状,研究了对抗样本攻击的经典算法:FG、DeepFool、JA、CW,分析了这几种经典对抗算法的生成对抗样本的效率及其对深度学习模型的误导效果,为对抗样本检测和防御算法设计提供理论指导。
分享:

愚愚学园属于纯学术、非经营性专业网站,无任何商业性质,大家出于学习和科研目的进行交流讨论。

如有涉侵犯著作权人的版权等信息,请及时来信告知,我们将立刻从网站上删除,并向所有持版权者致最深歉意,谢谢。