针对图像分类神经网络的对抗样本黑盒攻击方法研究.pdf

针对图像分类神经网络的对抗样本黑盒攻击方法研究.pdf

  1. 1、本文档共74页,其中可免费阅读23页,需付费100金币后方可阅读剩余内容。
  2. 2、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,可选择认领,认领后既往收益都归您。
  3. 3、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细先通过免费阅读内容等途径辨别内容交易风险。如存在严重挂羊头卖狗肉之情形,可联系本站下载客服投诉处理。
  4. 4、文档侵权举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

摘要

摘要

近些年来,随着深度学习技术的快速发展,人工智能在图像分类领域已经取

得了显著的进步。利用深度学习技术设计训练的神经网络模型可以取得比人眼

更高的分类准确度,因此广泛应用于图像识别、人脸识别等领域。虽然神经网络

的应用可以为人们的生活带来很大的便利,但是它也面临着一些安全问题。研究

表明,神经网络在对抗样本的攻击下十分脆弱,在对安全性要求比较高的系统上

应用神经网络就会埋下安全隐患,例如人脸识别、自动驾驶系统可能会

文档评论(0)

136****6583 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:7043055023000005

1亿VIP精品文档

相关文档