期刊文献+

基于对抗样本的神经网络安全性问题研究综述 预览

A Research on Safety of Neural Networks Based on Adversarial Examples
在线阅读 下载PDF
分享 导出
摘要 随着神经网络的运用日益广泛,安全问题越来越受重视。对抗样本的出现更是使得攻击神经网络变得轻而易举,该文以神经网络的安全性问题为出发点,介绍了对抗样本的概念和形成原因,总结了生成对抗样本的常用算法,以及防御对抗样本的常用方法,最后提出了下一步保障神经网络安全性的发力点应该从测试转向安全验证。 With the wide application of neural network, safety problem is paid more and more attention. It’s easy to attack the neural network after the emergence of adversarial examples. This paper based on security problems as a starting point, introduces the concept and formation of adversarial examples, summarizes the commonly used algorithms of generating adversarial examples and the common methods of defense. Finally, this paper puts forward that the next step to ensure the safety of neural network should be safety verification.
作者 李紫珊 LI Zi-shan(Software School of Tongji University,Shanghai 201804 China)
出处 《电脑知识与技术:学术交流》 2019年第1X期186-187,共2页 Computer Knowledge and Technology(Academic Exchange)
关键词 安全性 神经网络 对抗样本 攻击与防御 安全验证 safety neural network adversarial examples attack and defense safety verification
作者简介 李紫珊(1993—),女(彝族),云南开远人,硕士,主要研究方向为神经网络,形式化方法。
  • 相关文献
投稿分析

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部 意见反馈