建议投诉 | 联系我们 | 关注微信 安全虎 - 专注于互联网信息安全的科技新媒体!
你的位置:首页 > 业界动态 » 正文

日本AI研究人员修改一个像素使图像分类出错

来源:2017-10-31 | 人围观 | 评论:暂无评论

10月31日讯 日本九州大学(Japan's Kyushu University)一组研究人员近期发表的研究结果显示,修改图片的一个像素就可愚弄图像分类器(Image Classifier)。

研究人员根本不需了解深度神经网络

这组研究人员秉持两大研究目标展开此项研究:

  • 可预见性地欺骗深度神经网络(DNN);

  • 尽可能实现攻击自动化。

换句话讲,研究要如何将“汽车”图像错误识别为“狗”?而对抗性扰乱一个像素便能达到这种目的,而这类攻击肉眼察觉不到。

日本AI研究人员修改一个像素使图像分类出错-E安全

研究人员通过研究提出惊人的结论:一个像素的攻击在近四分之三的标准训练图像中可行。研究人员根本不需了解深度神经网络,只需 “黑盒子”(Black Box)概率标签输出发挥作用。此类攻击基于“差分进化”(DE)技术。扰乱的像素越多,攻击愈有效:修改1个像素,误导分类的成功率为73.8%;扰乱3个像素,成功率为82%;而修改5个像素可将成功率提升至87.3%。

研究人员只更改一个像素的情况下成功误导了目标 DNN。

日本AI研究人员修改一个像素使图像分类出错-E安全

括号内的标签为识别类别,括号外的标签是原类别

目光敏锐的人仔细看这些测试图像就会发现,一个像素攻击只对1024像素的图像发起攻击。但是,对于280,000像素的图像而言,只需修改273个像数,并且人眼仍不易察觉其中的变化。

标签:

相关内容推荐:

Top