本文介绍: 许多机器学习模型包括神经网络,总是会将对抗样本错误分类对抗样本是指对数据集中的样本施加微小的但是有目的的最坏情况下(最大预测误差)的扰动,这样的扰动最终会导致模型以较高自信度来输出一个错误的结果。早期对于对抗样本现象的解释集中于非线性和过拟合我们反而认为神经网络对于对抗样本脆弱性表现的主要原因在于神经网络模型线性性质。在我们给出对抗网络不同架构训练集上泛化的解释时的大量结果证明了我们这个观点。而且,这个观点产生了一个简单并且快速生成对抗样本的方法使用这个方法我们能够提供对抗样本来进行对抗训练

(θ,x,y)=αJ(θ,x,y)+(1α)J(θ,x+εsign(xJ(θ,x,y)))
论文实验直接令

α

=

0.5

alpha = 0.5

α=0.5没有尝试其他值。以上的方法可以不断更新对抗样本来抵抗当前版本模型
对于对抗训练的看法:

不同模型能力

一些低能力模型不能够做出不同可信度的预测例如浅层RBF神经网络只能在

μ

mu

μ附近预测正样本。并且RBF网络天生的就对对抗样本免疫,因为对于对抗样本他们输出可信度。

为什么对抗样本具有泛化性?

对于不同神经网络层数、激活单元数、甚至是同一数据集上的不同子集训练出的模型,同一对抗样本都能够迷惑这些模型原因在于对抗样本就像是实数空间中的有理数,随处可见但又只出现在特定位置
不同的分类器模型将同一对抗样本分到同一类的原因在于:底层分类权重稳定性导致了对对抗样本分类稳定性。
同时在线性的观点下对抗样本出现在广阔的一位子空间中,扰动

η

eta

η方向需要损失函数梯度方向呈现正点积,并且

ε

varepsilon

ε需要足够大。

可能假设

总结讨论

本文提出了以下观点:

原文地址:https://blog.csdn.net/CharilePuth/article/details/134705560

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_33978.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注