本文介绍: 对抗样本攻击是通过对输入数据进行微小但有针对性的修改,使得机器学习模型产生错误分类错误预测的样本。这些微小的变化对人类观察几乎不可察觉,但足以使模型做出错误推断攻击者可能会植入具有误导性标签特征数据,以扭曲模型学习过程,导致模型偏离真实数据的表征。这些后门可能是针对特定输入触发的,使得模型在遇到这些特定标记输入时产生意外行为。模型窃取攻击是一种针对机器学习模型的攻击,旨在通过观察模型的输出并利用查询功能,从中。攻击者可能使用额外的查询信息来近似或重建受攻击模型,从而破坏模型拥有者的。

在这里插入图片描述

数据投毒(Data Poisoning

数据投毒是一种通过在 训练数据 中植入恶意样本或修改数据以欺骗机器学习模型的方法。这种攻击旨在使模型 在未来的预测或决策中 产生错误结果攻击者可能会植入具有误导性标签特征的数据,以扭曲模型的学习过程,导致模型偏离真实数据的表征。数据投毒攻击可能在模型训练过程中不被察觉,但其影响可能在模型部署运行时显现出来。

后门攻击(Backdoor Attacks

后门攻击是一种在模型 训练过程 中植入后门或隐藏功能的方式。这些后门可能是针对特定输入触发的,使得模型在遇到这些特定标记或输入时产生意外行为。后门攻击的目的是在模型表现正常的情况下,对特定情况下的预测或决策进行操控,可能导致安全隐患隐私泄露

【注】后门攻击和数据投毒攻击的异同点:

对抗样本攻击(Adversarial Examples

对抗样本攻击是通过对输入数据进行微小但有针对性的修改,使得机器学习模型产生错误分类或错误预测的样本。这些微小的变化对人类观察几乎不可察觉,但足以使模型做出错误的推断。对抗样本攻击是针对模型的鲁棒性和稳定性,即使在面对微小扰动时也能保持准确性。

模型窃取攻击(Model Extraction Attacks)

模型窃取攻击是一种针对机器学习模型的攻击,旨在通过观察模型的输出并利用查询功能,从中 重建或复制 原始模型。攻击者可能使用额外的查询信息来近似或重建受攻击模型,从而破坏模型拥有者的 知识产权潜在商业优势

参考资料

原文地址:https://blog.csdn.net/m0_38068876/article/details/134689215

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

如若转载,请注明出处:http://www.7code.cn/show_9217.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注