欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 科技 > 名人名企 > 【总结】攻击 AI 模型的方法

【总结】攻击 AI 模型的方法

2024/10/24 21:25:39 来源:https://blog.csdn.net/Sunshine_xiaohao/article/details/139889263  浏览:    关键词:【总结】攻击 AI 模型的方法
  • 数据投毒
    污染训练数据

  • 后门攻击
    通过设计隐蔽的触发器,使得模型在正常测试时无异常,而面对触发器样本时被操纵输出。后门攻击可以看作是特殊的数据投毒,但是也可以通过修改模型参数来实现

  • 对抗样本
    只对输入做微小的改动,使模型做出错误判断

  • 模型窃取
    利用中小模型窃取大模型的特定能力

  • 提示注入
    设计输入,使LLM将输入误认为是指令,生成由攻击者控制的欺骗性输出。可以细分为目标劫持Prompt泄露。目标劫持是将原本的输出目标转向攻击者需要的目标;Prompt 泄露是诱导LLM披露其初始系统 prompt

  • 越狱攻击
    设计输入,绕过安全机制,输出不该输出的东西

参考文献:
【大模型安全】[文献整理] 大模型对抗攻击
什么是提示注入攻击?
Stealing LLMs: 关于对ChatGPT进行模型窃取的一些工作
模型安全:后门攻击
AI Security2-投毒攻击(Poisoning Attacks)

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com