什么网站可以接室内设计做,logo在线制作神器,做报名统计的网站,如何编写一份网站开发需求文档数据投毒 污染训练数据 后门攻击 通过设计隐蔽的触发器#xff0c;使得模型在正常测试时无异常#xff0c;而面对触发器样本时被操纵输出。后门攻击可以看作是特殊的数据投毒#xff0c;但是也可以通过修改模型参数来实现 对抗样本 只对输入做微小的改动#xff0c;使模型… 数据投毒 污染训练数据 后门攻击 通过设计隐蔽的触发器使得模型在正常测试时无异常而面对触发器样本时被操纵输出。后门攻击可以看作是特殊的数据投毒但是也可以通过修改模型参数来实现 对抗样本 只对输入做微小的改动使模型做出错误判断 模型窃取 利用中小模型窃取大模型的特定能力 提示注入 设计输入使LLM将输入误认为是指令生成由攻击者控制的欺骗性输出。可以细分为目标劫持和Prompt泄露。目标劫持是将原本的输出目标转向攻击者需要的目标Prompt 泄露是诱导LLM披露其初始系统 prompt 越狱攻击 设计输入绕过安全机制输出不该输出的东西
参考文献 【大模型安全】[文献整理] 大模型对抗攻击 什么是提示注入攻击 Stealing LLMs: 关于对ChatGPT进行模型窃取的一些工作 模型安全后门攻击 AI Security2-投毒攻击(Poisoning Attacks)