聊城网站那家做的好,优设网官网教程,网站开发 需要用到什么软件,网络广告代理渠道检测人工智能生成的文本对各个领域的组织都提出了挑战#xff0c;包括学术界和新闻界等。生成式AI与大语言模型根据短描述来进行内容生成的能力#xff0c;产生了一个问题#xff1a;这篇文章/内容/作业/图像到底是由人类创作的#xff0c;还是AI创作的#xff1f;虽然 LL…检测人工智能生成的文本对各个领域的组织都提出了挑战包括学术界和新闻界等。生成式AI与大语言模型根据短描述来进行内容生成的能力产生了一个问题这篇文章/内容/作业/图像到底是由人类创作的还是AI创作的虽然 LLM 在改进文本方面发挥着无价的作用但我们也必须承认这种演变给智力生产概念带来的问题。作为人类我们依靠线索来评估文本的可信度。然而随着 LLM 驱动的文本生成越来越难以确定文本是否源自人类以及它是否呈现了准确或有偏见的想法和陈述。
人工智能在文本生成方面的进步使得区分人类编写的内容和机器生成的内容变得越来越困难。这对依赖准确的标注数据进行机器学习训练和自然语言处理任务的公司构成了重大挑战。市场上有各种人工智能检测器包括 Open AI 于 2023 年初发布的现已撤回的人工智能检测器。然而它未能达到预期仅捕获了 26% 的人工智能生成文本仅在六个月后就退役了。最近的研究还揭示了人工智能检测器对非母语人士的偏见。这些复杂性凸显了人工智能检测的难度强调了与其他检测器的区别。
目前市场上可用的解决方案使用基于文本的方法通过对合成和真实的人类书写文本进行训练后分析词汇、语义或语法线索来检测人工智能生成的文本。正如 Appen 数据科学家 Arjun Patel 和 Phoebe Liu 所描述的那样这些解决方案在检测 LLM 生成的文本方面存在缺陷因为 LLM 生成的文本通常与人类书写的内容非常相似。此外当前的检测方法容易出现误报和漏报。因此未被发现的人工智能生成的文本被标记为真实可靠的风险进一步加剧了人们对数据准确性和可信度的担忧。 AI生成内容检测的挑战
由于以下几种因素研究人员在检测人工智能生成的文本方面正面临重大挑战
大语言模型 (LLM) 性能的提升与使用新示例训练 AI 检测器之间的不断竞争需要频繁地重新训练检测器。大语言模型LLM的普及度不断提高从商业产品到开源模型。捕捉人类使用文本生成工具的真实数据集稀缺以及对注释提交中人工智能生成文本的普遍性的理解有限。缺乏标准化指标来评估此类模型。第三方模型所采用的防止对抗性攻击的方法缺乏透明度。 设定正确的指标
在确定任何事物的有效性时主要的挑战是确定正确的指标。根据所选的指标即使某件事不符合预期的使用要求也可能被视为成功。了解不同的指标并仔细选择真正反映您目标的指标对于准确评估成功至关重要。
尽管模型准确度通常被视为评估性能的关键指标但它可能会误导人们判断模型是否有效。在处理不平衡数据集或成本敏感性很重要时尤其如此。例如如果将一段文本误认为是由人工智能生成的而实际上它是由人类编写的可能会对人类作者产生严重而有害的影响。模型准确度通常表示为正确预测占总预测数的百分比。在处理不平衡数据集时有可能实现高准确率但假阳性率也会很高。这正是人工智能检测器被认为不可靠的原因。
我们的期望是我们的人群总体上是诚实的并且在被要求不要使用外部 LLM 进行内容生成时倾向于遵循指示。这意味着我们的人群主要由善意的个人组成但也有一些坏人。因此使用准确率高但误报率也高的模型是有害的因为它可能会破坏我们的贡献者对 Appen 的信任。
除了准确度之外还可以使用各种指标例如曲线下面积、假阳性、真阳性等等。确定最有意义的指标在很大程度上取决于 AI 检测器的具体用例和上下文。这就是为什么定义指标通常需要产品和数据科学团队之间的协作因为这对于满足业务需求至关重要。
在 Appen我们采取保守的方法并优先考虑一个指标即如果 AI 检测器不会对人类尤其是所分析文本的作者产生负面影响则该指标被视为有效。我们的目标是评估 AI 检测器将文本错误地识别为 AI 生成的频率而这些文本实际上是由人类撰写的。这在我们以人为本的方法中非常重要因为被错误地标记为 AI 生成的作者几乎没有或根本没有办法挑战这一预测。因此我们仔细检查了误报率它表示错误地将人类生成的文本识别为 AI 生成的文本的比例。 Appen 的 AI 检测基准测试实验
最近Appen 数据科学家Phoebe Liu和Arjun Patel与 Appen 高级产品经理Alice Desthuilliers合作进行了一项实验以评估不同市场解决方案的有效性。得益于 Appen 的专业知识和致力于策划有目的的人群并通过精心设计的任务收集高质量的人工数据这项实验成为了现实。利用我们自己的众包团队Appen 能够根据不同的基准评估各种 AI 检测器的性能。该实验旨在确定 AI 检测器将人工生成的文本错误地归类为 AI 生成的频率。
[研究人员评估了四种流行的市场解决方案OpenAI 已撤回的 AI 检测器作为对照、商业解决方案、开源解决方案和澳鹏内部开发的基于机器学习的模型。这些模型中的每一个都基于 Appen 的高质量数据进行了测试。然后将结果与预定义的 95% 准确度基线高效 AI 检测器的预期性能进行对比。实验得出的结论是目前的市场解决方案均未达到此基准所有模型的误报率均高于 10%即将10%的人工撰写内容判断为AI生成。] 人群标准
为了开展我们的 AI 检测实验Appen 团队组建了一支由 24 名贡献者组成的团队他们的英语水平以美国英语为母语或接近母语。这些贡献者居住在美国或菲律宾。多亏了这个团队我们才得以创建控制数据集。 任务
在实验中Appen 团队安排了两种不同的任务
人类撰写组在没有任何外部帮助的情况下对提示做出响应。人工智能组使用 ChatGPT 等生成式人工智能来响应提示。
在执行每项任务之前团队都会对参与实验的人员进行一次培训以确保参与者理解方法并正确执行任务。实验采用的所有提示都是从开源 Dolly 数据集中精心挑选出来的。
对于第一组团队要求参与者在澳鹏数据标注平台中从头撰写针对prompt的回应并保证长度超过150字大多数AI生成内容检测器所需的内容长度注意不出现错字并给出正确的答案。整体而言我们希望参与者扮演一个乐于助人的助手对问题做出客观细致的回复。
第二组参与者可以选择自己喜欢的生成式AI应用团队也与他们分享了网上公开的生成式AI使用指南。 结果
Patel、Liu 和 Desthuilliers 通过 7 个作业的组合生成了总共 636 个提示-响应对数据集。其中334 对是使用生成式AI 工具创建的而 302 对是由人类写作的。
为了评估性能Appen 的数据科学和产品团队选择了几种广为使用且以宣传的功效而闻名的 API其中包括
Sapling AIGPTZero 句子级和文档级OpenAI GPT2 Detector这是OpenAI 的一个早期模型作为基准
每个模型都经过 5 倍分层交叉验证进行评估。综合考虑准确率、f1 分数、假阳性率False positive rate, FPR和真阳性率True positive rate, TPR等指标实验结果如下
准确率F1假阳性率真阳性率sapling0.620.710.670.90GPTZero0.700.700.260.66GPTZero文档级0.610.710.730.91OpenAI GPT20.510.310.160.21
结果显示虽然某些模型在某些指标上的表现优于其他模型但所评估的所有 AI 检测工具均未达到 95% 准确率的预期基准。事实上实验四个工具的误报率在 16.67% 到 70% 之间这凸显了 AI 生成内容检测技术需要进一步改进。 与 OpenAI 撤回的 AI 检测模型的比较
请记住OpenAI 发布了 ChatGPT 分类器据报道该分类器的真实阳性率 (TPR) 为 26%假阳性率 (FPR) 为 9%。虽然这个模型后来被撤回我们无法使用我们的控制数据集对其进行评估但值得注意的是它是少数几个声称可以在现实世界数据上运行的模型之一来自一家顶级 LLM 公司。如果有人知道人工智能生成的内容应该是什么那就是 OpenAI
为了确保 FPR 保持在 9% 以下我们重新计算了在我们的数据上观察到的每个模型的最佳 TPR并使用不同的阈值进行优化。这有助于我们衡量这些付费第三方 API 与 OpenAI 的免费撤回模型相比的改进。为此Appen 数据科学团队测试了 API以实现低于 9% 的误报率并尝试使用不同的阈值找到实现的最佳真实阳性率。
假阳性率FPR真阳性率TPRsapling0.070.05GPTZero文档级0.070.15OpenAI GPT20.080.15
我们初步调查发现所有第三方模型都达不到 OpenAI 撤回的分类器的标准。该分类器的真阳性率为 26%假阳性率为 9%。在所有模型中GPTZero 的表现最为出色真阳性率为 13%假阳性率为 8%。虽然某些模型的真阳性率非常高在某些情况下甚至超过 91%但假阳性率却高得惊人尤其是表现最好的 GPTZero 模型高达 73%。这些高假阳性率对贡献者构成了重大风险导致 OpenAI 撤回了他们最新的分类器。
Patel 表示“尽量减少误报对于维护系统的信任和确保公平至关重要。虽然真阳性对于发现实际作弊情况很重要但优先减少误报有助于在准确性和尽量减少对无辜者的伤害之间取得微妙的平衡。”
有趣的是句子级 GPTZero 模型在我们的观察中缺失。这是因为该模型未能在我们的数据集上实现如此低的假阳性率。Sapling 模型面临类似的问题因为它必须像 AI 一样预测所有实例才能满足假阳性率要求。只有 GPTZero 文档级分类器表现良好与已退役的 OpenAI 检测器相比其假阳性率降低了 3 个百分点。然而该模型识别出的真阳性比 OpenAI 的解决方案要少。
这可能表明人工智能检测技术中最小化假阳性和最大化真阳性之间的权衡。 努力打造更安全、更道德的数字环境
我们的研究强调了使用现有技术检测 AI 生成内容所面临的挑战。虽然第三方 API 已显示出令人鼓舞的结果但它们仍未达到预期并有效地以高精度识别 AI 生成的文本。需要进一步改进以确保这些系统能够准确有效地识别 AI 生成的内容并防止有害或欺骗性信息。
随着人工智能技术的不断发展检测方法需要不断重新评估和更新以跟上人工智能生成文本不断发展的格局。我们必须保持开放的心态拥抱新技术同时保持谨慎和警惕确保负责任地使用这些技术。有效检测和监管人工智能生成内容的旅程可能充满挑战但这是朝着在当今世界更负责任、更合乎道德地使用人工智能迈出的重要一步。