Loading...
机构名称:
¥ 1.0

马里兰州学院公园市敲响了警钟。根据最近的一项研究,研究人员怀疑是否有可能可靠地检测出人工智能生成的文本。计算机科学教授 Soheil Feizi 与四名博士生一起研究了“人工智能生成的文本能被可靠地检测到吗?”不幸的是,他们的答案是否定的。鉴于大型语言模型 (LLM) 可用于抄袭、进行令人信服的社会工程攻击和大规模传播错误信息,这项研究绝对令人担忧。当前的人工智能生成文本检测工具还有很多不足之处 OpenAI 的人工智能生成文本检测器非常不准确。事实上,OpenAI 承认它并不可靠,因为该工具只能正确识别 26% 的人工智能书写文本(真阳性)。此外,有 9% 的时间,它会将人类编写的文本错误地标记为 AI 编写的文本(误报)。市场上另一种流行的工具 GPTZero 本质上是测量给定文本的随机性。根据 GPTZero 的 FAQ 页面,该工具能够在 99% 的时间内识别人类创建的文本,在 85% 的时间内识别 AI 生成的文本,尽管有些人可能对这种说法感到不满。可以可靠地检测 AI 生成的文本吗?通过实证分析,马里兰大学的学者研究了市场上几种流行的 AI 文本检测模型,发现它们并不可靠。通过研究水印方案、零样本分类器和基于神经网络的检测器,他们发现释义攻击可以帮助对手逃避人工智能检测。他们写道:“我们表明,释义攻击(将轻量级基于神经网络的释义器应用于人工智能生成模型的输出文本)可以逃避各种类型的检测器。”此外,他们声称基于水印的检测器很容易被欺骗,使其看起来像是人造文本被加了水印。这样的对抗性欺骗

研究发现,可靠地检测人工智能生成的文本是不可能的

研究发现,可靠地检测人工智能生成的文本是不可能的PDF文件第1页

研究发现,可靠地检测人工智能生成的文本是不可能的PDF文件第2页

研究发现,可靠地检测人工智能生成的文本是不可能的PDF文件第3页

相关文件推荐

2024 年
¥1.0
2012 年
¥1.0
2023 年
¥1.0
2023 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2024 年
¥1.0