首页 AI写作 正文

人工智能写作检测工具不靠谱,美国宪法竟被认为是机器人写的

人工智能写作检测工具不靠谱,美国宪法竟被认为是机器人写的

人工智能书写检测工具不靠谱,美国宪法被认为是机器人写的

IT之家新闻7月16日。近日,有网友发现,如果将美国最重要的法律文件——美国宪法输入到一些专门用来检测人工智能书写的工具中,就会得到一个令人惊讶的结果:美国宪法几乎肯定会被是人工智能编写的。除非詹姆斯·麦迪逊(美国第四任总统、“美国宪法之父”)是时间旅行者,否则这显然是不可能的。那么为什么这些AI检测工具会犯这样的错误呢?外媒Arstechnica采访了多位专家以及AI检测工具GPTZero的开发者,揭开其中的原因。

在教育领域,人工智能写作引起了不少争议。教师长期以来依赖传统的教学方法,使用论文作为衡量学生对学科掌握程度的工具。许多教师尝试依靠人工智能工具来检测人工智能生成的写作,但迄今为止的证据表明它们并不可靠。由于存在误报,GPTZero、ZeroGPT和OpenAI的文本分类器等AI检测工具并不可靠,无法用于确定文章是否由大型语言模型(LLM)生成。

当美国宪法的一部分被输入GPTZero时,GPTZero表示该文本“很可能完全由人工智能编写”。在过去的六个月里,显示类似结果的其他人工智能检测工具的屏幕截图在社交媒体上疯传。事实上,如果你输入圣经中的一些内容,也会发生同样的事情。为了解释为什么这些工具会犯如此明显的错误,我们首先需要了解它们是如何工作的。

据IT之家介绍,不同的人工智能书写检测器使用的检测方法略有不同,但基本原理相似:通过人工智能模型,在大量文本(包括数百万个书写示例)和一组假设规则(使用以确定文字是否更有可能是由人类或人工智能生成)。

例如,GPTZero的核心是一个神经网络,它接受了“大型、多样化的人类写作和人工智能生成文本的语料库,重点是英语散文”的训练。接下来,系统使用“困惑”和“紧急”等属性来评估文本并对其进行分类。

在机器学习中,困惑度是衡量一段文本与人工智能模型在训练过程中学到的内容的偏差程度的指标。测量困惑度背后的想法是,当人工智能模型编写时,它们会自然地从训练数据中选择他们最熟悉的内容。输出越接近训练数据,困惑度越低。人类是更容易混淆的作家,而且人类也可以以较低的混乱程度写作,特别是在模仿法律或某些类型的学术写作中使用的正式风格时。而且,我们使用的许多短语都非常常见。

例如,我们被要求猜测短语中的下一个单词:“I'dlikeacup”。大多数人会用“水”、“咖啡”或“茶”来填补空白。在大量英语文本上训练的语言模型也会做同样的事情,并且由于这些短语在英语写作中频繁出现,因此任何这些结果都将具有较低的困惑度。

GPTZero测量的文本的另一个属性是“爆发”,指的是文本中某些单词或短语快速连续出现或“爆发”的现象。本质上,紧急性评估整个文本中句子长度和结构的可变性。人类作家经常表现出动态的写作风格,导致文本具有可变的句子长度和结构,而人工智能生成的文本往往更加一致和统一。然而,突发性并不是检测人工智能生成内容的万无一失的指标。与混乱一样,也有例外。人类作家可能会以高度结构化、一致的风格写作,从而导致较低的紧急分数。相反,人工智能模型可以经过训练来模拟句子长度和结构方面更像人类的可变性,从而提高其突发性分数。事实上,随着人工智能语言模型的改进,研究表明它们的写作看起来越来越像人类的写作。

本文转载自互联网,如有侵权,联系删除

本文地址:https://www.5i818.cn/2201.html

相关推荐

智能审阅、自动写作的现状与未来

智能审阅、自动写作的现状与未来

智能审稿和自动写作的现状和未来近日,山东电视台在全国两会报道中引入人工智能技术引起广泛关注。人工智能与新闻写作的融合早在10年前国外媒体...

AI写作 2024.02.13 0 76

发布评论

文章目录