首页 AI写作 正文

深度造假AI写手火了!大学生用GPT-3写鸡汤文,骗过一堆人登上科技头条

深度造假AI写手火了!大学生用GPT-3写鸡汤文,骗过一堆人登上科技头条

深假“AI写手”流行!大学生用GPT-3写“鸡汤文章”,忽悠了很多人,还上了科技头条

GPT-3是OpenAI最新、最大的语言人工智能模型,由1750亿个参数组成。位于旧金山的OpenAI研究实验室于今年5月开始逐步推出该模型,并引发了越来越大的反响。这个庞大的语言模型几乎可以完成任何可以用文字表达的工作:从回答问题、写文章、写诗、甚至写代码……都包含在内。那么它到底有多强呢?

最近,刚开始使用GPT-3的伯克利大学学生LiamPorr以化名并使用人工智能模型创建了一个完全虚假的博客。然而,这却成功“骗过了”一大批内容读者。

这种讽刺性和欺骗性的“AI把戏”很快就愚弄了HackerNews这样的科技极客圈子,随后真相被曝光,瞬间成为热门话题,怎么可能有那么多人被一个完全构建出来的所谓“AI把戏”所愚弄。通过人工智能?“博客”是骗局吗?“订阅”上述新闻的人真的有很多吗?

虽然很多人猜测迄今为止最强大的语言生成人工智能工具GPT-3将如何影响内容生产,但这种“造假”的范围和影响却出人意料。这是GPT-3唯一一次如此真实地展示其能力,这足以说明这个工具的应用潜力。

鲍尔在加州大学伯克利分校学习计算机科学,他说这次经历的突出之处在于:“事实上,它是如此简单,这是最可怕的部分。”

登上头条、引爆粉丝的“AI鸡汤文”

尽管GPT-3尚未完全开放,但Bol仍然轻松获得了接口。鲍尔提交了申请。他填写了一份表格,其中包含一份关于他计划使用什么的简单调查问卷。但他并没有等太久。在联系了伯克利人工智能社区的几位成员后,他很快找到了一位已经拥有此访问权限的博士生。

在博士生同意合作后,玻尔很快写了一个简短的剧本供他运行。给GPT-3一个博客标题和介绍,以及几个完整版本。Porr的第一篇文章(HackerNews上的文章)以及此后的所有文章都是从输出中复制并粘贴的,几乎没有进行任何编辑。

“从我产生这个想法并联系这位博士生到创建博客,可能只花了几个小时,”他说。

Bol以假名“adolos”撰写的第一个假博客,意外登上YCHackerNews新闻平台热门榜榜首!波尔表示,他使用三个不同的账户在HackerNews上发帖和投票,试图增加自己的帖子数量。管理员说这个策略不起作用,但他的点击率标题起作用了。

无需过多编辑即可生成内容的技巧是了解GPT-3的优缺点。波尔说:“它非常擅长创造优美的语言,但不太擅长逻辑和理性。”因此,他选择了一个不需要严格逻辑的热门博客类别:“鸡汤文章”,既能达到效率,又能达到自尊。-帮助,公式输出。

然后,他遵循一个简单的公式来撰写标题:他搜索Medium和HackerNews以了解这些类别中发生的情况,然后将相对相似的内容放在一起。“感觉效率低下?”感觉效率低下?也许你应该停止过度思考,他在其中一篇文章中写道。“大胆和创造力战胜了智力”(AudacityandCreationoverIntelligence),他在另一篇文章中写道。有时标题并没有起到作用。但只要坚持正确的主题,这个过程很容易实现,而“鸡汤文章”帮助博客增加了粉丝。

两周后,我几乎每天都发帖。不久之后,HackerNews上有人指责Bol的博文是由GPT-3编写的。另一位用户回应称该评论“不可接受”。甚至有读者看完后留言:“好文章!和伊森·霍克的泰德演讲一样有深度!”少数对Bol的假博客持怀疑态度的人实际上遭到了社区其他成员的否决,这已得到充分证明。它不是“公众的眼睛都是雪亮的”。

大多数人都感到震惊,并没有意识到这篇文章不是人写的。Medium的新闻平台、YCombinator等多家平台转载并发表了他的第一篇博客。事实上,他的博客获得了很多粉丝,人气仍然很高。…………这让波尔弟弟开始感觉不舒服,但他也觉得很不舒服。好惊讶

Bol表示,他想证明GPT-3可以模仿人类作家。事实上,在他的HackerNews顶级帖子中,只有三四个人怀疑算法可能生成它,尽管他的打字模式有些奇怪并且偶尔会出现错误。此外,所有这些评论立即遭到社区其他成员的拒绝。

最后,鲍尔用他自己写的一条神秘的信息结束了这个项目。这篇题为“如果我没有道德,我会用GPT-3做什么?”的文章将其过程描述为一个假设。当天,他还在自己的真实博客上发表了更直接的表白,澄清并揭露了“假博客”。

AI语言工具引发担忧和思考

按照OpenAI算力统计单位petaflops/s-day计算,训练AlphaGoZero需要1800-2000pfs-day,而OpenAI的GPT-3则需要3640pfs-day。拥有微软无限算力的OpenAI,似乎无所不能。现在飞..

对于专家来说,这一直是这种语言生成算法所关心的问题。自从OpenAI首次发布GPT-2以来,一直有人猜测它很容易被滥用。GPT-3成为OpenAI迄今为止发布的最新、最大的AI语言模型。该实验室在自己的博客文章中重点关注了人工智能工具作为制造大规模虚假信息的武器的潜力。其他人想知道它是否可以用来发送与GooglePlay相关的垃圾邮件关键字。

去年2月,OpenAI的GPT-2(该算法的早期版本)因宣布将保留该版本以防止滥用而成为头条新闻。这一决定立即引发了强烈反对,研究人员指责该实验室“萎缩”。11月,该实验室最终改变了立场并发布了该模型,当时表示“迄今为止尚未发现强有力的滥用证据”。这不,这一次“翻车”有点走错了方向。

该实验室对GPT-3采用了不同的方法;既不拒绝也不允许公众访问。相反,它向要求私人测试的研究人员提供该算法,目标是在年底前收集他们的反馈并将该技术商业化。

波尔说,他的实验还显示了一个更平凡但仍然令人不安的选择:人们可以使用该工具生成大量点击内容。“很可能会出现很多平庸、低质量的博客内容,因为现在的进入门槛太低了,”他说。“我认为在线内容的价值将会大幅下降。”

Bol计划利用GPT-3进行更多实验。但它仍在等待OpenAI介入。“他们可能对我所做的事情不满意,”他说。“我的意思是,这有点愚蠢。”

OpenAI背后的“AI大法”

OpenAI成立仅四年时间,已成为全球领先的人工智能研究实验室之一。与Alphabet旗下DeepMind等其他人工智能巨头一样,谷歌也通过不断发布引人注目的搜索结果而声名鹊起。它也是硅谷的宠儿,创始人包括埃隆·马斯克(ElonMusk)和传奇投资人萨姆·奥尔特曼(SamAltman)。

最重要的是,他因其使命而受到尊敬。它的目标是成为第一台创造人工智能的机器,一种具有人类思维的学习和推理能力的机器。我们的目标不是统治世界;而是相反,该实验室希望确保该技术的开发安全,并确保其好处在世界各地均匀分配。

这意味着,如果AGI技术的发展走阻力最小的道路,很容易失控。我们周围笨拙的人工智能就是一个例子。问题是AGI一直很模糊。该领域的共识是,如果有可能开发出这些先进的能力,即使不是几个世纪,也需要几十年的时间。许多人还担心,过度追求这一目标可能会适得其反。

大多数人第一次听说OpenAI是在2019年2月14日。那天,该实验室宣布了一项令人印象深刻的新研究:只需按一下按钮即可生成引人入胜的文章和文章的能力。

但有一个问题:研究人员表示,这个名为GPT-2的模型太危险,不能发布。如此强大的技术如果落入坏人之手,很容易被“武器化”,大规模制造虚假信息。这立即引起了科学家的强烈反对。

在持续不断的炒作指责中,OpenAI坚称GPT-2不是一个噱头。相反,这是一个经过深思熟虑的实验,经过一系列内部讨论和辩论后达成一致。大家一致认为,即使这次行动走得更远,也将为应对更危险的调查开创先例。

但OpenAI和GPT-2媒体活动也遵循成熟的模式,这种模式引起了更广泛的人工智能社区的怀疑。多年来,该实验室的重大、高调的研究公告一再被指责为人工智能周期的推波助澜。批评者还不止一次指责该实验室夸大其发现,以至于曲解它们。出于这些原因,该领域的许多人宁愿保持距离。

GPT-2引起如此强烈反应还有一个原因。人们感觉OpenAI再次违背了此前公开透明的承诺,走上了盈利之路。这项未公开的研究增加了人们的担忧和怀疑:是否该技术一直处于保密状态,为未来的许可做准备?但人们不知道的是,这并不是OpenAI唯一一次选择隐藏其研究。

收集/前瞻经济学人APP资讯群

参考来源:

https://www.technologyreview.com/2020/08/14/1006780/ai-gpt-3-fake-blog-reached-top-of-hacker-news/?itmsourceparsely-api

https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/

本文转载自互联网,如有侵权,联系删除

本文地址:https://www.5i818.cn/2135.html

相关推荐

发布评论

文章目录