当前位置: 首页 > 

Hiltzik: CNET的聊天机器人噱头显示了人工智能的局限性

|

我们都被几十年的科幻小说所训练,认为人工智能是对我们未来工作的威胁。这个想法是:如果人工智能机器人可以像人类一样工作——成本更低,人与人之间的对立更少——谁还需要人类呢?

CNET科技新闻网站试图冷静而谨慎地回答这个问题。几个月来,该网站使用人工智能引擎为CNET Money的个人理财页面撰写文章。文章涵盖的主题包括“什么是复利?”和“当你退票时会发生什么?”

乍一看,对于金融领域的初学者来说,这些文章似乎令人信服,内容丰富。CNET一直延续这一做法,直到本月初,Futurism网站才提出这一做法。

——约翰·克里斯蒂安,《未来主义

但正如Futurism所指出的,机器人撰写的文章有很大的局限性。首先,其中许多都充满了漏洞。另一方面,大量抄袭传播——在某些情况下来自CNET本身或其姐妹网站。

未来主义的约翰·克里斯蒂安在一篇文章中直截了当地提出了错误问题,他说CNET撰写文章的人工智能的问题是它“有点白痴”。克里斯蒂安随后发表了一篇文章,揭示了许多案例,“从逐字复制到轻微修改,再到重要的释义,都没有正确地说明原文”。

这个消息

请听迈克尔·希尔兹克的最新报道

普利策奖得主对经济学和更多的评论。

你可能偶尔会收到《洛杉矶时报》的促销内容。

这种程度的不当行为将导致一个人类学生或新闻班被开除。

我们以前写过关于新技术尚未被认识的前沿领域的文章,尤其是那些看起来近乎神奇的领域,比如人工智能的应用。

引用我上周写过的机器人专家、企业家和机器人企业家罗德尼·布鲁克斯(Rodney Brooks)的话,“双方都有一个真正的社交媒体家庭手工业;一篇滔滔不绝地描述了这些系统的杰出表现,也许是被选中的,另一篇则显示了它们在非常简单的事情上是多么无能。问题是,作为用户,你事先并不知道你将得到什么。”

这让我们回到CNET的文章写作机器人。CNET没有具体说明它使用的是什么人工智能应用程序,不过从时间上看,它不是ChatGPT。ChatGPT是一款人工智能语言生成器,它在技术人员中引起了轰动,也在教育工作者中引起了担忧,因为它显然有能力写出很难区分为非人类的书面作品。

CNET并没有对其文章的人工智能贡献特别明确,只是附加了一小行印刷文字,“这篇文章由人工智能引擎协助,并由编辑团队审阅、验证和编辑。”超过70篇文章来自“CNET Money Staff”。自从《未来主义》被揭露后,副标题就简单地改成了“CNET Money”。

上周,据the Verge报道,CNET高管告诉员工,该网站将暂时停止发布人工智能生成的材料。

正如基督教未来主义所确立的那样,机器人文章中的错误包括对金融术语的基本错误定义,以及无端的过度简化。在一篇关于复利的文章中,CNET机器人最初写道:“如果你将1万美元存入一个年复利3%的储蓄账户,第一年年底你将获得10300美元。”

这是错误的——年收入将只有300美元。这篇文章后来被修改为“你将赚300美元,加上基本金额,第一年年底你将赚10300美元。”

该机器人最初还将25,000美元汽车贷款的利息(4%)描述为“每年1000美元的固定利率”。与抵押贷款一样,汽车贷款付款是固定的——利息只对未偿余额收取,随着付款的进行,利息会减少。即使是一年期4%的汽车贷款,利息也只有937美元。对于长期贷款,支付的总利息每年都在减少。

CNET也更正了这一错误,同时更正了同一篇文章中的其他五个错误。综上所述,该网站声称其人工智能机器人“经过了我们的编辑团队的事实核查和编辑”,这听起来有点站不住脚。

机器人模拟更令人印象深刻,并提供了关于程序如何工作的重要线索。克里斯蒂安发现,该机器人似乎复制了包括福布斯、Balance和Investopedia在内的来源的文本,这些来源都与CNET Money经营着相同的个人财务咨询领域。

在这些情况下,机器人使用了与人类模仿者类似的屏蔽技术,比如简单的释义和单词交换。在至少一个案例中,该机器人是从CNET的姐妹出版物Bankrate被盗的。

这一切都不足为奇,因为语言机器人工作的关键之一是它们能够接触到大量人类创作的散文和诗歌。它们可能擅长在原始材料中找到可以复制的模式,但在人工智能发展的这个阶段,它们仍然在吸收人类的大脑。

包括ChatGPT在内的这些项目产出的显著连贯性和论证能力,似乎更多地与他们从人类产生的原材料中进行选择的能力有关,而不是发展和阐明新概念的能力。

事实上,克里斯蒂安写道,“仔细检查CNET的人工智能产生的作品,它看起来不太像一个复杂的文本生成器,而更像一台抄袭机器,随意地输出抄袭作品。”

很难说我们在机器人产生的不一致性和真正的创造性表达之间的连续统一体中处于什么位置。华盛顿大学(University of Washington)和李大学(Lee University)教授杰夫·沙顿(Jeff Shaten)在9月份的一篇文章中写道,当时最复杂的语言机器人GPT-3有明显的局限性。

“她被复杂的写作任务困住了,”他写道。“她写不出长篇小说,甚至连一个像样的短篇故事都写不出来。她在科学写作方面的尝试……很有趣。但是这种能力存在多久了?六个月前,GPT-3还只能进行一些基本的查询,如今它可以写一篇明智的博客文章,讨论“员工如何从不情愿的老板那里获得晋升”。

那些需要判断书面工作的人,比如教师,可能会发现更难区分人工智能生成的材料和人类输出的内容。一位教授最近报告说,他发现一名学生用传统的方式提交了一篇机器人写的论文——这非常好。

随着时间的推移,关于某物是人类还是机器人的困惑可能并不取决于机器人的能力,而是取决于负责的人类的能力。

TAG: