当前位置: 首页 > 

摩托罗拉最新手机政府专家概述了人工智能的9大危险,从虚假信息到网络攻击

|

政府发布了一系列关于人工智能(AI)风险的报告,从新的先进网络攻击到人类失去对技术的控制。

Rishi Sunak正在为下周在布莱切利公园举行的人工智能安全峰会做演讲,他将在那里与其他世界领导人就控制新兴技术的监管框架进行谈判。

预计他将赞扬“人工智能可以带来的机会或更美好的未来”,并向公众承诺,政府将“让你放心,我们会保护你的安全”。

以下是政府对人工智能风险的官方评估中的一些主要警告:

由于人工智能仍处于发展的早期阶段,人们普遍担心系统可能会开始以超出预期的方式运行,可能会产生负面结果。

报告警告说:“虽然我们可以限制人工智能的行为库(例如,从有限的词汇表中输出文本),但这限制了性能,因此可能缺乏竞争力,而且人工智能系统经常以意想不到的方式使用它们的行为库,实现意想不到的——而且可能是危险的——结果。”

它还指出,防止人工智能系统追求意想不到的目标,即所谓的规范问题,是一个“未解决的研究问题”。

“一般来说,直接用代码完全表达复杂的行为、概念或目标是不可能的,所以教AI哪些行为是可取的,哪些是不可取的,必须间接地完成,只能近似地学习;这会导致潜在的规格和保证差距,”报告继续说道。

在报告中,研究人员声称,人工智能行业的许多人都认为该技术应该被视为一种通用技术,类似于电力,并且应该像医疗保健、航空和核工程等其他行业一样受到监管。

人们已经开始担心,安全标准“仍处于早期阶段”,需要更多的全球协调,因为模型往往是在一个国家开发出来的,然后在另一个国家部署。

报告称:“前沿人工智能的安全测试和评估是临时的,没有既定的标准、科学依据或工程最佳实践。”

此外,该报告还指出,在行业竞争激烈的情况下,人工智能开发者在创建新系统时没有任何降低风险的动力,因为“他们不会承担任何问题的全部成本”。

报告称:“在这种情况下,即使是人工智能开发商也很难单方面承诺遵守严格的安全标准,以免他们的承诺使他们处于竞争劣势。”

在政府对人工智能报告的总结中,有人警告说,人类未来可能会以一种无法逆转的方式过度依赖这项技术。

报告指出:“随着人工智能能力的增强,人类赋予人工智能对关键系统的更多控制权,最终变得不可逆转地依赖于他们不完全理解的系统。失败和意外结果是无法控制的。”

专家们还强调了依赖人工智能的风险,因为如果“系统失调”,将会产生严重后果。

“人工智能系统可能会越来越多地将社会引向与其长期利益不一致的方向,即使任何人工智能开发者都没有任何意图让这种情况发生。即使很多人意识到这种情况正在发生,也很难阻止,”报告称。

人工智能最大的风险之一是虚假信息,即坏人故意传播的虚假信息,因为虚假图像、视频和事实的制作成本更低,速度更快。

报告称:“人工智能生成的深度造假正变得极其逼真,这意味着它们往往无法被拥有先进检测技术的个人甚至机构识别。”

“即使在人工智能生成的内容不被普遍相信的地方,它的战略部署也可能造成破坏、混乱和信任的丧失。”

有人担心,这种运动可能被用来影响大选,并在政治问题上说服人们,制造混乱。

人工智能生成的内容也存在意外偏见的持续风险,因为模型产生的内容在它们所训练的数据中是“根深蒂固的”,并且可以再现社会中现有的偏见或刻板印象。

报告指出:“这些偏见往往是微妙而根深蒂固的,损害了人工智能系统的公平和道德使用,使人工智能难以提高决策的公平性。”

错误信息的传播涉及在没有恶意的情况下复制虚假信息,因为人工智能以产生“幻觉”而闻名,在这种情况下,它会无意中编造信息。

专家在报告中警告称,这可能会“降低人们对网上真实信息的总体信任度”,并导致个人和企业依赖虚假信息做出“妥协的决策”。

对人工智能产生的偏见和虚假信息的进一步担忧是,它可能会使一些人变得激进或鼓励他们做有害的事情。

报告称:“有一些例子表明,人工智能会产生危险信息,无意中使个人变得激进,并将用户推向有害行为,这是模型设计的意外后果。”

“长期后果,特别是随着前沿人工智能越来越多地嵌入主流应用程序,儿童和弱势群体更容易接触到,是高度不确定的。”

人工智能创造与照片难以区分的逼真图像的能力也具有更广泛的含义。

在调查结果的总结中,政府得出结论,犯罪分子使用这项技术“很可能会加速犯罪的频率和复杂程度”,例如诈骗和制作儿童性虐待图像。

它还表示,人工智能已经被犯罪分子用于语音生成和面部克隆,目的是“侵犯人们的隐私和人权”。

其中一个已经被发现的骗局涉及使用人工智能“冒充可信联系人的声音”来说服目标服从。

除了诈骗风险增加之外,人们还担心人工智能可能被用来发动更复杂的网络攻击。

报告警告称:“任何人都可以利用人工智能系统,通过定制的网络钓鱼方法或复制恶意软件,来创建更快、更有效、更大规模的网络入侵。”

也有人工智能被用来制造电脑病毒的例子,这些病毒“随着时间的推移而变化,以避免被发现”,这种特征需要相当多的人类专业知识才能创造出来。

“目前的战术通常需要人力,这可以被更先进的人工智能系统所取代,从而导致更强大的网络攻击的可扩展性,”它继续说道。

报告还警告说,人工智能的发展可能会导致系统自动发起网络攻击,目前仍在研究这种情况是否可能发生。

然而,这也有好的一面,因为人工智能也可以用于网络防御,因为它可以帮助识别系统中的异常情况并扫描安全控制。

报告中最大的警告之一是,到2025年,人工智能可能被用来“增强恐怖分子在宣传、激进化、招募、资金流、武器开发和袭击计划方面的能力”。

它还特别警告说,人工智能可能“被用于恶意目的,例如用于开发生物或化学武器”,但承认专家们对这种风险的程度存在争议。

报告解释说,人工智能具有这种能力,因为它已被证明可以有效地为实验室工作量身定制指令,这些指令“可能被用于恶意目的”,甚至偶尔会指导如何获取生物或化学材料。

另一个令人担忧的大问题是,随着人类越来越多地将决策权交给人工智能,我们最终可能会完全失去对它的控制。

报告写道:“一些专家担心,未来先进的人工智能系统将寻求增加自身的影响力,减少人类的控制,这可能会带来灾难性的后果。”

该报告承认,“这些风险的可能性仍然存在争议”,人工智能是否能从人类手中夺走控制权也存在激烈争议。

“然而,许多专家担心,失去对先进通用人工智能系统的控制是一种真实的可能性,而失去控制可能是永久性的和灾难性的,”它继续说道。

TAG: