当前位置: 首页 > 

半岛报电子版安大略省隐私专员感到迫切需要解决人工智能的“狂野西部”风险

|

多伦多——安大略省信息和隐私专员表示,随着她对人工智能技术的担忧越来越多,她感到对人工智能采取行动的“紧迫感”。

帕特里夏·科塞姆(Patricia Kosseim)对人工智能的担忧包括,它被用来传播错误信息、欺骗加拿大人、加深偏见和造成歧视。

她说,像ChatGPT这样的人工智能聊天机器人也令人担忧,它可以将用户的简单提示迅速转化为详细的文本。

她在一次采访中说:“当你提示ChatGPT这样的系统时,你得到的不是一个有组织的、精心策划的图书管理员参考资料。”

“你看到的是狂野的西部;不知道来源是什么,不知道它是如何被创造出来的。”

科塞姆发表上述言论之际,正值加拿大迎来数据隐私周(Data Privacy Week),与此同时,人工智能的快速发展使该技术成为几乎所有行业的话题。

自OpenAI于2022年11月发布ChatGPT以来,越来越多的公司正在探索如何部署人工智能,而监管机构则在考虑如何在不压制机会的情况下保护公众免受其风险。

在考虑人工智能在过去一年中取得的快速进步时,科塞姆经常考虑如何取得适当的平衡。

这些进步在深度造假方面尤其明显——视频、音频剪辑或照片,这些技术被用来让某人看、说或做他们没有做过的事情。

“这就是阴谋论者和其他造谣者随时准备冲进来,用虚假信息填补信息空白的地方,”她说。

恶意行为者已经找到了各种方法来综合模仿高管的声音,甚至精确到他们的语调和口音,欺骗员工,让他们认为老板在要求他们把资金转到犯罪者的账户上。

科塞姆说,诸如描绘美国五角大楼爆炸引发股市短暂下跌的虚假图片,以及导演迈克尔·摩尔支持美国总统候选人唐纳德·特朗普的虚假视频等,都是“不好玩的事情”。

科塞姆认为,现在是解决这些风险的时候了。

硬币掉了下来。数据影响着我们每一个人,每个组织都将在其流程中使用和集成人工智能。这是我们这一代人最根本的思维模式转变。”

“技术不仅仅是发生在公司技术董事会会议室或实验室里的一件遥远的事情。”

立法者也持有这种观点。今年6月,联邦政府提出了一项法案,旨在对人工智能进行一些监管。

该法案预计将不早于2025年实施。与此同时,联邦政府已经要求科技公司同意一项自愿行为准则,该准则要求签署国筛选数据集是否存在潜在的偏见,并评估它们创造的任何人工智能是否有“潜在的不利影响”。

与此同时,安大略省创建了一个人工智能框架,以制定基于风险的规则,指导公共部门使用人工智能。Kosseim在政府的公众咨询期间发表了评论,当时该框架正在制定中。

安大略省可信赖的人工智能框架包括通过共享部署时间和方式的信息来确保人工智能不会被秘密使用。该框架的其他要素包括,通过定义和防范该技术的风险,并确保有办法挑战人工智能做出的决定,从而逐渐灌输对该技术使用的信任。

但是科塞姆说,该省需要走得更远。

自5月以来,她和安大略省人权专员一直呼吁该省制定和实施有效的护栏,以防止公共部门使用人工智能技术

虽然他们最初的要求并没有详细说明护栏是什么,但科塞姆说,该省采取的任何机制都应该“更全面、更稳健、更细致”和“有约束力”。

她说:“有执行力的有约束力的规则会产生激励,促使组织把注意力集中在正确的事情上。”

“这不是在事后惩罚他们。而是鼓励他们在前端集中注意力。”

当被问及她是否觉得自己的呼吁会得到重视时,科塞姆说:“我很有希望。我认为他们必须这么做。”

TAG: