当前位置: 首页 > 

塑料包装袋澳大利亚可能会要求科技公司给ChatGPT等人工智能平台生成的内容贴上标签

|

科技公司可能会被要求为ChatGPT等人工智能生成的内容添加水印或标签,因为联邦政府正在努力应对“高风险”人工智能产品的发展速度快于立法。

工业和科学部长埃德·胡西克(Ed Husic)将于周三发布政府对澳大利亚安全负责任的人工智能咨询程序的回应,该咨询程序援引麦肯锡(McKinsey)的研究表明,采用人工智能和自动化可以使澳大利亚的GDP每年增长高达6000亿美元。

然而,回应也注意到公众对这项技术的担忧,Husic表示,尽管政府希望看到人工智能的“低风险”用途继续蓬勃发展,但一些应用——包括自动驾驶汽车或评估工作申请的程序——需要新的、更严格的监管。

“澳大利亚人理解人工智能的价值,但他们希望看到识别和解决风险。我们已经清楚地听到,澳大利亚人希望有更强的护栏来管理高风险的人工智能。”

专家警告称,澳大利亚在人工智能监管方面“处于落后地位”

该报告指出,调查显示,只有三分之一的澳大利亚人认为人工智能的设计和开发有足够的“护栏”,并表示:“尽管人工智能有望推动我们的经济增长,但公众对人工智能系统的设计、开发、部署和使用安全、负责任的信任度很低。”

临时应对措施承诺,政府将立即成立一个专家咨询小组,负责制定人工智能政策,包括进一步设置护栏;制定一项自愿性的“人工智能安全标准”,作为希望将人工智能技术整合到其系统中的企业的单一来源;并开始就新的透明度措施与业界进行磋商。

还需要进一步考虑的是强制性保障措施,包括新产品的部署前风险和危害预防测试,以及诸如软件开发人员培训标准之类的问责措施。

临时回应文件将改革的几个领域纳入进一步的磋商和审查过程,其中一项主要建议是提高人工智能的透明度措施——例如公开报告人工智能模型所依据的数据。

  • 注册澳大利亚卫报免费的上午和下午的电子邮件时事通讯,获取每日新闻综述

政府还将就另一项建议的优点“与业界展开合作”,即在人工智能生成的内容上加入水印或标签的自愿守则。

这些变化将是联邦政府现有工作的补充,例如通信部长米歇尔·罗兰(Michelle Rowland)承诺修改在线安全法,并要求科技公司消除人工智能制造的有害材料,如深度虚假的亲密图像和仇恨言论。政府亦透过“政府人工智能专责小组”,检讨在学校使用生成式人工智能的情况。

跳过过去的通讯推广

通讯推广后

“历史上最大的版权盗窃行为”:据称数千本澳大利亚书籍被用来训练人工智能模型

这篇论文概述了人们对“高风险”人工智能系统的具体担忧,比如那些“预测一个人再犯的可能性、是否适合一份工作,或启用自动驾驶汽车”的人工智能系统。这与“低风险”人工智能的使用形成鲜明对比,例如用于过滤电子邮件或商业运营的程序。

该报告还强调了对“前沿”人工智能系统的担忧。论文没有提到具体的程序,但表示,这种系统“可以快速、轻松地生成新内容”,并且“可以嵌入到各种各样的环境中”。

报告还强调,人工智能服务的开发和部署速度和规模可能超过立法框架的能力,其中许多立法框架的设计是技术中立的。

这些意见书引发了人们对至少10个可能需要改革的法律领域的担忧,以解决人工智能问题,包括根据消费者法,使用人工智能生成深度造假是否可能对误导或欺骗行为负责;医疗领域使用的人工智能模型是否会在隐私法下造成风险;以及如何使用现有的内容来训练生成式人工智能模型——比如它是否会造成版权侵权,以及是否应该对此类活动进行补救。

创建新内容的生成式人工智能模型,如商业上流行的ChatGPT文本机器人或Dall-E图像生成器,都是在现有内容上进行训练的。这引起了从内容来源,从作者、艺术家到新闻媒体的广泛关注,他们担心自己的原创作品是如何被重新利用的,以及他们是否应该有权获得报酬。

《纽约时报》(New York Times)上月起诉OpenAI和微软(Microsoft)利用其内容训练生成式人工智能和大型语言模型系统。

Husic表示:“我们希望在人工智能的设计、开发和部署过程中,尽早形成安全和负责任的思维。”“我们也希望政府能更快地跟上科技的发展,所以我们已经任命了一个咨询机构,将人工智能领域最优秀的人才聚集在一起,为未来的应对规划前进的道路。”

TAG: