一个互联网监督组织在用于训练流行的人工图像生成器的数据库中发现了数千张儿童性虐待图片,其中包括加拿大受害者的照片。
加拿大儿童保护中心的技术主管劳埃德·理查森说:“这对受害者来说又是一记耳光。”
理查森说,这表明在联邦政府制定期待已久的网络危害立法时,必须考虑人工智能。
斯坦福互联网观察站最近的一份报告发现,数据库LAION(公开的非营利性大规模人工智能开放网络)中有3200多张涉嫌儿童性虐待的图片,该数据库用于培训知名的人工智能图像制作人员。
这个位于斯坦福大学的观测站与加拿大儿童保护中心合作,通过该中心的蜘蛛项目工具验证了这一发现,该工具拥有已知儿童性虐待图像的记录。
理查森没有透露数千张照片中有多少是加拿大受害者的照片。
人工智能图像生成器在推出后大受欢迎,但也引起了极大的关注和争议,包括那些未经同意使用其作品的艺术家。
生成器是在互联网上数十亿张图片的基础上进行训练的,并使用附带的文本描述。最流行的发电机使用LAION。
斯坦福互联网观测站的首席技术专家大卫·蒂尔说,LAION不仅仅包含艺术、建筑和柯基犬的图像来教图像生成器。
他说:“他们接受了大量露骨材料的训练,他们也接受了大量儿童和其他年龄段人的照片的训练,但他们也接受了(儿童性虐待材料)本身的训练。”
蒂尔是这份新报告的作者,他说,儿童性虐待材料只是LAION网络中58亿张图片的一小部分,但它仍然影响着人工智能图像生成器创建的内容。他说,它可以使儿童的图像性感化,甚至使某些图像有点像已知的受害者。
蒂尔说,负面影响是无法估量的,而且已经在世界各地显现出来。多个国家的人们对人工智能生成的青少年和儿童裸照感到担忧,他们联系了他。
温尼伯的一所学校本月早些时候通知家长,人工智能生成的未成年女学生照片已被分享。至少有17张来自学生社交媒体的照片被人工智能明确修改。学校官员表示,他们已经联系了警方。
“这是一个重要的相关问题,”蒂尔说。
LAION本周在给美联社的一份声明中说,它暂时删除了这些数据集,以确保它们在重新发布之前是安全的。
蒂尔说,损害已经造成,现在回头已经太晚了。人们已经下载了包含儿童性虐待的数据集,并将继续使用它们。
“你必须在第一次就把事情做好。他说:“不只是‘把它推向市场,然后再修复’。”
“我们要处理这个问题很多年,因为人们在没有采取安全措施的情况下匆忙将其推向市场。”
蒂尔说,数据集在公开之前应该对儿童性虐待材料进行筛选,并补充说,人工智能生成的图像也被发现有种族主义和厌女主义。
理查森表示,处理人工智能产生的问题不仅仅是行业的责任。
加拿大总理贾斯汀·特鲁多承诺在2019年的联邦竞选活动中引入网络危害立法。它旨在处理仇恨言论、恐怖主义内容和性虐待材料。
但去年,政府在面临批评(包括该法案对言论自由的影响)后,将其最初的计划送回了绘制板。
修改该法案的专家小组最近发表了一封公开信,称加拿大儿童受到的保护不如已经实施类似法律的国家的儿童。
理查森说,渥太华当然可以采取一些措施。
“有一种观点认为,互联网是一种脱离主权法律现实的东西,这完全是胡说八道,”他说。
“我认为,在这个领域,我们绝对可以做一些事情。”