ChatGPT和其他基于机器学习的解决方案正在蓬勃发展。但即使是最成功的算法也有局限性。哥本哈根大学的研究人员首次从数学上证明,除了简单的问题之外,不可能为人工智能创建永远稳定的算法。这项研究可能会为如何更好地测试算法提供指导,并提醒我们,机器毕竟不具备人类的智能。
机器能比医生更准确地解读医学扫描图像,还能翻译外语,而且可能很快就能比人类更安全地驾驶汽车。然而,即使是最好的算法也有弱点。哥本哈根大学计算机科学系的一个研究小组试图揭示它们。
以自动车辆读取路标为例。如果有人在标志上贴了贴纸,这不会分散人类司机的注意力。但是机器可能很容易被推迟,因为现在的标志与它训练时使用的标志不同。
“我们希望算法在某种意义上是稳定的,即如果输入稍微改变,输出将保持几乎相同。现实生活中有各种各样的噪音,人类习惯于忽略这些噪音,而机器可能会感到困惑,”该小组的负责人Amir Yehudayoff教授说。
一种讨论弱点的语言
作为世界上第一个,该小组与来自其他国家的研究人员一起,从数学上证明,除了简单的问题之外,不可能为机器学习创建始终稳定的算法。描述这一结果的科学文章被批准在理论计算机科学的主要国际会议之一——计算机科学基础(FOCS)上发表。
“我想指出的是,我们并没有直接研究自动驾驶汽车的应用。不过,这似乎是一个过于复杂的问题,算法无法始终保持稳定。”他补充说,这并不一定意味着与自动驾驶汽车的发展有关的重大后果:
“如果算法只在少数非常罕见的情况下出错,这是可以接受的。但如果在各种情况下都是这样,那就是坏消息。”
科学文章不能被工业界用于识别其算法中的错误。教授解释说,这并不是本意:
“我们正在开发一种语言来讨论机器学习算法的弱点。这可能会导致描述算法应该如何测试的指导方针的发展。从长远来看,这可能会再次导致更好、更稳定的算法的发展。”
从直觉到数学
一个可能的应用是测试保护数字隐私的算法。
“有些公司可能会声称已经开发出绝对安全的隐私保护解决方案。首先,我们的方法可能有助于确定解决方案不可能绝对安全。其次,它将能够精确地指出弱点。”
不过,首先也是最重要的是,科学文章对理论有贡献。尤其是数学内容是开创性的,他补充道:
“我们直观地理解,当暴露于少量输入噪声时,稳定的算法应该几乎和以前一样好。就像路标上的贴纸一样。但作为理论计算机科学家,我们需要一个明确的定义。我们必须能够用数学的语言来描述这个问题。究竟算法必须能够承受多大的噪声,如果我们接受算法是稳定的,输出应该与原始输出有多接近?这就是我们提出的答案。”
即时通讯记住局限性是很重要的
这篇科学文章引起了理论计算机科学界同事的极大兴趣,但科技行业却没有。至少现在还没有。
Amir Yehudayoff微笑着补充道:“你应该总是预料到,在新的理论发展和应用领域工作人员的兴趣之间会有一些延迟。”
“一些理论的发展将永远被忽视。”
然而,他认为这种情况不会发生:
“机器学习继续快速发展,重要的是要记住,即使是在现实世界中非常成功的解决方案仍然存在局限性。机器有时似乎会思考,但毕竟它们不具备人类的智慧。记住这一点很重要。”