梅兰妮 · 米切尔数十年来一直致力于研究数字思维。 她表示,除非AI拥有类比的能力, 否则他们永远不会真正像人类。
于1979年斩获普利策奖的著作《哥德尔、埃舍尔、巴赫》(G?del, Escher, Bach)激发了大批计算机科学家的灵感,但很少有人像梅兰妮 · 米切尔(Melanie Mitchell)那般——在读完这本777页的著作后,决定将她的天赋从纽约某高中的数学教育跨界带到人工智能领域。米切尔很快找到此书作者、人工智能研究员侯世达(Douglas Hofstadter),并说服他给了自己一个实习机会。当时的高中数学老师只学过几门计算机科学课程,但她的胆量令普利策奖得主印象深刻,而后者似乎也并不关心她的学历。米切尔赶上了“最后一刻”的研究生申请,并加入了侯世达在密歇根大学安娜堡分校的新实验室。在接下来的6年里,两人密切合作,开发了名为“Copycat”的计算机程序,而设计Copycat的目的是“得到有见地的类比,并以心理现实的方式这样做”。
Copycat提出的类比是围绕简单的字母模式进行的,类似于标准化测试中的类比。举个例子,“如果字符串‘abc’变成了字符串‘abd’,那么字符串‘pqrs’会变成什么?”侯世达和米切尔认为,理解类比的认知过程——人类如何在相似的想法、感知和经验之间建立抽象联系——对于创造真正像人的人工智能至关重要。
米切尔认为类比可以比案例型(exam-style)模式匹配更深入。“类比是通过将某种情况映射到另一种已经被理解的情况,进而理解此情况的本质。比方说你告诉了我你曾经历的一段往事,那么我或许可以从记忆库里找出一段可类比你的经历的故事——虽然严格来说你的过往绝非我所亲历,但二者间关联映射让它们非常相似。”
曾在美国圣达菲研究所担任教授的米切尔将她的研究范围扩展到了机器学习以外,目前也正领导着圣达菲的一个关于自然和人工系统智能的基础(Foundations of Intelligence in Natural and Artificial Systems)项目。不过在她的工作中,类比的内容比以往任何时候都更重,尤其是在与人工智能联系起来的时候——AI领域过去十年的主要进展大多由深度神经网络(DNN)推动,DNN是一种模仿哺乳动物大脑中神经元分层组织的技术。米切尔如此说道:“今天最先进的神经网络非常擅长处理某些类型的任务,但它们难以将自己在A情况下学到的知识转移至B情况——类比思维的本质。”
《量子杂志》最近采访了米切尔,并与其讨论了人工智能如何进行类比思考,该领域迄今为止取得的成果,以及未来发展方向。
为什么类比对人工智能如此重要?
类比是一种基本的思维机制,可帮助AI达成人类希望它们实现的目标。有人认为预测未来或检索在当前情况下有用的记忆是AI任务清单上的重中之重——那么在这些方面,类比思维则是重中之重。举个例子,我们想拥有成熟的自动驾驶汽车,但一个关键问题摆在眼前,如果机器遭遇一些与其曾接受过的培训略有不同的情况,它们会不知道如何是好。假若把汽车替换为人类,我们会用过往经验来类比当前处境,进而迅速给出应对方案。这也是我们需要现实世界里的AI能获得的技能。
如果类比是这么基础性的内容,为什么学界一直没有足够重视?
研究不足的原因之一是很多学者并未认识到类比对认知基石般的重要性。早期的AI研究更多聚焦于解析行为规则的逻辑,设计相关程序。现在,人们又选择让AI从大量示例中学习,然后希望它能借助对已学知识的数据统计来归纳推导以前从未见过的事物——研究者希望概括和抽象的能力会从数据统计中产生,但显然AI没能交出满意答卷。例如,您可以向DNN展示数百万张桥梁图片,它可能会识别出河上桥梁的新图片或其他东西,但它永远无法将“桥梁”的概念抽象升华为诸如“爱情之桥”或“文化之桥”之类的概念。事实证明,DNN难以习得抽象化能力。我们现在只是在努力弥补它在这方面的短板。
机器永远学不会抽象吗?
有像所谓元学习(meta-learning)之类的新方法来帮助机器可以更好地“学会学习”,也有自监督学习(self-supervised learning)的概念——例如GPT-3系统就会学习填充缺了某个词的句子,这让它能够生成非常令人信服的语言。有些人觉得此类系统最终会在有足够数据支撑的情况下学会完成抽象任务,但我不这么认为。从人类角度来说,AI系统不理解它们所处理的数据。这里所谓的“理解”,在我看来,抽象和类比的思维机制是其关键部分,AI得理解发生的机制——人类能够以某种方式把我们已经知道的东西映射到新的东西上。
那么类比是生物体保持认知灵活性的一种方式,而非像机器人那样……
我认为在某种程度上,是的。类比不仅仅是我们人类的专利,有的动物有点像机器人,但也有的物种能够获取先前的经验并将其映射至新的境遇。或许这是将一系列智能应用到不同种类的生命系统中的一种方式:你能在多大程度上进行更抽象的类比?
关于人类为何具有这种特殊智力的一个理论是,因为我们的社交属性太强了。你需要做的最重要的事情之一就是模拟其他人的想法,了解他们的目标并预测他们将要做什么。你会把自己放到别人的位置上去思考,然后将自己的想法映射到他们的情况。这种“心智理论”是人工智能领域的从业者一直在谈论的话题,它本质上是一种进行类比的方式。
您的Copycat系统是计算机的早期类比尝试。还有其他人做过这方面工作吗?
人工智能中的“结构映射”工作更侧重基于逻辑的情况描述并在它们之间进行映射。当人类试图理解事物的相似之处时,我们应该更关注关系而不是特定对象。
结构映射会将那些非常具有人类意义的表达——比如“地球围绕太阳公转”和“电子围绕原子核运动”——相互映射,但“围绕”之意是没有内部模型,仅仅是一个象征。Copycat与字符串配合得很好,但关于如何将其扩展并推广到我们真正关心的领域,我们还没有确切答案。
众所周知,深度学习的扩展性非常好。那么它在产生有意义的类比方面是否也更高效呢?
有一种观点认为,DNN在输入层和输出层之间展现了某种意义上的类比能力。既然AI能比人类更擅长识别不同种类的狗,那么它也理应能够解决那些非常简单的类比问题。有研究者创建了一个大数据集来训练和测试他们的神经网络,最后发表论文称:“我们的方法在这个测试中得到了 80%的正确率。” 可问题在于,当你不得不用成千上万的案例去训练AI,这种做法就意味着你已经失败了。通过海量学习来实现类比的效果不是抽象的全部意义。机器的抽象能力应该是“小样本学习”的能力,即从非常少的示例中学习的能力。
那么我们现在还缺少什么?为什么我们不能像搭乐高积木一样将这些方法组合在一起?
没有哪一本指导手册会教你怎么做到这一点!但我确实认为我们必须把它们组合在一起。这是本研究领域的前沿:所有这些东西的关键是什么,它们如何相互补充?
很多人对抽象推理语料库(ARC)非常感兴趣。ARC是一项非常具有挑战性的小样本学习任务,围绕人类与生俱来的“核心知识”(Core knouledge)而构建。我们知道世界应该被解析为对象,我们知道一些关于空间几何的知识,比如某物在另一物之上或之下。在ARC中,某种颜色网格会变成另一种颜色网格,而人类可以用自己的核心知识来描述颜色网格的变化。比如,某种颜色的所有方块都向右,另一种颜色的全部方块都向左。它给你一个这样的例子,然后要求你对另一个颜色网格做同样的事情。我认为这是一个类比挑战。你试图以某种方式抽象描述A形象到B形象的变化,你无法学习任何奇怪的统计相关性,因为你只有两个例子。如何让机器利用婴儿拥有的核心知识进行学习和推理是我此前提到过的任何系统都无法做到的。这就是它们都不能处理这个ARC数据集的原因。
如果婴儿天生就拥有这种“核心知识”,那是否意味着人工智能要进行此类类比还需要一个“身体”?
这是一个相当有价值的问题,同时也充满争议——人工智能群体还未就此达成共识。我的直觉告诉我答案是肯定的,如果没有某种“身体”,我们将无法在AI中实现人类能做的类比能力。拥有一个“身体”可能是必不可少的,因为其中一些视觉问题需要你进行三维思考。对我来说,这与生活在这个世界上并四处走动需了解事物在空间上的关系有关——我不确定机器是否必须历经此阶段,不过我觉得它可能需要。
资料来源Quanta Magazine