有办法摆脱人工智能的兴衰周期吗?

1956年夏天,一群数学家和计算机科学家占用了达特茅斯学院数学系所在大楼的顶层。在大约八周的时间里,他们想象着是否存在对一个全新领域进行研究的可能性。 当时作为达特茅斯学院的一名年轻教授,约翰 · 麦卡锡(John McCarthy)在为研讨会写提案时创造了“人工智能”(AI)一词。他说,研讨会将要探索这样的假设:“从原则上来讲,学习的每一个方面或智能的任何其他特征都可以得到精确描述,精确到可以利用机器进行模拟的地步。”

在那次著名的会议上,研究人员大致勾勒出了我们今天所了解的人工智能。那次研讨会催生了第一个研究者团体——“符号主义专家”团队,他们的专家团队在20世纪80年代达到了巅峰时期。会议之后的几年里,还出现了“连接主义专家”团队,他们在人工神经网络领域苦苦钻研了几十年,直到最近才开始有了飞跃性的发展。长期以来,这两种方法被认为是相互排斥的,研究人员对资助的竞争非常激烈,相互之间产生了敌对情绪,双方都认为自己走在通往通用人工智能的正道上。

回顾过去,自从那次会议以来,在几十年的时间里,我们发现:人工智能研究人员的希望经常破灭,而这些挫折对他们的影响却微不足道。目前,人工智能正在彻底改变各个行业,而且有可能颠覆全球劳动力市场。尽管如此,许多专家也怀有疑问:当今的人工智能是否达到了极限?正如查尔斯 · 邱伊(Charles Choi)在《人工智能出现故障的七种方式》(Seven Revealing Ways AIs Fail)一文中所描述的那样,当今深度学习系统的弱点日益显著。然而,研究人员并没有将要遭到厄运的感觉。的确,在不远的将来,我们有可能迎来人工智能的另外一个严冬。但是,这可能恰恰是一个时机,最终使拥有灵感的工程师带领我们进入机器思维的永恒之夏。

开发符号人工智能的研究人员开始明确地让计算机去认识世界,他们开创的原则认为:知识可以由一组规则来表示,而计算机程序可以使用逻辑来操控这些知识。占主导地位的符号主义专家艾伦 · 纽维尔(Allen Newell)和赫伯特 · 西蒙(Herbert Simon)认为:如果一个符号系统有足够多的结构化事实和前提,最终累加起来就会产生广泛的智能。

另一方面,连接主义专家受到了生物学的启发,他们致力于研究“人工神经网络”,这种网络将会吸收信息并通过其自身弄清信息的意义。开创性的实例就是那台感知器——康奈尔大学心理学家弗兰克 · 罗森布拉特(Frank Rosenblatt)在美国海军的资助下建造的一台实验性机器。该机器拥有400个光传感器,共同充当视网膜,向大约1 000个“神经元”提供信息,由神经元对信息进行处理,然后输出单一的结果。1958年,《纽约时报》的一篇文章引用了罗森布拉特的说法:“这台感知器将是首个像人脑一样思考的设备。”

7.1

1958年的这台感知器被誉为“首个像人脑一样思考的设备”,但它并没有完全达到宣传的效果

7.2

罗森布拉特发明了感知器,这是首个人工神经网络

美国和英国的政府机构乐观开放,备受鼓舞,向投机性研究倾注了资金。1967年,麻省理工学院教授马文 · 明斯基(Marvin Minsky)写道:“不出一代人的时间,创造人工智能的问题将得到实质性解决。”然而此后不久,政府提供的资助金开始枯竭,原因是人们感到人工智能研究没有达到其自身宣传的那种效果。20世纪70年代,人工智能研究遭遇了第一个冬天。

然而,真正相信人工智能的人们坚持了下来。到20世纪80年代初,符号人工智能的研究人员恢复了热情,迎来了一个全盛时期。他们的“专家系统”获得了赞誉和资助,该系统对某一特定学科的知识进行编码,如法律或医学。投资机构希望,这些系统能够迅速找到商业应用。最著名的符号人工智能风险项目始于1984年,当时研究人员道格拉斯 · 莱纳特(Douglas Lenat)开始研究一个他称之为“Cyc”的项目,该项目旨在将常识编码到机器中。直到今天,莱纳特及其团队仍在继续向Cyc本体中添加术语(事实和概念),并通过规则来解释它们之间的关系。到2017年,该团队拥有150万条术语和2 450万条规则。然而,Cyc仍然远远没有达到通用智能的水平。

在20世纪80年代末,商业的寒风吹来了人工智能的第二个冬天。专家系统的市场崩溃了,因为该系统需要专门的硬件,无法与正在变得更加便宜、更为常见的台式电脑进行竞争。到20世纪90年代,不管是从事符号人工智能研究还是从事神经网络研究,在学术上已经不再时髦,因为这两种策略似乎都不成功。

7.3

人工智能领域的研究开始于1956年的一次研讨会(上),从左到右依次为:奥利弗·塞尔弗里奇(Oliver Selfridge)、纳撒尼尔·罗切斯特(Nathaniel Rochester)、雷·索洛莫诺夫(Ray Solomonoff)、明斯基,以及研讨会组织者麦卡锡和克劳德·香农(Claude Shannon)。西蒙(中)和纽维尔(下)等符号主义专家想把有关世界的规则教给人工智能

但是,取代专家系统的廉价计算机却成为连接主义专家的福音,他们突然有了足够的计算能力来运行具有多层人工神经元的神经网络。这样的系统被称为深度神经网络,这种神经网络运行的方法被称为深度学习。多伦多大学的杰弗里 · 辛顿(Geoffrey Hinton)应用了一个叫作反向传播的原理,使神经网络通过自身犯下的错误进行学习。

杨立昆(Yann LeCun)是辛顿手下的一位博士后研究人员,他于1988年进入美国电话电报公司(AT&T)的贝尔实验室。在那里,杨立昆和一位名叫约书亚 · 本吉奥(Yoshua Bengio)的博士后研究人员将神经网络用于光学字符识别,美国各大银行很快就采用这种技术来处理支票。最终,辛顿、杨立昆和本吉奥获得了2019年度的图灵奖,他们有时被誉为深度学习之父。

然而,神经网络的倡导者仍有一个难题:他们拥有一个理论框架,也有不断加强的计算能力,可是世界上却没有足够的数字数据用来训练他们的系统,至少对大多数应用来说,情况就是这样。人工智能的春天还没有到来。

在过去的20年,一切都发生了变化。特别是万维网发展起来了,突然间到处都是数据。数码相机和随后的智能手机使互联网上充满了图像,维基百科和红迪网(Reddit)等网站充满了可自由访问的数字文本,YouTube网站上有大量的视频。最后,终于有足够的数据来训练神经网络,为其广泛应用提供了条件。

7.4

1967年,麻省理工学院教授明斯基预言:真正的人工智能将在一代人的时间内创造出来

另一次重大发展来自游戏行业。英伟达等公司开发了名为“图形处理单元”(GPU)的芯片,用于视频游戏中渲染图像所需的重度处理。游戏开发者使用GPU来进行复杂的着色和几何图形变换。需要严格计算能力的计算机科学家意识到:他们基本上可以欺骗GPU让其完成其他任务,如训练神经网络。英伟达公司注意到这一趋势,并创建了CUDA,这是一个使研究人员能够利用GPU进行普通处理的平台。在这些研究人员中有一名辛顿实验室的博士生,名叫亚历克斯 · 克里切夫斯基(Alex Krizhevsky),他利用CUDA为一个神经网络编写了代码,2012年这件事情让所有人大吃一惊。

这是克里切夫斯基为图像网(ImageNet)竞赛而编写的代码,该竞赛要求人工智能研究人员建立计算机视觉系统,能够将100多万张图像分为1 000个目标类别。克里切夫斯基的AlexNet网络并不是第一个用于图像识别的神经网络,但是该网络在2012年比赛中的表现引起了全世界的关注。AlexNet网络的错误率为15%,而名列第二的入围网络错误率为26%。AlexNet网络的完胜归功于GPU的处理能力和包含65万个神经元的多层“深度”结构。在图像网第二年的比赛中,几乎所有参赛者都使用了神经网络。到2017年,许多参赛者的错误率已经降到5%,组织机构终止了比赛。

深度学习突飞猛进。有了GPU的计算能力和大量的数字数据来训练深度学习系统,自动驾驶汽车可以进行路线导航,语音助手可以识别用户的话语,网络浏览器可以在几十种语言之间进行互译。此外,在包括古老围棋和《星际争霸II》在内的一些游戏中,人工智能还战胜了人类冠军,这些在以前都被认为是不可能的事情。目前人工智能的蓬勃发展已经触及每个行业,提供了新的方法,可用于识别各种模式和做出复杂决定。

回顾几十年来,人工智能研究人员的希望经常破灭,而遭遇的挫折并没有阻止他们前进的脚步。

深度学习领域获得了越来越多的成功,而这些都依赖于增加神经网络的层数和增加专门用于训练网络的GPU时间。人工智能研究企业OpenAI公司的一项分析表明:2012年之前,训练最大的人工智能系统所需的计算能力每两年翻一番,在那之后每3.4个月翻一番。正如尼尔 · 汤普森(Neil C. Thompson)及其同事在《深度学习,收益递减》(Deep Learning's Diminishing Returns)一文中写道:许多研究人员担心,人工智能的计算需求正处于一个不可持续的轨道上。为了避免扰乱世界上的能源预算,研究人员需要摆脱构建这些系统的既定方式。

看起来神经网络的阵营似乎已经明确击败了符号主义阵营,然而事实上,这场争斗的结果并没有那么简单。以OpenAI公司的机器人手为例,它操纵和解决魔方的技巧成为头条新闻。这台机器人使用了神经网络和符号人工智能,是许多新的神经和符号联合系统之一,这种联合系统可以利用神经网络进行感知,利用符号人工智能进行推理,这种混合方法在效率和可解释性方面都会带来好处。

7.5

无论是莱纳特(左上)研究的Cyc等符号人工智能项目,还是由辛顿(左下)、杨立昆(右上)和本吉奥(右下)开创的深度学习所获得的进展,都尚未产生人类水平的智力

深度学习系统往往是一个黑盒子,以不透明的神秘方式进行推断。但是,神经符号系统使用户能够找到背后的原理,使他们了解人工智能是如何得出结论的。正如埃文 · 阿克曼(Evan Ackerman)在《美国陆军如何将机器人打造成团队成员》(How the U.S. Army Is Turning Robots Into Team Players)一文中描述的那样:美国陆军对依赖黑盒子系统特别警惕。因此,陆军研究人员正在研究各种混合方法来驱动他们的机器人和自动驾驶车辆。

想象一下,如果你能拿到美国陆军的一个道路清扫机器人,要求它为你沏一杯咖啡。从当今来讲,这是一个可笑的要求,因为深度学习系统是为单一目的而打造的,不能将其能力从一项任务推广到另一项任务。更重要的是,学习一项新任务,通常需要人工智能抹去自身解决先前任务时所有的相关认识,这一难题被称为灾难性遗忘。在深度思维(DeepMind)实验室——谷歌公司位于伦敦的人工智能实验室,著名的机器人专家拉亚 · 哈塞尔(Raia Hadsell)正在利用各种复杂技术来解决这个问题。在《深度思维实验室重塑机器人的方式》(How DeepMind Is Reinventing the Robot)一文中,汤姆 · 奇弗斯(Tom Chivers)解释了其中的原因,说明了对于在不可预测的现实世界中采取行动的机器人来说,这个问题非常重要。其他研究人员正在研究新型的元学习,希望创造出能够学会如何学习的人工智能系统,然后将这种技能应用于所有的领域或一切任务。

所有这些策略可能有助于研究人员去尝试实现他们最远大的目标:创建拥有流体智力的人工智能,就像我们看着自己孩子在发育过程中所产生的那种智力。幼儿不需要大量的数据来得出结论,他们只是观察世界,创建一个关于世界如何运作的心理模型,然后采取行动,并利用自己行动的结果来调整这个心理模型,这个过程不断迭代,直到理解为止。然而,这个过程非常高效,远远超出了当今最先进的人工智能的能力。

目前,高涨的热情使人工智能拥有了自身独有的高德纳技术成熟度曲线,对人工智能的资助也已经达到了历史最高水平,况且很少有证据表明人工智能的未来会一片渺茫。世界各地的公司都在采用人工智能系统,因为这些公司看到人工智能直接提高了公司收益,它们再也不会走回头路了。然而,研究人员是否会找到调整深度学习的方法,使其更加灵活、更加强大?或者,他们是否能够设计出在65年的探索中连做梦都没有想到的新方法,使机器的思维更像我们人类?让我们拭目以待吧!

资料来源 IEEE Spectrum