硅脑的起源

1956年,有十位数学家和逻辑学家向洛克菲勒基金会申请基金在新罕布什尔州的达特茅斯学院举办一个夏季学术讨论会。他们目的是研究这样一项假设:知识的各方面或者是智能的任何特性,原则上都可以被机器来模仿。这些科学工作者讨论弈棋的计算机程序,应用逻辑学解决了几项定理。与会人员中有约翰 · 麦卡锡(John McCarthy),后来他成了麻省理工学院和斯坦福大学两个人工智能研究室的创办人和首任主任;马尔文 · 明斯基(Marvin Minsky),后来是哈佛大学数学与神经病学的初级研究员,最后成为麻省理工学院人工智能研究室主任和计算机学教授,现仍在该校做教授;赫伯特 · 西蒙(Herbert Simon)和艾伦 · 纽厄尔(Allen Newell),两人来自圣莫尼卡的兰德公司,同时从那时起就一直在卡内基大学理工学院任教。这四个人奠定了人工智能这门交叉学科的基石。

明斯基把人工智能定义为“让机器做本需人的智能才能做到的事情的一门科学”。人工智能的目标是让计算机用途更广以及研究智能的原则。人们常常把智能看作为语言的理解与表达能力、解决复杂问题的能力、对未知问题的思考能力和获取新知的能力。毫不奇怪,智能的范围延伸到远远超出词语智能的定量评估标准化考试所测定的属性之外。麻省理工学院的心理学家霍华德 · 加德纳(Howard Gardner)在其多元智能论里认为至少有七种智能:语言的、音乐的、逻辑的、数理的、空间的、身体动觉(运动)的和个人的(如自我认知等)智能。因此,人工智能也可以看做是对思维的交叉研究,它置于传播学与语言学、神经心理学、认知心理学、认识论哲学和计算机科学的交叉点上。作为多样化的必然结果,人工智能已产生出丰富多彩的产品,如达到大师水平的象棋游戏机;教儿童拼读的玩具(即得克萨斯仪器公司的“读与拼”玩具机);俄译英的翻译程序;柔性制造系统中操作的机器人,

人工智能的里程碑

首批“智能”程序出现于60年代。这些程序在试图使对话模型化上表现出极其肤浅的理解。对话模型化的开始可追溯到英国数学家阿兰 · 图林(Alan Turing),他在1963年提出原则上能够为机器编程序,这样,就不可能将机器的回答与人的回答区别开来。60年代,肯尼思 · 柯尔比(Kenneth Colby),以后在斯坦福大学工作的精神病学家,编写了一个名为BARRY的程序,模拟精神病医生和患妄想狂的精神病人之间的对话。与此同时,麻省理工学院的约瑟夫 · 韦兹保(Joseph Weisenbaum)也编写了一名为ELIZA的程序,模拟心理医疗医生与病人的对话。这两个程序除了有比较明显的深度外,并不具词汇、语法或语义的知识。同这些模拟对话的初步的比较肤浅的工作相比较,台瑞 · 维诺格拉德(Terry Winograd)研制的SHRDLU程序具有英语语法知识,而且表现出应用语言知识翻译、自然语言的能力,能够同人在有限的范畴内相互交谈。

SHRDLU程序进一步证实由艾伦 · 纽厄尔、赫伯特 · 西蒙以及他们在兰德公司的同事们早期实践的结论,通用解题(GPS-General Problem Solver)法能够以某种多元化的课题的形式出现,如验证定理、弈棋以及解数学难题。所采用的方法是手段——结果分析,给出目前状态以及所要达到的目标或者说是结果状态,然后应用算法语言选择适当的方法缩短目前状态与目标状态间的距离,直到两种状态吻合。为了推进这个过程,通用解题法能够把一个大课题分解为若干可以对付的子课题以便逐个处理。遗憾的是通用解题法的普遍性亦是它最大的弱点,人工专家都是运用专门的知识去解决问题的。这种专门化是马尔文 · 明斯基后来研究的中心,依靠许多地方的专家提供一个全球性解决问题的活动。通用解题法和SHRDLU的实践表明要使机器模拟智能,既需要通用解题的能力,又需要专门范畴的知识,即需要广博的知识库。

在需要专门知识的推动下,爱德华 · 费根保(Edward Feigenbaum)赫伯特 · 西蒙的学生和乔舒亚 · 里登伯格(Joshua Lederberg)——斯坦福大学遗传学家、诺贝尔奖金获得者合作研究出DENDRAL,这个程序可以做质谱分析来确定未知有机化合物的结构。它采用的方法是“产生即测试”法,在分析质谱数据后产生出一系列假设的化合物。这些假设物质然后对照化合物的专门知识做测定,最后产生出最相似的分子化合物的序列表,所以DENDRAL不同于纽厄尔和西篆的通用解题法,而是以专门范畴的知识为基础的。DENDRAL令人震惊地取得全面成功,达到化合物专家的水平。

后来的十年,在一系列的不同领域里出现了几个专家系统(也是以知识为基础的系统),如斯坦福大学研究的MYCIN,采用不定判据来诊断和处理细菌传染。匹兹堡大学研制的疾病诊断系统INTERNIST;卡内基——梅隆大学研制的R1系统促使数字设备公司的VAX计算机系列商品化。今天已经有成千个专家系统工作在各个领域,这些程序可供分析数据、诊断故障、提出建议以及解释结果。它们利用专门的知识库、特征、相互关系、专门范畴的推理规则完成各自的工作。虽然许多专家系统表现出人工专家的水平,研究人员依然不敢确定它们是否像人工那样做推理。

知识的体现

这些专家系统出现了一个纠缠不清的问题:怎样在一台计算机里获取、体现和管理广泛的、某个领域的、语言的以及视觉的知识呢?耶鲁大学的罗根 · 尚克(Roger Schank)和麻省理工学院的马尔文 · 明斯基提出了有关计算机里知识的体现与管理的创新的思想。罗 · 尚克及其耶鲁大学的同事提供的知识系统能够翻译报纸上的文章。他引入了一个“剧本概念”,把一系列发生在某种状态下的典型事件,诸如餐馆用餐或者图书馆借书,比如餐馆用餐,典型步骤就是就座、看菜单、点菜、就餐、付钱、离开这一系列行动。然而,根据餐馆的档次,这些步骤均可增删、重复,如在麦克唐纳快餐店,就是先订饭再入座。

与此类似,马尔文 · 明斯基提出的是“框架思想”:一个物体或事件的典型结构或本质。框架是由该物体或事件的名称以及相关的一组轨迹组成的。每个轨迹对应于此物体或事件的要被模型化的并具有某个价值的某一方面。比如‘三角形’框架,它有三个相关的轨迹:边数、大小、颜色。边数轨迹的价值是3,这是由三角形的定义决定的。但是大小与颜色却是可以随意变化的。这个简单的框架可以同其他的框架(如正方形)结合一起来定义更为复杂的物体(如五边形)。

人工智能与军事

这个世界的军方(特别是美国军方)总是对提高有效性与效率(结果可以节省材料、资金和人力)的自动化感兴趣。比如军方对计算机辅助判定作战计钊,模拟地 - 空 - 海战以及智能训练饶有兴趣。军事上应用先进技术并不比在战斗中用卡车代替马,枪代替弓那样合平自身的道理。然而,采用智能机器,因为自动决策的潜力而特别会增强道德问题的尖锐性,总之,人们必须尽可能多地在这个过程中参与,而只把智能系统降为助手或参谋的地位。

然而,并非遥远的将来,人们在这种混杂的道德状态下可以想象“人工”的智能动因(如自动的地面交通器或机器人)。比如说,一架智能的无人驾驶飞机,如果去炸敌方的桥,而发现桥上有红十字救护车时该做何反应呢?谁来对一颗智能导弹摧毁城市负责呢?定向导弹机器人的潜力提出了基本的道德问题,比如机器人在考虑到行动会危及人们的生命时该如何做决策呢?这些问题都没有简单的答案。还是让我们谈人工智能的正反方面以及其总的社会影响。

人工智能与社会

人工智能的某些反对派警告其对社会起有害的作用,麻省理工学院的教授约瑟夫 · 韦兹保(Joseph Weizenbaum)在他的著作《计算机的威力和人的推理》中写到:“日益增加的越来越详尽的机械的价值不可避免地会降低并剥夺人的自尊。如果我们有一台可以和人一样思想的机器,而且它的全部工作完全公开可供检查,我们就会发现对人类智慧的尊重、骄傲和羡慕都是不可能的。”或许是这样,然而这些以简单化为背景的警告忘记承认人们认知的复杂性。今天最先进的程序也不能识别一张面孔,而婴儿就能分清父母。再者,即使有韦兹保所描述的那种机器,人们也未必因为它的无法无天而不能够全面理解其内部的工作。相反,这样的一种机器应当增强“对智慧的尊重、骄傲和羡慕”。反驳韦兹保倒有好的实例,现在就存在于体坛上。已经有几个世纪历史的机器在力和速度上已经远远超过具有尊严的人类,我们却依然尊重奥林匹克的举重、游泳和田径选手。我们看重的是他们相对于其他人而并非是机器的成绩,我们钦佩的不是“举起多少公斤”或者“每英里几秒”,而是他们奋斗求胜的精神。

尽管说这种简单化辩论有不足之处,但是也的确存在同智能机器有关连的危险性,值得认真考虑的第一个问题是人们的劳动被一系列工厂、办公室与服务业的自动化所代替,不但蓝领的职业被机器人取代,而且许多白领的工作也将交由智能程序去做(即自动对话的机器)。随着这种工业革命的发展,如果这种替代扩展若干代人,我们就可能会期待人工劳动力会越来越混日子,并且逐渐过渡到更需要的任务上去。特别是随着新的职业岗位出现,这些岗位都会增加闲暇的机会。然而,这种社会破碎的危险继续存在。知识创造的阶级矛盾或许比今天蓝领与白领之间的关系更尖锐。

要考虑的第二个问题是“思想萎缩”。正如人们在工业革命期间由于机器而失去许多手艺(如铁匠)那样,人们在智能时代由于机器亦正在开始失去一定的脑力工作。比如,会做简单数学运算的儿童越来越少,更不必说把对数表当做是无处不在的计算器的结果。某些技能可能会由一个更先进的社会所要求的那些新东西所取代——一种“思想的达尔文进化论”,正如运输业的进步从知道怎样骑马到会开汽车,日常生活中从怎样取火到如何使用煤气灶。将来许多古老的技能可能会废弃,而另外一些失去的东西可能会是极为痛苦的,因为它们实在会威胁到生命,比如在森林中走失就无法在荒野里生存。社会?要精心地识别哪些是“基本”的技能并保证让它们代代相传。日趋灵巧的自动化和飞速发展的新技术都要求工人经常再培训,所以认识那些是基本的技能将越来越困难。事实正是这样,方法变化得如此之快实际上增加了对通才教育的要求程度。创新的教育系统仍将是必不可缺的。

第三点要考虑的是新的法律问题,它们将随着机器做那些需要推理或者判断的工作而出现。把责任归因于智能程序的性能欠佳是愚蠢的,比如,医生利用专家咨询系统必须对此系统的弱点反应敏锐,之所以要用它是要保证用得合适、正像医生了解现代麻醉剂的益处与风险。于是这就又产生另一个问题,即盲目地接受计算机的分析。同人一样,计算机也有它的不足,无论是硬件还是软件。它们不能执行其设计师已编程序之外的指令,除非它具有学习功能或者有自动求最佳的部分。但是在特定的任务里,它们的能力超出设计师,比如高级弈棋程序可能击败为它们编出程序的人,这是因为计算机按棋谱通盘对奕比编程序的人更快更准确。所以计算机从业人员、用户、公众有责任知道人工智能的限制因素,这样他们才能在考虑其应用时做出合乎道德的选择。然而,某个机构或个人最终必须承担系统失效的责任。

最后一点,智能的自动化并不能保证专家知识被滥用,构造核装置的基础知识其自身并非不道德。同样,提供有关工人各项信息的智能机器也非自身缺乏遇德,然两,这些可能性将引入新的道德上的两难处境,简言之,知识正在被人们利用,而它们的标准正是基于有道德的行为。

造福于人类

除了上述这些潜在的弊端以外,自动化的智能可以为人类社会做出重大的贡献。首先,日益发达的自动化再配合以“灵巧”的处理加工将导致生产率提高,这是提高生活水平与经济增长的关键因素。第二,人工智能可把人脑从乏味的、平庸的、重复性的工作中解脱出来,更不用说那些危险的或者是有碍健康的工作了。此外,这项技术可以提供人工眼、耳和肢体,帮助那些因病或事故而致残的人振作起来溶入社会。不仅残疾人,而且就连看小孩的人都会发现,在家里越来越靠智能化计算机网络来提供相等的机会,供他们开发创造性的能力去达到完美的境界。这样人工智能就不仅只提供数据和信息,而且提供知识来获得自由与民主。第三,智能机可以向这个世界的贫困地区提供知识,还可以向尚缺乏广泛经验或专门知识的领域,即相对贫乏的知识领域,如医学、农业、土木工程等学科,提供知识。这将借助于多种语言的交流能力,于是将打破语言障碍,减弱文化的隔离状态,从而增强全球的交流。说实在的,语言专门知识的程序将不仅在于实现语言翻译和利用专家系统的自然交流,还有信息的检索与过滤,构成个人的知识库。灵巧的程序将自动地由报纸上选材。然而,人工智能影响最普遍的,或许将是导致生活方式的飞速变化。由于生产的因素将更少地依靠人工劳动,于是将把重点放在服务性的劳动上。同工业革命的作用相类似,闲暇时间可能还会增加,而同时缩短工作时间。

知识就是力量,应用知识有利有弊。核物理一方面产生毁灭人类的核武器,另一方面它又是潜力很大的无限的能源。化学贡献出挽救生命的牛疽,同时也产生出毒品和化学武器。正像其他技术那样,人工智能也有正反两个方面的结果。人类可能失掉一定的智慧技能,但将从某些令人厌倦的工作中解脱出来,自由地去追求更有兴趣的活动。人工智能将帮助解开束缚形体与精神上的天才的锁链。专门化的知识可以分布到那些缺乏知识的个人与国家,尽管这还可能只是过于理想化的梦幻,然而,更为重要的可能就是人人可以更好地了解自己、自己的决策和行动。

人工智能有潜力影响我们今天的生活,并且将来会使我们后代的生活产生基础性的变化。这是值得予以精心注意的事情。

[IEEE Technology and Society Magazine 1990年第9卷第2期]