讲话转变为图解形式——应实现的目标是建立一种“常识”理论模式

为实现真正的人工智能,计算机的人工头脑到底应遵循数学逻辑还是人脑的运动状态,这一问题依旧争论不休,与此同时,科学家们也在努力寻求同计算机对话的可能。欲与本质不同的智能对话者打交道,这一步看来必不可少。目前的对话是通过键盘提出问题,再由机器通过电视显示答案。而将来,对话将是真正的口头形式,也就是“地地道道的思想交流。”

最初的语言试验始于五十年代,原理十分浅显。当时,为试验将文章从一种文字译成另一种文字,须把字典中能够找到的对应内容输入计算机、逐字存储起来。而后输入简单的指令,将译出的词综合整理成文。试验结果失败了。证明此路不通的例子尽为人知。在将“灵魂是活跃的,而肉体是倦懒的”这句英文译成俄文时,计算机却译为“伏特加是烈性的,而肉是腐烂的”。于是,到了六十年代中期这条路被遗弃了。

I966年,麻省理工学院一位研究家约瑟夫 · 韦曾鲍姆另辟蹊径,设计出一种叫做ELIZA的程序、一举成名。计算机使用该程序可进行至少形似的对话,而它的回答则同精神病医生惟妙惟肖。正因此,有人称ELIZA是第一位人工精神病医生。其父约瑟夫 · 韦曾鲍姆说,他是在潜心分析了令人生厌的社交谈话之后设计出这种模拟程序的。

这位学者说,社交场合中,对话者们都有报以味同嚼蜡的回答以求保持对话的本事。ELIZA便是抓住提出中的关键字眼、然后将其编入答话之中,意思虽陈陈相因,但绝无生硬之感。

为对此有所了解,让我们来看看斯坦福大学一台使用ELIZA程序的计算机是怎样同一位来访学者对话的!

“承蒙您来访的目的何在?”机器问道。“没什么大事,我有点累了,就这些。”客人答道。“您为何觉得累了呢?”计算机马上又问。“因为我长途旅行,而且离家很远。”学者说。

“跟我谈谈您家里的事吧 · ”机器紧追不舍,对话者身不由己,忘了同伴,A久地流连于荧光屏前。

韦曾鲍姆说,他的ELIZA程序在专业商店中很容易买到,可用于私人计算机;这一程序证明,在编制智能程序时不必遵循人的行为方式。他认为,“ELIZA的语言理解水平非常一般和浮浅;可是许多人为它那生动的回答所欺骗,竟会像对一位精神病医生那样,向机器倾吐隐私”。因而运用这一经验取得了某些进展、接受标准提问语言的首批计算机现已应用于商业。最近,我们在纽约近郊约克敦的IBM实验室中观看了EPISTLE程序的表演,该系统用于阅读信函,并将其中要点通知收信人。尚处试验阶段的EPISTLE程序是应用于机关工作的一种智能程序。

最权威的语言研究大师之一是美国纽黑文耶鲁大学的心理学家罗杰 · 香克,他同合作者们建立了一种计算机“知识推理”系统,他称其为“概念相关”的这一系统能够消除书面语言的许多暧昧之处。香克说,此项研究是从1970年开始的;实际上,一句话的意思可以图解,通过这一方法我们发现,表面相同的句子呈现的图形却不尽相同。该程序在运用图解编制自己的语言对留下部分“天窗”,由计算机根据句子的确定意思筛选后填补。

耶鲁的这位科学家实质上推翻了五十年代的做法,那时一切均围绕构成句子的词意转,结果往往出错。而今采用的是一种“由高至低”的语言理解方法,单词只是电脑记取讲话中具有一定意思的语汇符号。结果,目前大部分先进的,尤其是耶鲁大学设计的电脑语言程序均参照这一思路。譬如,原在耶鲁大学、现在伊利诺斯大学的杰拉尔德 · 弗 · 德 · 乔翁设计的一种程序,能够综合合众国际社播发的消息。

然而,人们还希望运用同一规则迈出更大的一步,即领悟一句话的暗喻,揣测作者字里行间所表达的情感,进而对句子做出近乎情理的判断。在赋予计算机语言能力方面要想有实质性进展,这最后一步乃是至关重要的。它所提出的目标,就是为尚未实现的“常识”理论模式奠定基础。

例如,不能说“一只翅膀粉碎的鸟在飞翔”。但为此必须赋予机器一切有关知识,防止它把类似的错误概念编入自己的语言。任务是艰巨的,学者们认为,设计一种专门的问题推理程序,为其提供有关问题尽可能多的信息,这也许会有所成就,而且这也一直是各种人工智能研究领域中的一条行之有效的准则。

论述建造人工头脑的可能性、使我们在一项有人断言会危及人类的研究领域内,取得了长足的进步。凡涉及先进课题的研究,我们每每会见到这种杞人忧天式的机械论。这一点在伯克利的哲学家休伯特 · 德赖福斯身上反映尤甚。此人是反对人工智能的少数派领袖。他说:“绝不可能编造出思维,因为人的知识是靠人体获得的,纯精神的人是不存在的。”人工思维之父马文 · 明斯基则说:“不愿与同—行星上的另一种智者达成协议的人,不过是些人类沙文主义者罢了。”

[《意大利晚邮报》,1983年2月]