关于“人工智能”可能性问题的基本提法,曾由控制论的奠基人,尤其是A · M · 图灵在其著名的《机器能思维吗?》著作中提出来。这个著作和以后的争论表明所提出的问题不明确。问题的准确提法是困难的,因为一方面对脑和思维活动的描述,另一方面,对处理数据的现代系统的描述,都是用彼此很少有共同之处的种种科学语言进行的。因此,很久以前就吸引很大注意的“机器能否思维?”的问题,实际上从科学的“议事日程”上取消了。

关于“人工智能”可能性的问题是另一回事。它是足以被理解的。谈关于作为研究方向的“人工智能”时,常常分出两个方面:第一,模拟认识的过程,制造这样的机器模型、这样的计算方法,使之争取它们在某种程度上描述思维过程,就像这个过程在人脑里进行的那样;第二,撇开在解决类似课题的人的意识中发生的问题,制造自动解决复杂课题的系统的工作。这两个方面合起来就构成可以称作“人工智能”的问题。

为了理解“人工智能”的可能性与局限性,重要的是要考虑到它的合理根源。当需要产生智力过程自动化以及不仅借助人的智慧和劳动机械化的极简单的手段而且也借助无比强大的“_力增强器”来处理信息时,发现在数理逻辑中已为此形成了种种理论基础:形式化语言的理论发展了,有了有力的逻辑演算,形成了算法理论,各种定理(从这些定理得出的结论是,用准确而通俗的语言描述的对信息处理的任何过程,原则上都可以转达给某些抽象的机器)得到了证明。电子计算机的出现,使它们变得更清楚了:它们是离散的处理信息的具体化——最后的实现—抽象的装置;任何过程,包括我们智力进行的过程,如果我们充分认识清楚这个过程是怎样发生的,那么原则上也可以在相应的离散的自动机上加以模拟。

早在十年前,我通常强调控制论模拟处理信息的任何高质量描述过程的原则可能性。现在我的对这个估计的观点改变了。现在我对这个从科学观点来看是无疑义的论题不赋予巨大意义。问题在于,近十年来很清楚地表现了同复杂性相联系的种种局限。暴露出:在关于“原则可能性”的论题中含有的潜在可实现性的抽象(它摆脱人的活动在空间时间和物质上的局限性)、同一的抽象(它要求所分析的客体总是不同的和相同的)、无错误的抽象(它主张信息处理的过程无错误地进行)和结构上的客体的理想化,——当科学碰到实际问题的时候,所有这些数理逻辑的标准都破灭了。

这里我们适当回忆一下控制论的其他创始人詹 · · 涅伊曼叙述的并且是我们从哲学立场还没有足够意识到的思想。法 · 涅伊曼的观点是,从复杂性的观点比较客体和它的描述。通常,科学的标准是,把复杂的变成简单的,对认识易懂的;抽象与理想化——这是通往简单化的途径。理解复杂的——意味着把它变成简单的,更明了的,在某种意义上更直观的。如果过程、客体或者系统是比较简单的,那么对于它们来说予以较之它们本身更简单的描述常常是可能的。在认识过程的这个特性上,实际上发展了一切自然科学,特别是数学自然科学。法 · 涅伊曼的主要假设是,具有增大系统复杂性的某种界限,从这个界限开始就不可能在某种自然的意义上比它本身更简单地描述系统。涅伊曼以视觉分析器的例子,以及以自动机理论的比较严格的术语论证了这个假设,认为也许从复杂性的某种阈限开始就不能制造比借助它模拟的更简单的那种自动机。

这些年来在编制程序设计系统和机器解决复杂课题系统工作上出现的困难,在某种程度上表现了和法 · 涅伊曼的“复杂性阈限”相接近。我认为,现在存在着在认识论方面可以理解的某些看法,即认为在同人脑的极大可能性比较时,计算机处理信息有局限性。

近来我不得已读了译成俄语的美国哲学家X · 德列伊弗斯的专著《计算机有什么不能》。德列伊弗斯对美国十年来(从五十年代末到六十年代末)进行的“人工智能”领域中的研究给予了尖锐的批评。这个批评没有经得起时间的检验。我们感兴趣的领域的工作的进步是对德列伊弗斯不同意见的具体反驳。但是,这个美国哲学家的有的东西,例如“对控制论原子说”的批评,值得注意。德列伊弗斯特别分析了如下情境。为了从算法的观点处理信息,应当有相应的规则。规则愈灵活,对信息的处理愈接近于人。怎样把规则变得灵活?怎样引入规则、变化规则……?很清楚,这种过程应当或者是无尽的,或者不得不主张有最终的规则,但是在这种情况下,世界上分明应当有所给的算法不能胜任的情境、课题。这个二律背反的另一形式与对理解天然语言的用语所必需的承上启下的关系有关为了用天然语言处理信息,应当考虑到这种关系。

在这些形式中,这些二律背反使我们想起芝诺的疑难,根据这个疑难,结果是,运动永远没有发端,因为要走过一百个阶段,必然先走过五十个阶段,而为此又必须先走过二十五个阶段等等。大家知道,人战胜着这些二律背反。他顺利地解决在变动的情境中定向的课题,提出解决不明确提出的课题,并理解具有灵活涵义的天然语言的课文。诚然,这里马上产生一个问题:可否把某种类似的东西置入机器?提出“机器 - 儿童”教学思想的图灵早就讨论了这一点。但是至今在这方面未看到真实的成就。我们也不知道,在这方面可以走多远。

在我上边说的X · 德列伊弗斯的书里,把个别人的世界、个性世界,和物理描述的世界、物理事件的世界明显地对立起来。后一个世界—这是对事件的“原子化的”世界,这个世界是能放入大的机器“数据基地”的。前一个世界,是人类的世界,这个世界人在其中“感觉自己的家一样”,在其中人按照自己的需要、目的发挥作用。但是这里必须同意德列伊弗斯的这个意见——不能像解释“机器世界”那样来解释人的世界。《计算机有什么不能》—书的作者在发展关于如何实现有理智的行为的“必择其一的”观点时,赋予人的身体、生物需要、身体的功能等等以巨大的意义。

诚然,人的“身体”——真实的事实。无疑,感性的知觉比较它的思想的逻辑更有“物体属性”。恰恰是逻辑、演绎逻辑、形式逻辑过程比较简单地受形式化支配。但是属于感性知觉的东西很难形式化。在自动化识读种种形状领域工作的专家,很好地了解这一点。

当然,讨论这些问题时,应当避免被辩证唯物主义哲学抛弃的对人的生物因素的绝对化。要知道人类世界本身,就是社会的世界。善于在这个世界中定向,只为首先是社会的实体的人所具有。

我们应当考虑到,人的需要——这不仅是生物发展的产物;同动物界比较,人的需要的特殊性亦表现在社会历史中,在个人的认识 - 创造性的和情绪 - 意志的特性的社会决定的发展中;而且人的需要、动机和目的的品格是在人的集体中形成的。人的目的是客观因素和主观因素的统一,这是在功能上更有“明确目的性”的机器不能做到的,因为任何机器的算法应当满足取得某种结果的明确目的性的要求(计算法有成效的特性)。人还有受人类社会的社会成分中介的多变的、灵活的目的。

在什么东西上可以看到在制造自动处理课文系统、自动证明定理、机器解决复杂课题与创造能独立动作的机器人方面进步的根源呢?显然,这里将导致去研究智力的各种不同的成分。我们仍然不能很好地了解我们的智慧。在人脑的机能里有各种不同的智慧的水平。其中一些容易借助现代的控制论手段予以模拟,另一些则较差,再一些,在我看来,未必能够予以多少充分的形式化。我认为,存在着人的意识和自我认识的这种范围,它们在不久的将来仍处在智力过程的控制论模拟与自动化的界限以内。

当然,我们可以讨论关于在“社会环境中”“教育”机器、关于角生物成分制造“机器”的问题。但是这将是另一个问题,现在是半幻想的问题,这个问题在C · 列姆的著名著作《工艺学总和》一书中分析过。我介绍想考虑这两个问题的人去看它。现在,制造 - 机”系统日益成为“人工智能”的主要方向,在此我只能重复A · И · 别尔格的这些话:现代理解的机器“不能思维”(也未必将来能“思维”),它不像生活在社会上的人、有智慧的人那样,人有社会的需要和目的中介的复杂系统,并使用天然的语言同其他有智慧的人交流思想。但是,毫无疑问,以自己智慧的控制论的增强器武装起来的人,思维得更好,并且和不得不满足于自己智力劳动机械化的极简单手段的人不同。

[本文选自Bonpocы Фuлocoфuu 1979年第3期。世京译 田雨校]