这个问题可以分为三个部分来说明:什么是意识?我们是否能把它输人计算机里?如果可以,我们又怎样验证它呢?

与其他科学话题不同的是,意识(即对周围世界的主观认识)在旁观者眼中是真实的。我知道我有意识,但是我怎样才能知道你也有呢?情况可能会这样吗——我的同事、朋友、妻子、孩子,以及我所看到的纽约街上所有的人实际上都是没有意识的机器人,只是他们装作是有意识的人类?

如果是这样,这个问题就没有意义了。

通过逻辑推理——我是一个有意识的人,因此作为人的你很可能也有意识一一我敢断定,我不是生物傀儡世界中唯一有意识的生命体。如果把关于意识的问题扩展到其他动物和植物,那么狗有意识吗?海龟呢?苍蝇呢?榆树呢?岩石呢?

“我们没有可以测量意识的仪器”,亚利桑那大学意识研究中心主管哲学教授大卫 · 查尔姆斯( David J. Chalmers) 博士说,“我们唯一可以考察的就是他们的行为。”因此,假如我们对什么是意识没有一个根本认识,那么对机器进行意识灌输的想法——或者说要理解怎样使机器具有意识——几乎就变得深不可测了。

人工智能领域的研究着手于制造能思考(可能就是有意识)的机器,但是到目前为止,成果却非常有限。还没有人可以写出能够通过“图灵实验”的计算机程序。

在1950年,计算机科学的先锋艾伦 · 图灵(Alan Turing)曾设想计算机可以变得有智慧,它们应该可以和人类一样对周围的事物有所反映。为了实现这种设想,他们把研究的注意力更多地放在如何解决诸如对反应的综合调度等实际问题上,而不是单单去模仿人类的行为。

但是随着计算能力的不断提高,一些比较乐观的人相信人工智能的最初目标将在未来几十年内可以达到。

一些人,比如匹兹堡的卡耐基 · 梅隆大学从事机器人研究的汉斯 · 莫拉维克(Hans Moravec) 教授认为,人类不过就是一种会想象的机器罢了,而随着科学技术的发展,构造具有相同特征的机器将成为可能,到那个时候,在大脑与肉体之间将不会存在什么不可思议的东西了。

“我确信我们可以制造出与人类有同样多行为的机器人”,他说,“你可 以随心所欲地对它的内在心理进行测试,它能像一个正常人一样回答你提出的所有问题”。

查尔姆斯则认为,意识是一种无法表述的东西,它无需说清楚。“我们已经了解在我们的世界里存在着一些不可再细分的东西,一些具有最原始物质的意识,我们可以一直追溯到那些最小、最简单的有机体,甚至是细菌上”。

查尔姆斯似乎同样看到,那些具有血肉之躯的人与由金属、塑料以及电路构成的物体没有本质区别。他说,“ 我对机器最终会具有意识的观点持乐观的态度”,如果一个人能与机器人进行从康德到棒球的复杂交谈,“我们几乎可 以认定它们与其他人一样具有意识了”。但是他同时指出,“这并没有解决理论上的问题。”

但另外一些人却持有相反的观点,他们认为无论你制造出多么复杂的机器,它们都永远无法与人相比。

这样的争论可能变得不可思议。在《头脑的阴影》一书中,英国牛津大学的数学家罗杰 · 潘洛斯(Roger Penrose) 博士运用了数学中的不完备性定理。这条定理指出,任何理论体系中都包含不能被证明的命题。他运用这条法则来说明任何用来计算的机器(即包括所有的计算人)总是落后于人类数学家的造诣。

相反,他却认为意识只不过是在大脑中的一些微小的组织体所产生的量子力学效应罢了,这些微量的组织体所产生的量子力学效应将超过任何计算机所具有的计算能力。