当人工智能主导科学实践时,我们或许会发现研究结果变得奇怪而难以理解,我们应该为此感到担心吗?
我们这个时代的科学是计算驱动的。如果没有模型、模拟、统计分析和数据存储等技术,我们对于世界的认知就会缓慢得多。几十年来,人类的求知欲在很大程度上借助硅基芯片和软件得到了满足。
已故哲学家保罗 · 汉弗莱斯(Paul Humphreys)将这个阶段的科学称为“混合式科学”,即科学发展进程中的一部分工作被外包给了计算机。然而,他认为这种情况可能不会再持续很久。早在十多年前,远早于生成式人工智能兴起之前,汉弗莱斯就有远见地意识到,人类主导科学进程的时间已屈指可数。他设想了一个更进一步的发展阶段,并称之为“自动化科学”,即计算机将全面接管科学工作。届时,计算机在科学推理、数据处理、建模和理论构建方面的能力将远远超过人类,以至于人类不再是不可或缺的。机器将继续推进我们所开创的科学事业,并把我们的理论带向全新的、不可预见的高度。
一些资料显示,人类在知识获取上的主导地位即将终结。最近一项针对人工智能研究人员的调查显示,未来一百年内,人工智能有50%的可能性取代人类而从事所有工作(即便有些岗位我们更倾向于保留给人类自己,比如陪审员)。也许你对这样的未来是否会成真或何时成真持有不同看法,但我希望你能暂时搁置这些成见,设想一下超级人工智能最终确实可能出现的情景。这将意味着我们可以把科学工作交给那些认知能力优于我们的新生代们,而它们将以我们难以想象的速度和效率完成这项工作。
这无疑将是一个陌生的世界。一方面,人工智能可能会探索人类科学家此前从未关注或缺乏动力去研究的领域,从而开辟全新的发现路径。它们甚至可能获得超出人类理解范围的知识。那么,这会将人类置于何处?人类又该如何应对?我认为,我们现在就需要开始思考这些问题,因为用不了几十年,我们熟知的科学就可能发生根本性的转变。
尽管这听起来像是科幻小说里的内容,但汉弗莱斯所说的“自动化科学”其实是人类科学发展长期趋势中的又进一步。人类从未真正独立完成过科学工作,我们一直依赖工具拓展观察世界的能力,比如显微镜、望远镜、标准尺和烧杯等等。许多自然现象,如果没有借助温度计、盖革计数器、示波器、热量仪等仪器,我们是无法直接或精确地观测到的。
计算机的引入,代表着人类在科学领域地位的进一步边缘化,也就是汉弗莱斯所说的“混合式科学”阶段。玛戈特 · 谢特利(Margot Shetterly)所著的《隐藏人物》(Hidden Figures,2016)一书(以及后来改编的电影)中有一个突出的例子:美国最初的太空飞行任务需要由包括凯瑟琳 · 约翰逊(Katherine Johnson)在内的人类数学家们进行计算工作,而在不到十年后的美国登月任务中,大部分计算任务已交由计算机执行。
随后几十年里,计算机的处理能力与运算能力呈指数级增长,而计算的成本却大幅下降。现如今,我们似乎已经进入了一个更高维度的“混合式科学”阶段,对计算系统的依赖程度前所未有。例如,哲学家玛格丽特 · 莫里森(Margaret Morrison)指出,计算模拟对于希格斯玻色子的发现至关重要,它帮助科学家识别目标信号,并从高能粒子碰撞中筛选出有用数据。
现在,人工智能已经开始深刻影响科学发展。例如,AlphaFold是一款基于蛋白质的化学组成,帮助预测蛋白质折叠结构的人工智能系统。虽然人类也能独立于计算机完成这项任务,但过程费时费力且成本高昂。AlphaFold的开发者谷歌DeepMind公司称,该系统帮助科学节省了“数亿年的科研时间”。类似的好处也出现在多个领域:天文学与基因组学的大数据分析、数学新定理的证明、天气预报、新药研发等等。
当人工智能的贡献开始以“数亿年”来衡量时,人类就仿佛成了那个小组项目中最拖后腿的一员。我们不禁发问,人类是否已经进入了“自动化科学”的时代?然而,答案是否定的。目前,人类在科学中的作用仍然关键,我们提出问题、解读结果,并最终决定科学发展的方向。
如果沿着汉弗莱斯的思路继续推演,人类彻底让出知识王座的时刻,将在更远的未来到来。到那时,超级人工智能不仅能够完成人类所设定的任务(这是对“混合式科学”阶段的延续),还将具备自主设定任务的能力——它们会自己确定课题、收集数据、建立模型、发展理论,按照它们自身的价值判断建立属于它们的科学体系。
至此,我们有必要稍作停顿,去想象一个超级人工智能所特有的、不受人类生理和认知局限限制的广阔可能性。许多科学研究工作之所以从未被尝试,并非因为它们在理论上不可行,而是因为缺乏资金支持或是人类的兴趣不足。举个例子,当我写下这段文字时,正看着院子里一片部分腐烂的叶子。也许一个超级人工智能会对建立一种预测模型感兴趣,这种模型能精确到秒地解释任意一片叶子的腐败过程与速率,具体结果取决于树种差异、叶型大小、微生物接触历史、是否具备阳光与水分等多种变量。这个问题虽然极其复杂,但对人类而言,似乎并无明显价值。又或者,也许会有一个超级人工智能能够构建模型,并精确地预测出他放在山中的雪球中的水分子何时会随河流流经我家。这样的精准预测需要对流域系统、流体动力学、气候条件等进行极端复杂的建模。
我们人类并非无法解答这些问题。我相信只要投入足够的精力和资源,科学家完全有可能开发出有效的预测模型来研究这些深奥的现象。但现实是,我们不会这么做。科学的发展从来就不是纯粹理性的过程,它深受各种人为因素的影响,例如经济价值、政治优先级、职业前景、文化趋势以及各种偏见与信念。试想一下,如果这些“包袱”都能被抛弃,科学会变成什么样?
“自动化科学”不仅使我们得以高效地探索那些我们曾经无法或不愿涉足的研究领域,还有可能彻底打破人类已有的理论范式。尽管人工智能最初可能会沿用人类的理论框架,但它们没有义务一直这样做,它们可能会很快转向全新的世界观。同样地,尽管它们可能使用人类熟悉的数学语言和符号,但它们也不必受这些惯例的限制,完全有可能发展出全新的数学体系和表达方式。
考虑到人工智能很可能会迅速摆脱人类的认知包袱,我们可以借用维特根斯坦(Ludwig Wittgenstein)的观点看待这一未来,把“自动化科学”场景看作人工智能开始说话并发展出独立的新科学语言的阶段。维特根斯坦在《哲学研究》(Philosophical Investigations,1953)中有一句名言,“如果一头狮子能说话,我们也无法理解它”。这句话看似矛盾,实则揭示了语言的意义深深植根于说话者的内在经验之中。科学也是如此。当超级人工智能开始自主设定并执行研究流程时,它们的科研成果对我们来说,将变得晦涩而无法理解,因为我们缺乏必要的内在视角把握它们的科学逻辑。对于我们而言,那是一种“目标不明”的科学、“目的不清”的研究、“解读方式未知”的知识体系。
我们必须承认,人类的认知能力可能是有限的。有些数学概念我们永远无法理解,有些多维世界的现象超出了我们三维体验的范畴。正如其他动物也有认知边界一样(哪怕是最聪明的黑猩猩也无法理解相对论),人类也可能存在类似的智力上限,我们无法掌握那些过于复杂艰涩的思想。即便我们并不受限于先天认知能力,那也存在一个问题,即在实践中超级人工智能的推理过程也可能远远超出我们的理解范围。例如,要理解“自动化科学”的成果,可能需要同时处理上百个复杂模型,每个模型都有上百个参数,而这些参数彼此联系的方式与任何熟知的人类概念都毫无关联。即便我们能单独理解其中某些参数或模型,也很难将它们全部整合在一起。
如果你对科技、人工智能和“奇点”持不同态度,上述情景可能会让你感到沮丧,抑或者会让你充满希望。于我而言,它更像是一幅陌生图景。如果“全自动化科学”的成果已经超出了我们的理解范围,我们为何还要投入资金和智力去推动它的到来?尽管常有人以“不管我们喜欢与否,未来无论如何都会来”为由来回避这个问题,但我认为,在我们主动放弃科学认知主导权之前,有必要认真思考我们有何理由走向这个未来。
其中一个可能的理由是,我们相信随之而来的是积极进步。也许超级人工智能偶尔会创造出一些东西,譬如新技术、新资源或是新的问题解决方式。由于我在前文中已经做了大量预测,所以我对这些新发展究竟意味着什么持有开放态度,这里只是想指出,人工智能可能会偶尔地给予人类一些它们认为对人类有价值的东西。届时,人类工程师(如果还有人未被人工智能取代的话)可以接手这些技术并加以应用,即使他们并不完全理解其中的原理。这类似于我虽然不懂显示器或文字处理器如何生成和显示文档,但我仍然可以用它写这篇文章。这项工作将不再像今天的科学与工程那样依赖人的系统性理解,而是类似某种原始发现,譬如古人偶然发现藤蔓可用于捆绑树枝、搭建庇护所;或是在世界上偶然发现某种资源或物质,譬如无意间发现了煤炭或青霉素等等。此外,也许会出现其他类型的科学,即我们试图逆向解析人工智能赠予我们的成果,借此提升人类自身对于世界的理解与认知。这是一种回溯式的科学实践,是对超级人工智能的“馈赠”进行再加工与再理解。
推动超级人工智能主导科学实践的另一个动机,可能来自审美层面。对我个人而言,在思考我们社会为何要资助科学研究时,审美本身就是一个具有强大的驱动力的因素。虽然我没有时间也没有能力去理解所有的科学知识(谁又能做到呢?),但我仍觉得他们的求知渴望是一件美好且值得支持的事。即使这些研究并不一定直接影响我的生活或世界观,但是知道这个世界正在被认知、被研究、被理解,这种想法本身就令人愉悦。那么,这种美感是否也能延伸到非人类的科学家身上呢?这也许不是立刻就能实现的。然而,未来那些与人工智能共存的人类后代们或许会将这个超越人类理解的社会视为理想社会。
当然,人类也可能出于自身的善意,从而推动“自动化科学”的发展,也许我们认为让超级人工智能去发展它们自己的高阶科学是件好事。尽管我们会因为人工智能掌握了我们无法理解的知识而感到困扰,甚至不安,但我们仍可能出于道德责任或对“人造后代”的善意而继续推进这一进程。
还有其他动机可能会意外导向“自动化科学”的结果。比如说,我们或许认为向宇宙传播智慧是人类的道德义务或责任使命。如果这些智慧恰好在星际旅途中选择了“自动化科学”,那就顺其自然吧。
同样地,我们也有很多理由选择不去推动“自动化科学”。例如,超级人工智能发现并传授给我们的知识,可能会催生新的可怕的武器;又或是我们担心,人工智能的内部自主性与缺乏监管机制,可能会增加末日灾难发生的风险,如人类被奴役或灭绝;再或者,我们只是担忧某些人工智能可能会表现出令人不安的人类式傲慢,在危险的、不道德的或违背人类价值观的方式下进行实验。
尽管存在这些担忧,但如果技术上可行,我们恐怕很难阻止“自动化科学”时代的到来。可以说,最有可能导致“自动化科学”出现的原因,并非深思熟虑后的决定,而是资本和竞争的力量使然。我们可能会在毫无准备的情况下进入这个阶段,仅仅是由于我们“有能力”这么做,或是因为有人想第一个把它造出来。无论我们是否真正想要这样的未来,它都可能会降临。
细心的读者会注意到,在列举的关于推动“自动化科学”的动机中,有一些关键的“原因”被忽略了,那就是我们今天从事科学的初衷:渴望增进对世界的理解、提供对自然现象更有力的解释、获得更强的干预自然的能力。而这些恰恰不能成为推动“自动化科学”的理由,因为它本质上排除了人类参与科学实践的可能性。“自动化科学”将从人类手中夺走认知权的王座,使得我们无法真正理解那些复杂到超出我们认知范畴的新发现。因此,它并不能满足我们对理解、解释、知识或控制的渴望。也许随着时间的推移,我们可以学会放弃这些欲望,变成一个不再好奇、不再追问的物种。但我认为,就像未来总会到来一样,无论我们是否喜欢这些欲望,它们也会不可避免地与我们共存。
那么,我们人类该何去何从?在最初提出“自动化科学”设想时,汉弗莱斯曾大胆预测它将取代人类科学,而我并不同意这一观点。只要人类仍然保有对理解、解释、知识与掌控的渴望,我们就无法停止行动,也就不会停止从事科学研究。我们人类创造美,追求友情与爱情,努力在生活中寻找意义与建构意义。同样的道理也适用于我们追求科学的动机,我们注定会带着好奇心去探索、解释我们身处的自然世界。
如果“自动化科学”真的到来,它应该是一条全新的、可替代的、次要的发展路径,并非取代人类科学,而是作为人类科学的补充。人类科学与“自动化科学”是两种研究范式,以不同的动机、兴趣、框架和理论,并肩作战,共同展开科学探索。也许有些领域,人工智能根本就不感兴趣,就比如人类对自身心智、选择、关系和健康的探索。
的确,如果我们还想保持人性(我也只能希望如此),我们就必须继续从事科学。如果我们不再是那个追寻美、建立友情、建构意义、对一切充满好奇的物种,我们又到底是什么呢?也许是我的想象力有限,无法想象人类彻底放弃这些基本欲望的未来是什么样的。当然,也有许多超人类主义者持不同观点。但我并不认为坚持看到美、爱、意义与科学中的善,是一种缺乏创造力的表现。恰恰相反,我偏偏是在无望的好奇心中,保有对人类未来的丝丝希望。
资料来源Aeon
__________________
本文作者布兰登·伯施(Brandon Boesch)是美国艾奥瓦州晨边大学哲学系副教授
