关于人工智能的争论主要集中于“它是人类的竞争对手吗?”

的确,这是最普遍的一个担忧。人们害怕AI获得类似人类的智能,然后淘汰人类。

最近,一位世界顶尖AI科学家称人工智能是一种全新的智能形式,会带来独特的风险,因此需要独特的解决方案来应对它

图片1

人工智能领域大牛、2018年图灵奖得主杰弗里·辛顿(Geoffrey Hinton)刚刚辞去他在谷歌的职务,以警告全世界注意AI威胁。此前,1000多名技术领袖联合签署一封公开信,呼吁全球停止先进AI开发至少六个月。

辛顿认为人工智能有能力变得比人类更聪明,但他也建议应将其视为与人类智能完全不同的形式。

辛顿被业界称作“人工智能教父”。他帮助开创了现代AI系统的许多基础方法。早期在神经网络方面的成就,让他与另外两位“深度学习巨头”共享2018年图灵奖。他的学生伊利亚·苏茨克维尔(Ilya Sutskever)后来成为缔造ChatGPT的组织,即OpenAI的联合创始人。

当辛顿发言时,AI世界就会倾听。

如果认真思考他对AI的定义——一种智能的非人类实体——那么我们可能会意识到,过往一直以来的认知都存在错误。

很像,但是不像

一方面,基于大型语言模型的工具(例如 ChatGPT)生成的文本与人类书写的文本非常相似。ChatGPT甚至会进行编造,造出某些“幻象”;根据辛顿的说法,人类也会这样做,但如果将这种相似性视为比较人工智能与人类智能的基础,这样的分析未免肤浅。

举个例子,几千年来,人类试图通过模仿鸟类来实现飞行:借助一些模仿羽毛的装置,像鸟拍打翅膀一样拍打手臂。但这没有用。最终,我们意识到,能利用固定翼以不同于鸟扇翅膀的原理产生升力。这预示着飞行装置的诞生。

飞机与飞鸟并无高低之分。它们是完全不同的事物,执行不同的工作,也面对不同的风险。

人工智能情况类似。GPT-3等大型语言模型在很多方面都可与人类智能媲美,但二者工作方式不同。ChatGPT通过处理大量文本来预测句子中的下一个单词。人类则以另一种方法造句。二者都很美妙。

AI智能有长处有短板

AI领域的专家和非专家长期以来都将人工智能与人类智能相关联——更遑论AI拟人化的趋势了。但AI在几个方面与我们有根本不同。正如辛顿所言:

如果你或我学到了一些东西,并想把这些知识传授给其他人,我们不能只给他们发一份副本……但我可以拥有1万个神经网络,每个神经网络都有自己的经验,它们中的任何一个都可以分享自己刚刚学到的经验。这是一个巨大差异。这就好比有个1万人的集体,只要其中一个学会了什么,剩下所有人都能知道。

人工智能在许多任务上都优于人类,包括任何依赖于组合模式和从大型数据集中收集的信息的任务。相比之下,人类行动迟缓,记忆力完全比不了AI.

然而,人类在某些方面占了上风。我们用常识和逻辑来弥补记忆力差、处理速度慢等问题。我们能快速、轻松地了解世界如何运作,并使用这些知识来预测事件发生的可能性。人工智能仍在努力弥补此类短板。

此外,人类非常节能,AI则离不开强大计算机支持,这些计算机消耗的能量比我们的多几个数量级。用辛顿的话说:

只要一杯咖啡和一片吐司,就足够人类想象未来了……

思考AI智能需要新范式

如果从根本上说,人工智能就是一种不同于人类的智能,那我们就不能(或不应该)拿它与我们自己比较。

一种新的智能给社会带来新的风险,这就要求一种范式转变,要求我们用新范式来讨论和管理人工智能系统。尤其是,我们可能需要换个思路来考虑AI风险防范问题。

一个基本问题是,如何定义人工智能?毕竟,AI并非二元的;如果说智能有其独特的“频段”,人类智能的频段可能与机器智能的频段天差地别。

2017年,纽约政府曾试图规范人工智能,但失败了,因为当时审计人员无法就哪些系统应归类为AI达成一致。对于设计法规的人来说,定义人工智能非常有挑战性。

因此,或许我们应该少关注以二元方式定义AI,而多关注AI驱动行为的具体后果。

我们面临着哪些风险?

人工智能普及各行业的速度之快令人瞠目。一些专家对未来的就业市场怀有担忧。

不久前,IBM首席执行官阿文德·克里希纳(Arvind Krishna)宣布,公司可能会于未来五年内用AI取代大约7800个后台工作岗位。我们需要调整对AI的管理方式,因为它正越来越多地抢占本属于人类的任务。

更令人担忧的是,人工智能生成虚假文本、图像和视频的能力,正将我们带入一个操纵信息的新时代。目前处理人为错误信息的方法不足以解决此问题。

辛顿还担心AI驱动的自主武器的风险——坏人可能利用AI武器实施各种形式的暴行。

当然,我们也不必过于悲观,人类已经学会怎样管理有潜在威胁的技术,AI也不例外。

资料来源:

AI pioneer Geoffrey Hinton says AI is a new form of intelligence unlike our own. Have we been getting it wrong this whole time?

END