受大脑原理启发而设计的新型芯片可以为机器人和自动驾驶汽车提供借鉴。

8.1.1

大脑图片前放置着一枚能并行处理数据的英特尔芯片,当它在噪声数据中寻找特征模式时会闪烁发光

尽管洛斯阿拉莫斯实验室的物理学家加勒特 · 肯扬(Garrett Kenyon)因这一言论大受抨击,但他仍坚称人工智能是“夸大其词”。上至语音识别,下到信用卡诈骗检测,这一切背后的算法基本上都要把自身的技能归功于深度学习,即软件通过消化海量示例数据库来学会执行特定任务。肯扬指出,这些程序组织和处理信息的方式与人类大脑截然不同,并且,当遇到需要多用途智能时(比如全自动机器人),它们就会达不到要求。“我们有很多精妙的设备极为实用,但我不会说它们其中的任何一个特别智能”,肯扬说。

肯扬和许多其他人都从一种名为“神经拟态计算”的新兴技术中看到了更智能计算机诞生的希望。神经拟态芯片取代了线性处理信息的标准运算架构,能模仿人类大脑处理信息的方式,通过海量数字神经元并行工作,向其他神经元构成的网络发射脉冲(又名“尖峰脉冲”)信号。每个硅神经元在接收到足够多的尖峰脉冲信号后会激发放电(又称“点火”),将自身的兴奋性传导给其他神经元,系统会通过加强定期激发的神经元连接来学习,同时消除那些不激发的连接。这一计算方法擅长从大量的噪声数据中进行模式识别,从而加快学习速度。由于信息处理发生在整个神经元网络中,神经拟态芯片所需要的内存与处理电路之间的数据传输连接也会更少,从而提高速度和能效。

神经拟态计算并不新鲜,然而,芯片制造商不愿在市场未经检验的情况下对技术进行投资,而算法研发人员要为一整个新计算机架构写出软件也极为艰难。在这两种情形之下,神经拟态计算过去发展进程是缓慢的。不过,伴随着芯片性能的提升,这一领域显然也在日益成熟,并不断吸引着越来越多的软件开发者加入进来。

2021年10月,英特尔公司发布了自家生产的第二代神经拟态芯片Loihi2。Loihi2集成了100万个人造神经元,是上一代的6倍,神经元彼此间可通过1. 2亿个突触相互连接。其他诸如BrainChip和SynSense等公司近期也推出了新的神经拟态硬件,这些硬件都装备有能加速计算机视觉和音频处理等任务的神经拟态芯片。康奈尔大学神经生物学家托马斯 · 克莱兰(Thomas Cleland)说,神经拟态计算“将成为摇滚巨星”“它不会事事都做得更好,但一定会在计算领域占有一席之地”。

英特尔公司冒险进军神经拟态架构领域让这一芯片巨头驶离自己曾声名远扬的通用计算机芯片(即大家熟知的中央处理单元CPU)领域。近年来,CPU的硅技术发展步伐开始放缓,这导致了计算机专用芯片的激增,例如图形处理单元(GPU)和专用内存芯片就是为特定工作量身定做的,而神经拟态芯片也许能延续这一势头。英特尔神经拟态研究负责人迈克 · 大卫斯(Mike Davies)说,神经拟态芯片擅长处理那些为计算机提供视觉和嗅觉等感官所需要的海量数据集。这一特长与能效优点显然让神经拟态芯片成了供电受限、与传统计算机网络分离的移动设备的理想适配对象。

8.1.2

英特尔神经拟态研究负责人迈克·大卫斯认为,神经拟态计算可以帮助计算机像人一样学习

英特尔的这项研发工作主要集中在其琼斯农场园区,该园区是位于俄勒冈州波特兰以西的研发综合体。在非疫情时期,这栋四层楼建筑人潮涌动,如今因为软件和硬件工程师在家办公,建筑体里一个个的格子间空空荡荡。在大卫斯和骨干人员测试粉红指甲大小的Loihi2芯片的神经拟态实验室里,挂钟的指针停在了7点43分的位置。大卫斯说,远程办公让新芯片的推出速度减慢了可能高达6个月之久。

与Loihi1一样,Loihi2中的单个神经元经编程可以放大或者抑制来自临近神经元的尖峰脉冲信号的传播。与克莱兰等神经科学家的合作促使英特尔工程师在Loihi2中添加了另一个类人脑特征。对大脑嗅觉处理过程的研究显示,尖峰脉冲信号之间的间隔能够编码额外的信息。2020年,克莱兰及其同事证实了神经拟态计算在添加了时间信息后的强大功能。

他们一开始对Loihi1进行训练,使其能在混合背景化合物中识别出10种危险化学物质的气味。研究人员记录下了含有丙酮、甲烷和氨等化学物质的有味气体飘过风洞时风洞内部72个化学传感器的读数,并把数据提供给Loihi1,后者采用了特定算法来将异臭物质处理为具有不同时间模式的电脉冲流,从而对其进行表达和分析。Loihi1能够在经过单一样本训练后识别出不同的气味,而深度学习方法需要经过高达3000个样本的训练才能达到同等的识别精度。

大卫斯指出,这一尝试的成功促使英特尔公司在制造Loihi2时为其配备了能制造和分析复杂时间尖峰脉冲信号模式的能力。“我们正尝试构建一种新的灵活、多能且通用的智能计算芯片。”

有两组研究已表明,神经拟态芯片能与当前市面上一些最先进的AI程序的性能相匹敌。如今AI主力软件依靠的是一种名为反向传播神经网络(BPNN)的深度学习算法,这一算法让AI系统能在训练时从自身的错误中吸取教训。美国洛斯阿拉莫斯国家实验室的物理学家安德鲁 · 索恩伯格(Andrew Sornborger)及其同事2021年8月发布在arXiv平台上的预印本报告显示,对Loihi1编程后执行反向传播,Loihi1学会了诠释手写数字的常用视觉数据集,速度像传统BPNN一样快,但能耗仅为其百分之一。

类似的,奥地利格拉茨工业大学计算机科学家沃尔夫冈 · 马斯(Wolfgang Maass)及其同事开发出了一套能执行BPNN学习的神经拟态系统,其能耗仅为标准GPU驱动的人工智能的千分之一,这一工作目前尚未发表。马斯说,“目前还不清楚神经拟态计算的杀手级应用程序会是什么样子”,但他认为需要最小能耗来感知周围环境并在其中穿梭的机器人设备是一个极有可能的应用前景。

肯扬说,从生物学研究中受益后,神经拟态处理器也许很快就会投桃报李,帮助神经生物学家更好地理解大脑的进化与工作机制。标准AI系统对此没有太大的帮助,因为它们更像是无法展示其学习发生过程的黑匣子,而Loihi和类似的芯片会是更好的模型,因为它们像生物神经元网络一样工作。研究人员能追踪硅基系统的电发放模式,从而揭示它们如何学习处理视觉、听觉和嗅觉信息,并有望获得对生物完成类似任务的新认知。

例如,肯扬及其同事在2020年研究尖峰脉冲神经网络软件程序是如何习得视觉时,运用了一种名为无监督词典训练的方法,这涉及在没有事先示例比对的情况下进行对象分类。研究人员发现,随着时间的推移,网络状态会开始变得不稳定,这是由于神经网络追踪不到通过学习已经掌握的视觉特征,其神经元会不断进行电发放。这种不稳定的状态“只有在尝试应用生物现实主义、尖峰脉冲神经拟态处理器或试图理解生物本身时才会出现”,肯扬介绍道。

为了让他们的算法回到正轨,研究人员将网络暴露在一类他们认为模拟了生物神经元在睡眠期会接收到的输入噪音中,噪音重置了网络,并提高了其对象分类的准确性。“就等同于我们让神经网络睡了个好觉”,研究组成员伊京 · 沃特金斯(Yijing Watkins)说道。如今,在美国太平洋西北国家实验室里,她正致力于把这一算法运用到Loihi上,看看AI形式的“闭眼小憩”是否能帮助芯片稳定地处理视网膜相机传回的实时信息。

未来的神经拟态芯片也许会颠覆计算领域,不过,它们也许要打个盹才能做到这一点。

资料来源Science

————————

本文作者罗伯特·瑟尔维斯(Robert Service)是俄勒冈州波特兰市科学部的新闻记者,主要报道化学、材料科学和能源新闻