N解放军报 新华社 科技日报

唐昊制图
今年8月,浙江大学脑机智能全国重点实验室发布了新一代神经拟态类脑计算机“悟空”。“悟空”搭载了960颗达尔文3代芯片,整体由15台刀片式神经拟态类脑服务器组成。该系统支持超过20亿个脉冲神经元和千亿级神经突触,其神经元数量已接近猕猴大脑规模。这是国际上首台突破20亿神经元规模的类脑计算机。
据研究人员介绍,“悟空”大规模、高并行、低功耗等特点,将为现有的计算场景提供新的计算范式。
“悟空”的诞生,是神经形态计算技术发展进程中的代表性成果。那么,究竟什么是神经形态计算?这种技术和传统计算机有什么区别?
诸多优势 颠覆传统计算
从1946年第一台电子计算机问世以来,计算机被广泛用于科学计算、事务处理和过程控制,深刻影响着社会各个领域。20年前有人提出,如果不从根本上改变,传统计算机的发展速度将越来越慢,直至彻底停滞不前。今天看来,传统计算机已经站在了一个寻求突破的十字路口。现阶段半导体工艺的技术节点已经接近晶体管的物理极限,摩尔定律发展逐渐放缓,冯·诺依曼架构对效率的影响,算力增长带来的能耗飙升等制约着计算机的发展。人工智能和大数据的爆发式增长,更是进一步扩大了需求与算力供给之间的物理鸿沟。
是在现有框架内深度优化,还是彻底从根本上变革?有研究者将目光投向了自然界中已知最高效的计算系统——人类大脑。
人脑,以其无与伦比的复杂神经网络和认知能力,堪称自然界最伟大的奇迹之一。大脑中,约860亿个神经元如夜空中闪烁的繁星,通过100万亿个神经突触相互交织,构建起一张复杂的信号传递网络。当我们看到一片美丽的景色、听到一首动人的音乐或是思考一道复杂的数学题时,大脑中的神经元就会活跃起来,高效而精准地处理信息。这种处理方式灵活且能耗极低。一位企业家举了个例子:人类今天如果要用深度学习算法去模拟一只老鼠的能力,可能需要消耗一个小镇的电力;但是人的大脑这么聪明,大概25瓦,大点的50瓦,也就消耗这么多的能量。
20世纪80年代,美国加州理工学院教授卡弗·米德首次提出神经形态计算的概念,旨在模仿人脑神经元的工作原理,开发低功耗、高能效的计算技术。随着硬件的发展和技术的突破,神经形态计算逐渐成为一种模拟生物神经系统,特别是人脑神经元与神经突触工作机制的新型计算方式。神经形态计算并非在软件层面模拟大脑,而是在硬件层面直接使用电子器件来模拟生物神经元和突触的行为与结构。神经形态计算具备以下诸多优势。
事件驱动。神经元仅在接收到特定事件时才触发脉冲,这种“事件驱动”特性可以大幅减少无效计算。
存算一体。在神经形态器件中,存储信息的物理位置本身也是执行计算的地方,大大削减了搬运延迟,降低了能耗。
高度并行。神经形态硬件由大量神经元和突触组成分布式网络,支持大规模并行计算。神经元网络通过脉冲时序编码实现毫秒级时间信息处理,形成“空间拓扑并行+时间动态并行”的双重并行机制。
自适应学习。大脑的核心学习能力依赖于神经突触的可塑性。神经形态硬件能够在物理层面模拟这种可塑性,支持硬件层面的在线学习与实时适应,无需依赖云端海量计算资源进行训练。
上述特性共同造就了神经形态计算系统的高能效、低功耗特性。这是其颠覆传统计算范式、实现智能普适化目标的关键基石。
前沿进展 点燃类脑引擎
当前,神经形态计算正经历技术爆发期,在材料器件、算法模型、系统设计等多个层面不断突破。这些创新共同推动神经形态计算向实用化迈进。
无论对于传统计算机,还是神经形态计算,硬件都是基础。实现高效神经形态计算的核心在于,找到或设计出能有效模拟生物神经元与突触行为的器件。今年7月,《自然·通讯》杂志报道了一款基于二维材料磷三硫化锌的新型可重构忆阻器,其最大亮点是能通过单个电脉冲在模拟神经元与突触的模式间自由切换。该忆阻器为构建高灵活性、高资源利用率的神经形态芯片开辟了新路径。此外,相变存储器、磁性隧道结、铁电晶体管、液滴界面突触等神经形态器件技术不断进步,共同推动了神经形态计算领域的硬件发展。
强大的硬件需要配套的软件与算法驱动。神经形态计算的软件核心在于脉冲神经网络。相较于主流的深度神经网络对生物网络的初步抽象,脉冲神经网络更贴近生物神经元实际工作机制。在脉冲神经网络中,神经元间传递的是离散且时间精确的脉冲信号;信息不仅编码于脉冲发放频率,还更精细地编码于脉冲的精确时序或间隔模式。这种处理方式天然契合神经形态硬件的事件驱动特性,能充分挖掘其低功耗和时空信息处理优势。近年来,研究者们开发了多种局部学习规则,以适应更广泛的任务需求。
芯片方面,业内许多公司已推出多项研究成果,如英特尔公司的类脑芯片系列、IBM公司的真北与北极芯片、清华大学的天机芯片等等。随着基础器件的持续突破,神经形态计算系统正从单芯片扩展到大规模神经拟态计算平台。其中,“Hala Point”便是这一发展进程中的代表性成果。Hala Point由英特尔公司于2024年4月推出,集成了1152个高性能神经形态处理器,可模拟分布在超14万个处理核心中的11.52亿个人工神经元和1280亿个突触,具备强大的并行处理能力。在执行特定人工智能任务负载时,它的速度比传统CPU与GPU系统快50倍,能耗仅为其1%。
今年初,由美国哈佛大学领衔的近60家国际顶尖学术机构与科技企业,共同推出首个面向神经形态计算的统一评测框架,标志着神经形态计算评测进入标准化新阶段。
应用广泛 计算优势显著
神经形态计算以其独特的仿生架构与卓越特性,在众多领域有着广泛的应用前景。
在实时性、能效要求极其苛刻的边缘智能与感知领域,神经形态计算优势显著。神经形态芯片的事件驱动特性仅在信号变化时激活计算,能大幅降低静态功耗;其低延迟与高并行性能可以极速处理来自视觉、听觉等传感器的连续数据流。引入神经形态计算后,可在高速、强光或弱光等传统摄像头失效场景下,实现超低功耗实时监测。这为自主导航、精确制导、军事感知与监视等应用奠定了基础。
构建自适应、持续学习的智能机器人与自主系统,是神经形态计算的另一重要应用。神经形态系统擅长处理连续的时空信息流,使得机器人在救灾、野外等动态环境中,能够实时融合多模态传感数据,优化“感知—决策—行动”闭环,提升面对突发威胁、路径阻断或通信干扰时的适应性与生存能力。同时,其低功耗特性可支持更持久的任务执行并需要更少的后勤补给,或将为未来智能化作战体系提供有效支撑。
对于部署规模庞大、依赖电池或能量采集的物联网终端和智能传感器节点,如环境监测、设备状态监控、健康追踪等,神经形态计算也具备强大的竞争力。神经形态处理器的超低功耗,尤其是近乎为零的待机功耗,构成了其核心竞争力。它们能直接在本地高效处理传感器原始数据,并仅在检测到重要事件时才唤醒主控芯片或启动通信,最大程度节省能源。这在战场传感网络、分布式侦察、装备状态监控和智能安防中价值巨大。
此外,神经形态计算在下一代脑机接口、神经修复等领域中也展现了潜力,是新一代脑启发人工智能模型运行的关键平台,有望推动更可持续的人工智能发展。
神经形态计算并非为了完全取代传统计算机,而是各有各的赛道。未来的计算机世界,或许将是一个多足鼎立的时代:传统计算机负责精密的逻辑思考,神经形态计算负责高效的感知与决策,量子计算机负责攻克顶级的科学难题……它们共同助力计算技术更好地服务人类。
编辑:郭寿权
文章不错,点个赞吧!