你的大脑和GPU,谁更省电?聊聊神经形态芯片的野心

神经形态芯片模仿人脑的计算方式,用事件驱动和存算一体实现超低功耗AI计算。本文科普神经形态芯片的原理、代表产品和未来前景。

标签:神经形态芯片AI硬件脑科学芯片架构低功耗计算
专属插画
你的大脑和GPU,谁更省电?聊聊神经形态芯片的野心

你的大脑和GPU,谁更省电?聊聊神经形态芯片的野心

一个让工程师破防的事实

你的大脑大概重1.4公斤,功耗约20瓦——差不多就是一个LED灯泡的水平。

而训练一个大型语言模型?动辄需要上千块GPU,吃掉几兆瓦的电力,电费账单能让CFO当场心梗。

这个对比其实挺离谱的。人脑用一个灯泡的能量就能处理视觉、语言、情感、运动协调、还能边走路边想今晚吃什么。GPU集群烧着一个小区的电,才刚学会把猫和狗分清楚。

所以有一群研究者就想了:既然大脑这么牛,我们能不能照着大脑的方式来造芯片

这就是今天要聊的——神经形态芯片(Neuromorphic Chips)。

先搞清楚:传统芯片在干嘛

我们现在用的CPU和GPU,本质上都是冯·诺依曼架构的后代。简单说就是:存储是存储,计算是计算,数据要在两边来回搬运。

这个架构用了快80年,确实很通用。但它有个致命问题——数据搬运本身就很耗能。你可以把它想象成一个工厂,工人干活很快,但零件仓库在隔壁楼,每次取料都得跑一趟。工人累不累先不说,光是这个来回跑就浪费了大量时间和能量。

这就是所谓的「冯·诺依曼瓶颈」。GPU之所以能加速AI计算,是因为它有很多很多工人可以同时干活(并行计算),但本质上那个「仓库在隔壁楼」的问题并没有解决。

大脑不是这么干的

你的大脑里有大约860亿个神经元,通过突触相互连接。关键的区别在于:大脑的存储和计算是合在一起的

每个突触既是数据的存储位置,也是计算发生的地方。不需要来回搬运。神经元之间通过电脉冲(spike)通信,而且只在需要的时候才发射信号——没事干的神经元就安安静静待着,不耗电。

这就像一个分布式的工厂,每个工人自带工具箱和原材料,需要的时候干活,不需要的时候睡觉。没有仓库,没有搬运工,没有来回跑的浪费。

效率差距有多大?打个比方,如果把人脑的算力等效换算成传统计算机来模拟,估计需要几十兆瓦的功耗。但大脑实际只用了20瓦。效率差了大概百万倍的量级

神经形态芯片:抄大脑的作业

神经形态芯片就是试图在硅片上模仿大脑的工作方式。目前比较知名的有几个:

  • Intel Loihi 2:英特尔的研究芯片,包含100万个「数字神经元」,支持片上学习。2021年推出第二代,据说能效比传统方案好1000倍(特定任务下)。

  • IBM TrueNorth:IBM在2014年就搞出来的,有100万神经元和2.56亿突触,功耗只有70毫瓦。没错,毫瓦级别。

  • SynSense(时识科技)的Speck:这是一家有中国背景的公司做的,芯片只有指甲盖大小,功耗不到1毫瓦,主打边缘端的视觉处理。

  • BrainChip Akida:澳大利亚公司做的,已经商用化了,主要用在边缘AI场景。

这些芯片有几个共同特点:

  1. 事件驱动:不像传统芯片那样按时钟周期一刻不停地运转,而是「有事才动」。检测到输入变化才激活相关电路,其他时候省着。

  2. 存算一体:计算和存储放在一起,减少数据搬运。

  3. 大规模并行:模仿大脑的并行处理方式,成千上万的小单元同时工作。

  4. 超低功耗:因为上面三个特点加在一起,能耗可以做到极低。

能干嘛?不能干嘛?

先说能干嘛。

神经形态芯片特别适合感知类任务——就是那些大脑本来就擅长的事情:图像识别、声音处理、触觉感知、异常检测。尤其是在功耗和延迟要求极高的场景,比如:

  • 智能传感器:一个安防摄像头如果用神经形态芯片做本地处理,可以做到永远在线但几乎不耗电,只在检测到异常时才触发报警。
  • 可穿戴设备:助听器、智能手表这些靠电池活着的东西,功耗就是命。
  • 机器人:实时感知环境并做出反应,延迟要求是毫秒级的。
  • 自动驾驶边缘处理:在车端做实时的障碍物检测,不能靠云端,得本地算。

再说不能干嘛——至少现在还不太行。

训练大语言模型这种事,神经形态芯片目前搞不定。原因很简单:现在的大模型训练依赖的是大规模矩阵运算,这恰好是GPU最擅长的。神经形态芯片的强项是推理和感知,不是暴力计算。

而且,编程生态几乎为零。GPU有CUDA,有PyTorch,有整个深度学习社区的工具链。神经形态芯片?每家的架构都不一样,编程方式完全不同,开发者社区小得可怜。

这其实是个鸡生蛋的问题:没有好的工具→没人用→没人开发工具→更没人用。

2025-2026年的进展

不过事情在变化。

2025年,Intel的Loihi 2开始在一些研究机构落地。有团队用它做实时的脑机接口信号处理,延迟只有微秒级别,传统方案根本做不到这个速度。

学术界也越来越热闹。脉冲神经网络(SNN)作为神经形态芯片的原生算法框架,训练方法在近两年有了不少突破。以前SNN很难训练,因为脉冲信号是离散的,没法直接用反向传播。现在有了替代梯度(surrogate gradient)等方法,训练效果正在逼近传统深度网络。

还有一个有趣的方向:把神经形态芯片和传统GPU混着用。GPU负责训练和重型计算,神经形态芯片负责边缘端的实时推理。这种混合架构可能是近期最务实的落地路径。

一个更大的问题

AI的能耗问题已经不是技术细节了,是战略问题。

有机构估算,到2027年,全球AI相关的电力消耗可能超过整个荷兰的用电量。训练一次GPT-4级别的模型,碳排放大约等于一辆汽车开50万公里。

这个趋势显然不可持续。要么我们找到更多的电(核电、可再生能源),要么我们让计算本身更高效。

神经形态计算指向的是后者——从根本的计算范式上提升效率,而不是在现有架构上修修补补。

当然,这条路还很长。从实验室到大规模商用,可能还需要5-10年。但方向是清晰的:未来的芯片,会越来越像大脑

所以呢?

下次你觉得自己脑子不好使的时候,想想这个事实:你那个20瓦的肉质处理器,在能效比上依然碾压地球上最强的超级计算机。

人类花了几十年才刚开始理解大脑计算的精妙之处,而照着抄作业的芯片才刚起步。

不过话说回来,大脑也有大脑的问题——比如它会拖延、会焦虑、会在deadline前一天才开始干活。这些bug,GPU可没有。

所以最终的答案可能不是「大脑还是芯片」,而是怎么让两者各自发挥所长。毕竟,最好的工具组合,往往不是找一个万能的,而是让每个工具干自己最擅长的事。

SFD编者注

神经形态计算是SFD实验室持续关注的方向之一。虽然现在大家的注意力都在大模型上,但我们觉得计算架构层面的创新同样值得关注。毕竟,如果底层的计算效率能提升几个数量级,上层的应用想象空间就完全不一样了。这篇文章做了比较粗线条的科普,对具体技术细节感兴趣的朋友,推荐去看看Intel Loihi和SynSense的技术博客,写得都挺通俗的。