算力颠覆!北大新芯片1分钟干完GPU1天活,AI训练、6G通信要换“引擎”

一半小苹果 2025-10-25 01:28:00

算力颠覆!北大新芯片1分钟干完GPU1天活,AI训练、6G通信要换“引擎” “GPU算一整天的6G信号检测,这芯片1分钟就搞定!”近日,北京大学孙仲研究员团队联合集成电路学院的突破,让整个科技圈沸腾——他们研制的阻变存储器模拟矩阵计算芯片,不仅首次让模拟计算精度追上数字芯片,算力和能效更是比顶级GPU猛提百倍到千倍。这项登在《自然·电子学》顶刊的成果,相当于给AI、6G装上了“超级引擎”,标志着我国在“后摩尔时代”算力竞争中,抢下了关键话语权。 可能有人会问:“模拟计算不是被淘汰的老技术吗?”这话只说对了一半。上世纪30-60年代,模拟计算机确实火过——它不用把数据转成0和1的二进制,直接用电压、电流这些物理量运算,比如10伏电压就代表数字“10”,像“心算”一样快。可后来因为“算不准”,精度跟不上复杂任务,才被CPU、GPU这些数字芯片取代。而孙仲团队,就是把这个“世纪难题”给攻克了。 传统数字芯片像“强迫症翻译官”:不管是温度、图像还是数据,都得先拆成0和1的二进制串才能算,比如“1+1=2”要写成“1+1=10”,步骤繁琐还费电;这款模拟芯片却像“直球高手”,跳过翻译环节,用连续变化的物理量直接运算。更牛的是精度——通过新型阻变存储器和原创算法,它的计算精度达到24位定点精度,堪比32位浮点精度(FP32),16×16矩阵求逆的误差低到10⁻⁷量级,相当于算1亿次只错1次,彻底甩掉了“模拟计算=粗算”的帽子。 在算力上,它更是上演“降维打击”。现在AI训练、6G通信的核心是矩阵计算,尤其是矩阵求逆,复杂度是立方级,传统GPU处理起来又慢又耗电。实验数据说话:处理32×32矩阵求逆,它的算力已经超过高端GPU单核;矩阵规模扩到128×128,吞吐量直接飙到顶级数字处理器的1000倍以上,能效还高100倍。孙仲给了个通俗对比:“以前数据中心处理一次大规模AI模型训练,电费要花几十万,用我们的芯片,成本能砍到原来的1%。” 别担心GPU会失业,这款芯片走的是“互补共赢”路线。未来算力格局会是“三驾马车”:CPU当“总调度”,管通用计算的统筹;GPU专注矩阵乘法,撑AI日常推理;模拟芯片则专攻最耗能的矩阵求逆,当AI二阶训练、6G信号处理的“加速王牌”。比如训练ChatGPT级别的大模型,以前要熬几个月,有了它能压缩到几周;手机、机器人这些终端设备,不用再依赖云端“借算力”,自己就能跑复杂AI任务,边缘计算会迎来爆发式增长。 目前团队已经启动产业化,等到芯片量产,我国在AI、6G这些算力“卡脖子”领域,就能跳出传统数字芯片的性能瓶颈,给全球算力革命递上“中国方案”。以后我们用的AI助手反应更快、6G网络延迟更低,背后或许就藏着这款“中国芯”的力量。

0 阅读:51
一半小苹果

一半小苹果

感谢大家的关注