美国人估计怎么也想不通,牌都快出到王炸了,怎么我们还能从桌子底下掏出一副新牌来打

鹏天云光 2026-01-06 08:58:10

美国人估计怎么也想不通,牌都快出到王炸了,怎么我们还能从桌子底下掏出一副新牌来打? 凌晨刷到北大一个团队的消息,他们搞了个AI芯片,但走的根本不是寻常路。 这事得从AI的薄弱环节说起,今天的GPT、自动驾驶背后,是海量的矩阵计算。英伟达的GPU本质上是把每个数字拆成0和1的摩斯密码,在成千上万亿个晶体管里折腾:算1+1需要28个晶体管,两位数乘法要一万个。 这种"翻译式"计算在摩尔定律时代靠堆数量管用,但现在晶体管小到接近原子尺寸,再缩小就要量子隧穿了,已经到了物理极限。更要命的是,美国卡住高端光刻机,7纳米以下芯片不让造,想靠"补课"追上?门都没有。 而北大团队,他们绕过0和1的翻译,直接让电流电压"心算"。比如算5×3,不需要转成101×011,而是让5伏电压通过3千欧电阻,根据欧姆定律,瞬间得到15毫安电流——物理定律就是天然的计算器。 这种模拟计算在上世纪60年代被数字取代,因为当年的电子管太糙,误差能到10%,算几步就"失之毫厘谬以千里"。但北大这次把误差压到千万分之一,相当于从"估算"变成了"高精度狙击"。 怎么做到的?关键在三个维度的"作弊": 一个是器件层的阻变存储器,这种器件,既是存储单元又是计算单元。传统芯片数据要在存储器和计算器之间来回搬家,而阻变存储器让数据"住在家里算题",省去90%的搬运能耗。 另一个是电路层的迭代算法,先用低精度电路快速找到答案的"盆地"(误差1%),再用高精度电路像削铅笔一样修正,三次迭代就逼近FP32精度。 最后是算法层的"位切片",把24位精度拆成8个3位模块并行计算,像拼积木一样堆出高精度,还不增加延迟。 这种"物理外挂"的效果有多夸张?解128×128的矩阵方程,英伟达A100要算一天的活,北大芯片一分钟搞定,能耗还只有百分之一。 更绝的是,它不需要7纳米光刻机,28纳米成熟工艺就能造。这正好戳中美国封锁的死穴:他们卡死的是数字芯片的先进制程,而模拟计算根本不走这条路。 这场技术突围的深层逻辑,是对"计算本质"的重新理解。数字计算是人造的符号系统,而模拟计算是物理世界的原生语言。 人类大脑从来不用0和1思考,视觉神经直接通过突触电流强度识别形状,北大芯片做的就是模拟这种直觉。当美国还在往二进制的死胡同里钻,中国团队已经在物理定律里找到了新赛道。 这种"换道"不是投机,而是源自对技术路径的长期研判——孙仲团队从2019年的1%误差开始,用六年时间磨平了模拟计算的精度毛刺,证明"老技术"也能焕发新生。 现在看,美国的封锁更像"魔法对轰"中的误判。他们以为卡住光刻机就能锁住中国算力,却忽略了计算范式变革的可能性。 北大芯片不仅在实验室跑通了原理,还在6G信号处理中实测:三次迭代恢复的图像和32位数字计算几乎无差别,这意味着未来基站可以用更少的电处理更多信号。 更深远的是,这种存算一体架构为具身智能、边缘计算打开了大门——机器人不需要背着沉重的电池,终端设备可以本地处理AI任务,彻底摆脱对云端的依赖。 当然,这场突围才刚开始。16×16的阵列规模要扩展到商用,还需要解决寄生效应、良率控制等工程难题。但正如GPU在2012年突然从游戏卡变身AI心脏,模拟计算的"2012时刻"可能正在到来。 当美国还在数晶体管数量时,中国已经开始改写计算的规则——这不是简单的技术突破,而是一场关于"未来算力形态"的认知革命。毕竟在物理定律面前,所有的封锁终将失效,而创新永远会找到自己的出路。 对于此事,大家有什么看法呢?欢迎在评论区留言讨论! 信源: 1. 北京大学官网《北大教授突破瓶颈,新芯片问世!》(2025年10月23日) 2. 《自然·电子学》论文《High-precision analog matrix computation with resistive memories》(2025年10月13日) 3. 每日经济新闻专访《绕开光刻机"卡脖子",中国新型芯片问世!》(2025年12月29日)

0 阅读:0
鹏天云光

鹏天云光

感谢大家的关注