大的来了!中国直接掏出新芯片,算力超越顶级GPU千倍 10月15日消息,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。 这东西一登场,直接把顶级GPU的性能按在地上摩擦。 搁以前谁能想到啊,模拟计算这老古董还能翻红。早年间这技术因为精度太差,算点复杂活儿就出错,慢慢被数字计算挤到了一边。可现在不一样了,AI大模型训练、6G基站信号处理,本质上都是解一堆复杂的矩阵方程,数字计算虽然准,但数据在存储和计算之间来回跑,又慢又费电,早成了绕不开的坎儿。 全球科学家都想把模拟计算的“快”优势捡回来,可精度和扩展性这两个死结,几十年没人能解开。 北大这帮人偏不走寻常路,没在数字芯片的制程上死磕,反而搞起了“混搭创新”。他们用新型的阻变存储器、自己设计的电路加上经典算法,凑出了个全模拟矩阵方程求解器。简单说就是先快速算出个大概答案,再用“位切片”的法子一点点打磨精细,还发明了块矩阵算法,把大任务拆给多个芯片一起干,精度和规模的难题一下就破了。 这技术可不是自吹自擂,都登上《自然·电子学》了,国际学界看完都得竖大拇指。 真要比硬实力,这芯片简直是降维打击。算16×16的矩阵时,精度能达到24位定点,迭代10次后误差小到千万分之一,这水准跟数字计算没差。性能更是夸张,解32×32的矩阵时,算力就已经超过高端GPU的单核了;等任务涨到128×128,吞吐量直接甩顶级数字处理器一千多条街。 这么说吧,以前顶级GPU吭哧吭哧干一天的活,这芯片一分钟就能搞定,效率差得不是一星半点。 更绝的是它还特别省电费,相同精度下能效比传统处理器高100倍。现在一个大型数据中心一年电费就得烧上亿,要是换成这种芯片,能省的钱简直不敢想,以后建高能效计算中心总算有了硬支撑。 团队还拿它在6G的“大规模MIMO信号检测”上试了试水,结果让人吃惊。才迭代3次,恢复出来的图像就和原图几乎一模一样,误码率跟32位数字计算的效果没区别。 这意味着以后基站处理海量天线信号,既能实时响应又不费电,甚至能让复杂的信号处理和AI训推直接在终端设备上运行,不用总依赖云端。 最关键的是,这芯片的制造用的是40nm CMOS工艺,压根不用依赖最顶尖的光刻机,刚好绕开了外面的技术封锁。以前总被人拿着高性能GPU卡脖子,从A100到H100层层限制,现在咱们自己掏出这么个宝贝,等于在算力赛道上另开了条路。 现在团队已经在推进产业化了,等这技术真正落地,不管是AI大模型训练还是6G通信,都能换上咱们自己的“算力心脏”。以前总说要突破技术瓶颈,这回算是真刀真枪拿出了成果,看来算力又快又省的时代,离咱们是越来越近了。 参考资料: 环球网 《首次!突破世纪难题!我国成功研制出新型芯片》
台积电创始人张忠谋毫不客气地表示:“关键技术都在我们手中,若我们决定切断大陆芯片
【11评论】【9点赞】