从零复现,全面开源:360 Light-R1-14B/7B带来端侧AI平权时刻

科技 03-16 阅读:0 评论:0

性能领先、开源普惠、国产易获取的三重势能,造就了年初DeepSeek的技术平权狂热,掀起AI普惠浪潮。

然而,当很多人想在端侧部署DeepSeek模型时,却遭遇了挑战:部署满血版大模型需数万元硬件投入,退而求其次选择蒸馏版14B版本,又会出现性能断崖式下跌与响应延迟。

就在AI用户陷入“高成本部署”与“低质量妥协”的两难困境时,端侧AI的破局时刻,悄悄被360打开了。

近期,360智脑团队发布了最强14B推理模型:Light-R1-14B-DS,是业界首次在14B模型上复现强化学习效果。数学能力上,表现超过DeepSeek-R1-Distill-Llama-70B和DeepSeek-R1-Distill-Qwen-32B。

尽管只训练了MATH数据,但在GPQA科学常识评测中,7B/14B双版本均超越对标产品,展现出“小参数大智慧”的泛化能力。

此外,配合360的全面开源策略(模型/数据/代码/技术报告全开放),这场端侧AI平权运动,意味着14B模型能在手机端流畅运行,意味着企业无需天价算力即可部署专业级AI。

AI端侧民主化的风暴眼,正在酝酿之中。

我们第一时间研读了360放出的技术报告,发现端侧AI的技术拐点已经出现。360开源的Light-R1-14B-DS创造了三项行业纪录:

一是能力复现。Light-R1-14B-DS首次在数学能力上,用14B 模型复现了强化学习效果,通过多阶段课程学习SFT和强化学习,Light-R1-14B-DS的表现超过DeepSeek-R1-Distill-Llama-70B和DeepSeek-R1-Distill-Qwen-32B,是目前最优的14B模型,这验证了RL强化学习策略的有效性,RL对端侧模型训练的收益很大,仍有进一步挖掘潜力。

(Light-R1 训练流程)

二是效率革命。Light-R1-14B-DS 经过长思维链强化学习后训练,在AIME 24和25上分别取得了74.0和60.2的成绩,数学部分表现超越DeepSeek的70B(72.6分)和32B(54.9分)蒸馏模型,取得了非常显著的提升,这标志着推理能耗进一步降低。另一版本的Light-R1-7B-DS,无需量化即可端侧部署。此次探索,在低成本复现 DeepSeek-R1方面迈出了重要一步。

三是泛化能力增强。Light-R1-14B-DS在科学常识评测GPQA上涨,打破了模型“灾难性遗忘”的魔咒,具有较好的泛化性,开辟模型优化新路径。

最强14B端侧推理模型,撕开了DeepSeek 70B的性能封锁线,端侧AI迎来了规模化普及的拐点。不过,在AI与大众之间,还差一个开源。

如果仅有技术突破,但没有开源机制,那么端侧推理模型再好,也无法被大众轻松获得、低成本用起来。

此次,360采取了全栈式的开源策略——模型权重、22万条数学数据集、RL训练代码、技术报告等,都悉数公开。这种开源深度,远远超过了常规模型权重开放。

也就是说,中小团队仅需极少算力,就能从数据清洗到强化学习全链路复现,完成端侧AI的后训练与部署。

端侧AI的民主化,高度依赖于科技企业的开源策略,为什么说360此次开放端侧推理模型很重要?

对企业来说,传统端侧AI部署,会面临闭源模型高昂的授权费用(如OpenAI API调用成本)与硬件适配的边际成本(需定制化芯片或服务器),成本难以承受。此前openai也发布过蒸馏版o1-mini,但高昂的订阅费依然让大量开发者望而却步。此外,闭源模型存在不可解释性风险,医疗、法律等行业因合规要求无法接受“输入-输出”不透明的AI决策。因此,Light-R1-14B-DS这样低成本、全开源的国产端侧推理模型,有望打消企业对AI的顾虑,轻松迈入智能化。

对个人来讲,云端模型需要上传数据,这会引发隐私泄露的顾虑。而在端侧离线运行大模型,又对算力/内存有更高的要求,传统端侧AI需要旗舰级设备,买不起旗舰机,就用不到好AI,这形成了一种AI时代的“设备歧视”。

360开源最强14B端侧模型,让端侧AI能力不再是少数机型的特权,也可以下沉到普惠机型上,为大众所用。而用户规模的扩大,也会推动AI应用及大模型产品的增长。

由此看到,360开源策略所带来的技术民主化,可以激活AI的长尾需求,加速AI普惠的到来。

终端设备,是用好AI的载体。推理模型下沉到端侧,应用空间也十分广阔,打开了端侧AI的无限想象空间。

预测一下,目前这两个最强端侧14B/7B推理模型,可能会首先落地在商业价值高的场景,然后一步步渗透进各行业。

首当其冲的,就是消费电子领域。智能手机、手表、平板、PC、眼镜等终端设备,近两年都在加速AI化。

但此前AI化有两种方案:一是纯端侧,保证本地隐私安全,但内存要求高,功耗大;另一种是端云结合,部分任务上云处理。Light-R1-7B-DS无需量化即可部署于终端设备(如手机、IoT设备),标志着消费级硬件也能运行复杂AI任务。对比传统需要32B以上参数的端侧模型,其7B规模大幅降低内存占用和能耗。为AI终端带来了更大的创新空间,比如在手机本地运行复杂数学辅导、法律文书解析等任务,解决隐私和延迟痛点。

360的技术突破与全栈开源,可以为消费电子领域的AI探索带来非常有益的借鉴。

下一个就是重点行业、垂直领域。金融、政务、医疗、法律等数字化基础较好的行业,积极拥抱AI,又希望在本地化运行专业级AI,避免敏感数据上传云端,这就需要专有模型+后训练,最强端侧14B/7B推理模型可以大幅降低端侧专有模型的训练、推理等硬件门槛,加速行业智能化探索。

更进一步,传统行业壁垒也将被端侧普惠AI撕开。比如智慧城市治理,通过部署端侧AI的边缘智能计算,可以极大减少智能化的建设和升级运维成本;农业智能化,搭载14B模型的农业无人机,路线自动避障、精准识别地面等能力,都会随着推理能力的增强而大幅提升。

通过端侧AI的普惠路线图,来进行推演,不难看到,360的技术突破与开源策略,一定会吸引大量行业开发者或个人开发者前来试用,与丰富的场景相结合,催生大量智能化的长尾应用。

也就是说,通过开源轻量级推理模型,360有望规避AI六小强在千亿参数级的竞争。基于开源开放的技术公信力,构建开发者生态护城河。从这个角度看,360掀起的端侧AI飓风,也将卷出一个大模型竞争的新格局。

端侧推理模型的平权时刻已到,万亿级边缘智能市场正蓄势待发、乘风远航。

网友评论