前两天,月之暗面推出了Kimik1.5多模态思考模型,DeepSeek也发布了DeepSeek-R1文本推理模型,二者都在推理能力上对标OpenAI正式版o1。
目前来看,海外同行的反馈以振奋为主流。比如Answera公司的创始人保罗·库弗特(PaulCouvert)就感叹,两款中国o1同日发布,(中国AI)追赶速度越来越快了!
当然,自然也少不了“泼冷水”的。
或许有人好奇,国产推理模型真的崛起了吗?大模型技术如何从“规模扩展”发展到“推理扩展”?对于推理模型这个路线,我们到底该保持兴奋还是冷静一下?本文就来给大家一一解读。
o1系列之后,头部模厂都开始向“慢思考”的推理模型技术路线投入,包括大厂谷歌、百度、阿里、科大讯飞、夸克,以及AI六小虎中的智谱、DeepSeek、阶跃星辰等,此前也都推出过准o1的推理模型,但一直没有全面对标正式版o1的国产推理模型。
要证明国产推理模型的崛起,有两个前提条件:一是经得起全球同行的审视;二是具备原创能力而非简单跟随,全面对标而非部分达标。
目前来看,Kimik1.5/DeepSeeKR1达到了上述条件。
Kimik1.5/DeepSeeKR1首次真正对标了正式版o1,取得了SOTA成绩。其中,k1.5还是国内首个多模态o1,同时支持文本和图像推理。这在全球推理模型领域都是比较亮眼的成绩。
作为当前AI领域最主流的叙事和技术高地,推理模型的风吹草动,都会引发全球从业者的目光。而中国公司一口气在推理模型赛道上,拿出两个重磅论文,模型含金量高,经过了目光聚焦且严苛的审视,其中还包含很多原创技术。
可以说,从Kimik1.5/DeepSeeKR1的“双子星”开始,国产推理模型是真的崛起了。
推理模型,国内AI公司是怎么追赶的?我们和海外AI圈一起“黑着眼眶熬着夜”,苦读kimi/DeepSeek论文,简单总结一下:
总路线上,k1.5和R1都使用了强化学习(RL)技术,来提升模型推理能力。但在技术细节上,kimi/DeepSeek都拿出了全新的思路。
Kimik1.5则首创了long2short思维链,让LLM通过奖励机制进行探索性学习,自主扩展训练数据,来扩展上下文长度,从而优化RL训练表现,在短链思维推理方面取得了SOTA成绩。
性能最强的long-CoT版本Kimik1.5,数学、代码、多模态推理能力可以达到长思考SOTA模型OpenAIo1正式版的水平。
基于long-CoT版本简化的short-CoT,性能依旧强悍,但推理更加高效,大幅超越了全球范围内短思考SOTA模型GPT-4o和Claude3.5Sonnet的水平,领先达到550%。
除此之外,两大国产推理模型还各有亮点。
Kimik1.5则是OpenAI之外,首个达到o1多模态推理性能的模型,k1.5支持文本、图像交叠的多模态输入,可以进行联合推理,填补了国内多模态思考模型的空白。
Amarok开发者MarkKretschmann也在社交媒体上不吝褒奖,直呼k1.5是“多模态AI领域的重大突破”。
可以看到,面对“推理拓展”这个全新技术领域,中国AI“双子星”靠原创硬实力稳稳拿下,并走出了一条有别于OpenAI的发展创新之路。
OpenAI奥特曼建议大家放低预期,那么,中国AI公司发力推理模型,价值究竟有没有、有多大?
对于中国AI公司来说,点亮推理模型的技术版图,有两方面的意义:
以Kimi为例,去年11月推出k0-math数学模型,12月发布k1视觉思考模型,今年1月发布k1.5多模态思考模型,三个月三次迭代,进化速度极快。说明对天花板技术的贴身跟进,是中国AI最快最好的练兵场。
从这些角度看,在各行各业引入专家级AI的推理模型,加速行业智能化,恐怕仍会由国产AI率先垂范。k1.5、R1等国产推理模型,将在其中贡献不可或缺的基座价值。Kimi官方也表示,2025会继续沿着路线图,加速升级k系列强化学习模型,带来更多模态、更多领域的能力和更强的通用能力。
所以不出预料的话,我们很快就能用上花钱少、出活好的专家级国产AI了。
中国AI“双子星”炸开的2025年大模型开局,分外精彩。推理模型作为模厂的下一个分水岭,谁抓住了国产推理模型的崛起时刻,也就先一步抓住了未来。
审核编辑黄宇
长沙市望城经济技术开发区航空路6号手机智能终端产业园2号厂房3层(0731-88081133)