DeepSeek-R2要?来了?,deeplk

  更新时间:2026-01-21 11:31   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

曾匹敌OpenAI o1并登顶iOS App Store源AI HuggingFace在DeepSeek R1发布一DeepSeek-R1的故事

<p class="f_center"><br></p> <p id="48P18KE1"><strong>新智元报道</strong></p> <p id="48P18KE4">编辑:Aeneas KingHZ</p> <p id="48P18KE6"><strong>【新!智元导读】DeepSeek-R1发布一(周年之际,核心算法库惊现MODEL1,是V4还是R2?</strong></p> <p id="48P18KE8">2025年1月20日,DeepSeek-R1正式发布。从此,国产大模型第一次走到了全球舞台的核心位置,开启了开源时代。</p> <p id="48P18KE9">而就在今天深夜,开发者社区沸腾了:DeepSeek的一个存储库进行更新,引用了一个全新的「model 1」模型。</p> <p class="f_center"><br></p> <p id="48P18KEB">DeepSeek-R1一年了,但DeepSeek-R2还没来。</p> <p id="48P18KEC">而这个被爆出的MODEL1,极有可能就是R2!</p> <p id="48P18KED">在DeepSeek的开源项目FlashMLA库代码片段明确引用了「MODEL1」,并且伴随针对KV缓存的新优化,和576B步幅的稀疏FP8解码支持。</p> <p class="f_center"><br></p> <p id="48P18KEF">FlashMLA是DeepSeek的优化注意力内核库,为DeepSeek-V3和DeepSeek-V3.2-Exp模型提供支持。</p> <p class="f_center"><br></p> <p id="48P18KEH">项目里,大约有28处提到model 1。</p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p class="f_center"><br></p> <p id="48P18KF7">这可以被解读为新模型即将发布的明确信号。</p> <p id="48P18KF8">巧的是,这个爆料正好赶在DeepSeek-R1发布一周年(2025年1月20日)。</p> <p id="48P18KF9">R1作为开源推理模型,曾匹敌OpenAI o1并登顶iOS App Store,此后彻底改变了开源AI社区。</p> <p id="48P18KFA">MODEL1即便不是R2,也意义非凡,毕竟FlashMLA是DeepSeek优化的注意力核心算法库。</p> <p id="48P18KFB">FlashMLA是DeepSeek为Hopper架构GPU(如H800)优化的MLA(Multi-head Latent Attention)解码内核。</p> <p id="48P18KFC">在推理层代码中提及新模型ID,往往意味着该新模型(代号为Model1)将继续复用或改进现有的MLA架构。</p> <p id="48P18KFD">这表明 DeepSeek 团队正紧锣密鼓地推进新模型的推理适配工作,FlashMLA 作为其核心推理优化的地位依然稳固。</p> <p id="48P18KFE">过去,DeepSeek的确遇到了一些麻烦。</p> <p id="48P18KFF">本月15日,国外媒体报道,去年在研发其新一代旗舰模型时,DeepSeek在算力上碰到了一点麻烦。但DeepSeek及时调整了策略,取得了进展,并正准备在「未来几周内」推出这款新模型。</p> <p id="48P18KFG"><strong>HuggingFace:</strong></p> <p id="48P18KFH"><strong>DeepSeek如何改变开源AI</strong></p> <p id="48P18KFI">HuggingFace在DeepSeek R1发布一周年之际,发文解释了DeepSeek如何改变了开源AI。</p> <p class="f_center"><br></p> <p id="48P18KFK">R1并不是当时最强的模型,真正意义而在于它如何降低了三重壁垒。</p> <p id="48P18KFL"><strong>首先是技术壁垒。</strong></p> <p id="48P18KFM">通过公开分享其推理路径和后训练方法,R1将曾经封闭在API背后的高级推理能力,转变为可下载、可蒸馏、可微调的工程资产。</p> <p id="48P18KFN">许多团队不再需要从头训练大模型就能获得强大的推理能力。推理开始表现得像一个可复用的模块,在不同的系统中反复应用。这也推动行业重新思考模型能力与计算成本之间的关系,这种转变在中国这样算力受限的环境中尤为有意义。</p> <p id="48P18KFO"><strong>其次是采用壁垒。</strong></p> <p id="48P18KFP">R1以MIT许可证发布,使其使用、修改和再分发变得简单直接。原本依赖闭源模型的公司开始直接将R1投入生产。蒸馏、二次训练和领域适应变成了常规的工程工作,而非特殊项目。</p> <p id="48P18KFQ">随着分发限制的解除,模型迅速扩散到云平台和工具链中,社区讨论的重点也从「哪个模型分数更高」转向了「如何部署它、降低成本并将其集成到实际系统中」。</p> <p id="48P18KFR">久而久之,R1超越了研究产物的范畴,成为了可复用的工程基础。</p> <p id="48P18KFS"><strong>第三个变化是心理层面的。</strong></p> <p id="48P18KFT">当问题从「我们能做这个吗?」转变为「我们如何做好这个?」时,许多公司的决策都发生了变化。</p> <p id="48P18KFU">对中国AI社区而言,这也是一个难得的、获得全球持续关注的时刻,对于一个长期被视为跟随者的生态系统来说,这一点至关重要。</p> <p class="f_center"><br></p> <p id="48P18KG0">这三个壁垒的降低共同意味着,生态系统开始获得了自我复制的能力。</p> <p id="48P18KG1"><strong>DeepSeek-R1一周年</strong></p> <p id="48P18KG2">今天,让我们回到原点,回顾DeepSeek-R1诞生的一年。</p> <p id="48P18KG3">在R1之前,大模型的进化方向几乎只有一个,更大的参数规模、更多的数据……</p> <p id="48P18KG4">但是,模型真的在思考吗?</p> <p id="48P18KG5">这个问题,就是DeepSeek-R1的起点。</p> <p id="48P18KG6">它不是让让模型回答得更快,而是刻意让它<strong>慢下来,</strong>慢在推理链条的展开,慢在中间状态的显式表达。</p> <p id="48P18KG7"><strong>从技术上看,DeepSeek-R1的关键突破,并不在某一个单点技巧,而在一整套系统性设计。</strong></p> <p class="f_center"><br></p> <p id="48P18KG9"><strong><strong>推理优先的训练目标</strong></strong></p> <p id="48P18KGA">在传统SFT/RLHF体系中,最终答案的「正确性」是唯一目标。R1 则引入了更细粒度的信号。这也是第一次,模型</p> <p id="48P18KGB"><strong><strong>高密度推理数据,而非高密度知识</strong></strong></p> <p id="48P18KGC">R1的训练数据,不追求百科全书式的覆盖,而是高度聚焦在数学与逻辑推导、可验证的复杂任务。</p> <p id="48P18KGD">总之,答案不重要,过程才重要。因此,R1才在数学、代码、复杂推理上,呈现出「跨尺度跃迁」。</p> <p id="48P18KGE"><strong><strong>推理过程的</strong></strong><strong><strong>「</strong></strong><strong><strong>内化</strong></strong><strong><strong>」</strong></strong><strong><strong>,而不是</strong></strong><strong><strong>复读</strong></strong><strong><strong>模板</strong></strong></p> <p id="48P18KGF">一个常见误解是:R1只是「更会写CoT」。</p> <p id="48P18KGG">但真正的变化在于:模型并不是在复读训练中见过的推理模板,而是在内部形成了稳定的推理状态转移结构。</p> <p id="48P18KGH">从此,推理不再是外挂,而是内生能力。</p> <p id="48P18KGJ"><strong>一年之后:R1改变了什么?</strong></p> <p id="48P18KGK">首先,它改变了对「对齐」的理解。</p> <p id="48P18KGL">R1之后,我们开始意识到,对齐不仅是价值对齐,也是认知过程的对齐。</p> <p id="48P18KGM">第二,它改变了我们对开源模型的想象空间。</p> <p id="48P18KGN">R1证明:在推理维度,开源模型不是追随者,而可以成为范式定义者。这极大激活了社区对「Reasoning LLM」的探索热情。</p> <p id="48P18KGO">第三,它改变了工程师与模型的协作方式。</p> <p id="48P18KGP">当模型开始「展示思路」,人类就不再是提问者,而是合作者。</p> <p id="48P18KGQ">回到今天:R1仍然是一条未走完的路。</p> <p id="48P18KGR">一周年,并不是终点。</p> <p id="48P18KGS">我们仍然清楚地知道:推理能力还有明显上限,长链路思考仍然昂贵</p> <p id="48P18KGT">但正如一年前做出 R1 的那个选择一样——真正重要的,不是已经解决了什么,而是方向是否正确。</p> <p id="48P18KGU">DeepSeek-R1的故事,还在继续。</p> <p id="48P18KGV">而这一年,只是序章。</p> <p id="48P18KH0">参考资料:</p> <p id="48P18KH1">https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment%20</p> <p id="48P18KH2">https://x.com/testingcatalog/status/2013588515271962678%20</p> <p id="48P18KH3">https://x.com/nopainkiller/status/2013522059662614653</p> <p class="f_center"><br></p>

编辑:王基明