带你一文读懂 DeepSeek-R1 新模型,为何震动了全球 AI 圈

本文关注 DeepSeek-R1 在技术上最重要的突破——用纯深度学习的方法让 AI 自发涌现出推理能力。这一研究可能会对模型推理训练后续的范式产生深刻影响。

时隔不到一个月,DeepSeek 又一次震动全球 AI 圈。

去年 12 月,DeepSeek 推出的 DeepSeek-V3 在全球 AI 领域掀起了巨大的波澜,它以极低的训练成本,实现了与 GPT-4o 和 Claude Sonnet 3.5 等顶尖模型相媲美的性能。

和上次不同的是,这次推出的新模型 DeepSeek-R1 不仅成本低,更是在技术上有了大幅提升。而且,它还是一个开源模型。

这款新模型延续了其高性价比的优势,仅用十分之一的成本就达到了 GPT-o1 级别的表现。所以,很多业内人士甚至喊出了“DeepSeek 接班 OpenAI”的口号。

比如,前 Meta AI 工作人员、知名 AI 论文推特作者 Elvis 就强调,DeepSeek-R1 的论文堪称瑰宝,因为它探索了提升大语言模型推理能力的多种方法,并发现了其中更明确的涌现特性

image.png

另一位 AI 圈大 V Yuchen Jin 则认为,DeepSeek-R1 论文中提出的,模型利用纯 RL 方法引导其自主学习和反思推理这一发现,意义非常重大。

Image

英伟达 GEAR Lab 项目负责人 Jim Fan 在推特中也提到了,DeepSeek-R1 用通过硬编码规则计算出的真实奖励,而避免使用任何 RL 容易破解的学习奖励模型。这使得模型产生了自我反思与探索行为的涌现。

Jim Fan 甚至认为,它们做了 OpenAI 本来应该做的事,开源。

Image

那么问题来了,他们所提到的纯 RL 方法训练模型是指什么?

模型出现的“Aha Moment”,又凭什么能证明 AI 具有了涌现能力?

我们更想知道的是,DeepSeek-R1 的这一重要创新对于 AI 领域未来的发展,究竟意味着什么?

1.用最简单的配方,回归最纯粹的强化学习

在 o1 推出之后,推理强化成了业界最关注的方法。

一般来说,一个模型在训练过程中只会尝试一种固定训练方法来提升推理能力。

而 DeepSeek 团队在 R1 的训练过程中,直接一次性实验了三种截然不同的技术路径:直接强化学习训练(R1-Zero)、多阶段渐进训练(R1)和模型蒸馏,还都成功了。多阶段渐进训练方法和模型蒸馏都包含着很多创新意义元素,对行业有着重要影响。

其中最让人激动的,还是直接强化学习这个路径。因为 DeepSeek-R1 是首个证明这一方法有效的模型。

我们先来了解一下,训练 AI 的推理能力传统的方法通常是什么:一般是通过在 SFT(监督微调)加入大量的思维链(COT)范例,用例证和复杂的如过程奖励模型(PRM)之类的复杂神经网络奖励模型,来让模型学会用思维链思考。

甚至会加入蒙特卡洛树搜索(MCTS),让模型在多种可能中搜索最好的可能。

Image

传统的模型训练路径

但 DeepSeek-R1-Zero 选择了一条前所未有的路径“纯”强化学习路径,它完全抛开了预设的思维链模板(Chain of Thought)和监督式微调(SFT),仅依靠简单的奖惩信号来优化模型行为。

这就像让一个天才儿童在没有任何范例和指导的情况下,纯粹通过不断尝试和获得反馈来学习解题。

DeepSeek-R1-Zero 有的只是一套最简单的奖励系统,来激发 AI 的推理能力。

这个规则就两条:

1.准确性奖励:准确性奖励模型评估响应是否正确。对了就加分,错了扣分。评价方法也很简单:例如,在具有确定性结果的数学问题中,模型需要以指定格式(如和间)提供最终答案;对于编程问题,可以使用编译器根据预定义的测试用例生成反馈。

2.格式奖励:格式奖励模型强制要求模型将其思考过程置于和标签之间。没这么做就扣分,做了就加分。

为了准确观察模型在强化学习(RL)过程中的自然进展,DeepSeek 甚至有意将系统提示词仅约束限制在这种结构格式上,来避免任何内容特定的偏见——例如强制让模型进行反思性推理或推广特定的问题解决策略。

Image

R1 Zero 的系统提示词

靠着这么一个简单的规则,让 AI 在 GRPO(Group Relative Policy Optimization)的规则下自我采样+比较,自我提升。

GRPO 的模式其实比较简单,通过组内样本的相对比较来计算策略梯度,有效降低了训练的不稳定性,同时提高了学习效率。

简单来说,你可以把它想象成老师出题,每道题让模型同时回答多次,然后用上面的奖惩规则给每个答案打分,根据追求高分、避免低分的逻辑更新模型。

这个流程大概是这样的:

输入问题 → 模型生成多个答案 → 规则系统评分 → GRPO 计算相对优势 → 更新模型

这种直接训练方法带来了几个显著的优势。首先是训练效率的提升,整个过程可以在更短的时间内完成。其次是资源消耗的降低,由于省去了 SFT 和复杂的奖惩模型,计算资源的需求大幅减少。

更重要的是,这种方法真的让模型学会了思考,而且是以“顿悟”的方式学会的。

2.用自己的语言,在“顿悟”中学习

我们是怎么看出模型在这种非常“原始”的方法下,是真的学会了“思考”的呢?

论文记录了一个引人注目的案例:在处理一个涉及复杂数学表达式 √a - √(a + x) = x 的问题时,模型突然停下来说"Wait, wait. Wait. That's an aha moment I can flag here"(等等、等等、这是个值得标记的啊哈时刻),随后重新审视了整个解题过程。这种类似人类顿悟的行为完全是自发产生的,而不是预先设定的。

Image

img

这种顿悟往往是模型思维能力跃升的时刻。

因为根据 DeepSeek 的研究,模型的进步并非均匀渐进的。在强化学习过程中,响应长度会出现突然的显著增长,这些"跳跃点"往往伴随着解题策略的质变。这种模式酷似人类在长期思考后的突然顿悟,暗示着某种深层的认知突破。

Image

在这种伴随着顿悟的能力提升下,R1-Zero 在数学界享有盛誉的 AIME 竞赛中从最初的 15.6%正确率一路攀升至 71.0%的准确率。而让模型对同一问题进行多次尝试时,准确率甚至达到了 86.7%。这不是简单的看过了就会做了——因为 AIME 的题目需要深度的数学直觉和创造性思维,而不是机械性的公式应用。模型基本必须能推理,才可能有这样的提升。

Image

img

另一个模型确实通过这种方法学会了推理的另一个核心证据,是模型响应长度会根据问题的复杂度自然调节。这种自适应行为表明,它不是在简单地套用模板,而是真正理解了问题的难度,并相应地投入更多的"思考时间"。就像人类面对简单的加法和复杂的积分会自然调整思考时间一样,R1-Zero 展现出了类似的智慧。

最有说服力的或许是模型展现出的迁移学习能力。在完全不同的编程竞赛平台 Codeforces 上,R1-Zero 达到了超过 96.3%人类选手的水平。这种跨域表现表明,模型不是在死记硬背特定领域的解题技巧,而是掌握了某种普适的推理能力。

3.一个聪明,但口齿不清的天才

尽管 R1-Zero 展现出了惊人的推理能力,但研究者们很快发现了一个严重的问题:它的思维过程往往难以被人类理解。

论文坦诚地指出,这个纯强化学习训练出来的模型存在"poor readability"(可读性差)和"language mixing"(语言混杂)的问题。

这个现象其实很好理解:R1-Zero 完全通过奖惩信号来优化其行为,没有任何人类示范的"标准答案"作为参考。就像一个天才儿童自创了一套解题方法,虽然屡试不爽,但向别人解释时却语无伦次。它在解题过程中可能同时使用多种语言,或者发展出了某种特殊的表达方式,这些都让其推理过程难以被追踪和理解。

正是为了解决这个问题,研究团队开发了改进版本 DeepSeek-R1。通过引入更传统的"cold-start data"(冷启动数据)和多阶段训练流程,R1 不仅保持了强大的推理能力,还学会了用人类易懂的方式表达思维过程。这就像给那个天才儿童配了一个沟通教练,教会他如何清晰地表达自己的想法。

在这一调教下之后,DeepSeek-R1 展现出了与 OpenAI o1 相当甚至在某些方面更优的性能。在 MATH 基准测试上,R1 达到了 77.5%的准确率,与 o1 的 77.3%相近;在更具挑战性的 AIME 2024 上,R1 的准确率达到 71.3%,超过了 o1 的 71.0%。在代码领域,R1 在 Codeforces 评测中达到了 2441 分的水平,高于 96.3%的人类参与者。

Image

然而,DeepSeek-R1 Zero 的潜力似乎更大。它在 AIME 2024 测试中使用多数投票机制时达到的 86.7%准确率——这个成绩甚至超过了 OpenAI 的 o1-0912。这种"多次尝试会变得更准确"的特征,暗示 R1-Zero 可能掌握了某种基础的推理框架,而不是简单地记忆解题模式。

论文数据显示,从 MATH-500 到 AIME,再到 GSM8K,模型表现出稳定的跨域性能,特别是在需要创造性思维的复杂问题上。这种广谱性能提示 R1-Zero 可能确实培养出了某种基础的推理能力,这与传统的特定任务优化模型形成鲜明对比。

所以,虽然口齿不清,但也许 DeepSeek-R1-Zero 才是真正理解了推理的“天才”。

4.纯粹强化学习,也许才是通向 AGI 的意外捷径

之所以 DeepSeek-R1 的发布让圈内人的焦点都投向了纯强化学习方法,因为它完全可以说得上是打开了 AI 进化的一条新路径。

R1-Zero——这个完全通过强化学习训练出来的 AI 模型,展现出了令人惊讶的通用推理能力。它不仅在数学竞赛中取得了惊人成绩。

更重要的是,R1-Zero 不仅是在模仿思考,而是真正发展出了某种形式的推理能力。

因为在过往的训练方法中,尤其在监督微调中使用训练好的神经网络来评估质量的话,模型可能学会触发奖励模型的特定模式,生成对奖励模型"口味"的内容,而不是真正提升推理能力。换句话说,AI 系统找到了获得高奖励但实际上违背训练目标的投机取巧方式。这就是我们常说的奖励欺骗(reward hacking)。但 R1-Zero 用极简的奖励规则基本避免了奖励欺骗的可能性——规则太简单了,没有什么“口味”可以去模仿。模型在这个情况下发展出的推理能力更可信,也更自然

这个发现可能会改变我们对机器学习的认识:传统的 AI 训练方法可能一直在重复一个根本性的错误,我们太专注于让 AI 模仿人类的思维方式了,业界需要重新思考监督学习在 AI 发展中的角色。通过纯粹的强化学习,AI 系统似乎能够发展出更原生的问题解决能力,而不是被限制在预设的解决方案框架内。

虽然 R1-Zero 在输出可读性上存在明显缺陷,但这个"缺陷"本身可能恰恰印证了其思维方式的独特性。就像一个天才儿童发明了自己的解题方法,却难以用常规语言解释一样。这提示我们:真正的通用人工智能可能需要完全不同于人类的认知方式。

这才是真正的强化学习。就像著名教育家皮亚杰的理论:真正的理解来自于主动建构,而不是被动接受。

END

作者:郝博阳
文章来源:腾讯技术工程

推荐阅读

更多腾讯 AI 相关技术干货,请关注专栏腾讯技术工程 欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。
推荐阅读
关注数
8158
内容数
244
腾讯AI,物联网等相关技术干货,欢迎关注
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息