头图

​OpenAI 最新公告

OpenAI 近日宣布对 o1-mini 和 o1-preview 的消息使用限额进行了提升,让 Plus 和 Team 用户可以更频繁地体验 o1 系统。具体来说,o1-mini 的限额从每周 50 条增加到了每天 50 条,而 o1-preview 的限额则从每周 30 条提升到了每周 50 条。

图片

o1 深度解析

OpenAI 推出的创新推理系统 o1,是应对复杂任务的又一重要突破。该系统基于先前成功的 Q*[2],并受到了 Strawberry[3] 项目传闻的启发。通过对长推理链的大量强化学习训练,o1 展现了卓越的能力,并成功进行了大规模投放使用。

推理机制:任务处理方式的革新

o1 系统与传统的自回归语言模型有显著区别。传统模型通常按照给定的输入顺序生成文本,而 o1 在推理过程中通过在线搜索,以完成复杂的思维过程。o1 会生成长推理链,并结合强化学习,在解决复杂问题时表现得尤为出色。

在调用 o1 模型时,系统会生成多个推理候选项并对其评分,从而评估这些候选方案的质量。这一并行生成和评估的过程使模型能够探索更广泛的解决方案空间,最终找到最优答案。

o1 的方法类似于人类的思考过程:考虑多种方案,评估其可行性,然后选择最佳方案。o1 将这一人类思维的方式植入 AI 模型,使其在处理复杂任务时更加智能。

图片

o1 的推理机制更接近于一个闭环控制系统。它不仅生成答案,还会根据反馈不断调整和优化自己的推理路径,使其在推理过程中能纠正错误,避免陷入思维误区。

强化学习:创新的训练方法

o1 的核心在于通过大规模的强化学习进行训练,使模型能够在复杂的推理任务中逐步改进其思维链。OpenAI 表示,他们采用高度数据高效的强化学习算法,教会模型如何有效利用其推理链。

传统的强化学习方法通常对整体生成的文本给予一个整体的奖励或惩罚,这让模型难以理解具体问题所在。为解决这一问题,o1 采用了过程奖励模型(Process Reward Model),对推理链中每一步进行评分。

强化学习的成功很大程度上依赖于模型在状态空间中的探索能力。o1 能够在广泛的状态空间中探索,寻找最优的解题路径。此外,o1 在处理超长的推理链时表现出色,能够处理长达 10 万到 20 万个 tokens 的推理过程,这在过去的强化学习应用中是前所未有的。

推理成本:为何昂贵?

o1 推理成本高昂主要归因于其复杂的生成和评估机制。传统的自回归模型常采用顺序生成,而 o1 在每个推理步骤生成多个候选项并对其进行评分,这种并行解码策略需要大量计算资源。

图片

具体而言,o1-preview 的定价为每百万个输入 tokens 收费 15 美元,每百万个输出 tokens 收费 60 美元。即便用户只看到简短的答案,背后可能已进行了大量计算。

OpenAI 提出了新的“推理扩展定律”(inference scaling laws),即随着推理计算的增加,模型性能也会持续提升。这与传统的预训练模型不同,后者在达到一定规模后性能提升趋于平缓。OpenAI 的研究显示,增加推理计算资源能够大幅提升模型在各项基准测试中的性能,这表明投入更多计算资源是值得的。

部署 o1 需要全新的服务基础设施。传统语言模型通常采用顺序生成并缓存输出步骤,而 o1 需要在推理过程中进行并行生成和评估,这对基础设施提出了更高要求,这也是导致o1推理成本高的原因之一。

图片

以上是对 OpenAI 最新公告及其推理系统 o1 的详细解析,展示了其在 AI 技术领域的又一重大创新。


已注销
1 声望0 粉丝