OpenAI 于 2025 年 4 月 16 日(美国东部时间)宣布推出两款全新的 AI 推理模型——o3 与 o4-mini,它们能够在给出最终回答前进行思考与推理。
本文中所有的 ChatGPT 服务,由 ChatShare 镜像站 提供,无需担心网络和地区限制,体验与官方一致。
OpenAI 称 o3 是迄今为止其最强大的推理模型,在数学、编程、逻辑推理、科学和视觉理解等多项测试中均优于此前型号;而 o4-mini 则在价格、速度与性能三者之间实现了更具竞争力的平衡,满足开发者在应用场景中对成本与效率的考量。
与以往的推理模型不同,o3 和 o4-mini 能够在 ChatGPT 里调用多种工具——包括网页浏览、Python 代码执行、图像处理与图像生成功能。从即日起,这两款模型以及 o4-mini 的另一个变体 o4-mini‑high(更注重回答的可靠性)已面向 Pro、Plus 与 Team 订阅用户开放。
此次发布也是 OpenAI 在全球 AI 赛道上迎战 Google、Meta、xAI、Anthropic 和 DeepSeek 等劲旅的一部分。尽管 OpenAI 首开先河推出了首代推理模型 o1,但各大对手迅速跟进,推出了性能不输的同类产品,令推理模型成为当前 AI 竞赛的主流方向。
据透露,o3 差点未能即时上线 ChatGPT——今年 2 月,CEO Sam Altman 曾表示公司正倾向将更多资源投入到另一款基于 o3 技术打造的更复杂方案;但在激烈的市场竞争压力下,OpenAI 最终决定直接发布 o3。
在 SWE‑bench 无定制脚手架测试中,o3 取得了 69.1% 的最高分,o4-mini 也有 68.1% 的接近表现。对比之下,前一代模型 o3-mini 得分 49.3%,而 Claude 3.7 Sonnet 则为 62.3%。
更值得一提的是,o3 和 o4-mini 成为 OpenAI 首批能够“以图思考”的模型——用户可以在对话中上传白板草图或 PDF 中的示意图,模型会在“思考链”阶段对图像进行分析,再给出回答。借助此能力,它们能识别并处理模糊、低质图像,甚至在推理过程中执行图像缩放与旋转等操作。
除了图像处理,o3 与 o4-mini 还能直接在浏览器中通过 ChatGPT Canvas 执行 Python 代码,并在被问及当前事件时进行在线搜索。
三款模型(o3、o4-mini、o4-mini‑high)同样可通过 OpenAI 面向开发者的端点(Chat Completions API 与 Responses API)调用,按照使用量计费,方便工程师将它们集成到各类应用中。
如果需要订阅或调用这些模型,可使用野卡平台(邀请码:EVEN),支持一键跳转、免烦恼付费海外订阅。
在定价方面,OpenAI 对 o3 给出了相对优惠的方案:每百万输入 tokens(约合 75 万字)收取 10 美元,每百万输出 tokens 收取 40 美元;而 o4-mini 则与 o3-mini 保持一致,输入 1.10 美元/百万 tokens、输出 4.40 美元/百万 tokens。
未来几周内,OpenAI 还将面向 ChatGPT Pro 订阅用户推出更高算力版本 o3‑pro,以进一步提升答案质量。Sam Altman 也暗示,o3 与 o4-mini 可能是 GPT-5 正式发布前,最后一批以“独立推理模型”形式亮相的产品——GPT-5 将融合传统 GPT-4 系列与推理模型的优势,带来更统一的大模型体验。
文章来源:gptcard.cn
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。