OpenAI发布新的微调API功能

OpenAI 发布微调 API 新功能

OpenAI 宣布在其微调 API 中推出新功能,这些功能将为模型开发者提供更多的控制权和更深入的模型性能洞察。

主要更新内容

  1. 模型检查点:在微调过程中,开发者可以在每个训练周期后创建模型检查点。
  2. 验证数据集指标计算:提供对整个验证数据集的指标计算功能。
  3. 第三方集成:支持与第三方工具(如 Weights and Biases)的集成。
  4. 微调仪表板更新:开发者可以更好地控制训练超参数和任务,并获得更详细的指标洞察。
  5. 模型对比功能:模型游乐场新增了并排模型对比功能,用户可以输入单一提示并比较不同标准和微调模型的输出。
  6. 自定义模型计划更新:OpenAI 推出了辅助微调服务,OpenAI 团队将与组织合作,帮助微调模型。

自定义模型计划

OpenAI 认为未来大多数组织将开发针对其行业、业务或使用场景的定制模型。通过多种技术,各种规模的组织都可以开发个性化模型,以实现更具意义和特定影响的 AI 应用。关键在于明确使用场景、设计和实施评估系统、选择合适的技术,并准备随着时间的推移进行迭代以达到最佳性能。

微调模型的优势

尽管基础模型(如 GPT-3.5 和 GPT-4)在各种任务上表现良好,但微调模型在特定任务上表现更优,或可以展示特定的行为模式。此外,这些模型通常需要较少的提示,因此可以以更低的成本和延迟运行。

历史背景

OpenAI 在 2023 年首次推出微调 API,自那时起,OpenAI 声称已经训练了“数十万个模型”。在 2023 年开发者日上,OpenAI 宣布了自定义模型计划,该计划中“选定”的组织可以与 OpenAI 的研究人员合作,修改训练过程的任何步骤,从头开始为组织定制模型。OpenAI 声称,该计划中的一个客户构建的自定义模型在事实回应方面提高了“83%”。

社区反馈

在 Hacker News 的讨论中,有用户指出,如果之前尝试过微调 OpenAI 模型但对结果不满意,现在值得再次尝试,因为 OpenAI 在过去几个月进行了未公开的改进,使得微调模型更加强大。然而,用户也发现 Mixtral 的微调模型通常优于 GPT-3.5 的微调模型,并且服务成本更低。

其他资源

OpenAI 的 YouTube 频道包含 2023 年开发者日的演讲,比较了不同的性能改进技术,包括微调和提示工程。OpenAI 文档还提供了微调替代方案的建议,包括提示工程和函数调用。

阅读 23
0 条评论