OpenAI发布Sora及完整版O1推理模型,支持微调

OpenAI发布o1推理模型和Sora视频生成模型

OpenAI近日宣布了其o1推理模型的完整版本以及视频生成模型Sora的发布。此次发布还包括一个独立的微调API的推出。

o1推理模型的主要特点

o1模型采用了“链式思维”(Chain-of-Thought)技术,能够在生成响应之前进行复杂的、逐步的思考过程,使其在需要细致推理的任务中表现出色。该模型通过公共、专有和定制数据集的混合进行训练,采用了更慢、更慎重的推理方式。开发者可以通过API为每个用户提示指定自定义的开发者消息。

安全性和评估

安全性是o1系列的核心,OpenAI推出了多项评估措施,以避免越狱尝试和偏见行为。OpenAI发布的评估显示,o1在避免良性上下文中的过度拒绝方面优于GPT-4。该模型的推理能力还包括遵守OpenAI的指令层次结构,确保系统指令优先于开发者和用户提示。尽管取得了这些进展,但在多模态输入等领域,实现精确的拒绝边界仍然是一个挑战。

红队测试

红队测试在o1模型的能力和局限性测试中发挥了作用,专家们探索了网络安全、生物和放射威胁以及说服性操纵等领域。虽然模型的安全机制在大多数情况下成功抵御了高风险场景,但其响应的细节和深度偶尔会在拒绝被绕过时放大风险。OpenAI通过与外部评估者合作和使用其准备框架来尝试缓解这一问题。

Sora视频生成模型

Sora模型允许用户创建长达20秒的1080p分辨率视频,输入格式包括文本描述、现有图像和视频。Sora基于DALL·E和GPT架构,采用扩散方法保持多帧视觉元素的一致性。其训练技术包括重新标注,以实现更忠实的文本对齐。

Sora建立在视觉补丁概念的基础上,视频被压缩到低维潜在空间并分为时空补丁,以实现可扩展的表示和处理。OpenAI在公共数据集、通过合作伙伴关系获得的专有资源以及内部设计的定制数据集的混合基础上对Sora进行了训练。强大的预训练过滤机制确保在数据到达模型之前删除显式、暴力或敏感内容。

未来发展方向

Sora的未来迭代将继续完善其功能和保障措施,重点是代表性、来源和伦理对齐。减少输出中的偏见和增强分类器性能的努力反映了该模型的迭代开发理念。

开发者资源

对o1感兴趣的开发者可以查看其系统卡,对Sora感兴趣的开发者可以查看其系统卡。开发者还可以在接下来的几天里关注InfoQ,了解Canvas、Apple Intelligence中的ChatGPT以及OpenAI其他功能的更多信息。

阅读 17
0 条评论