人类智能公司提出透明度框架以保障前沿人工智能的发展

Anthropic 提出了一个新的透明度框架,旨在解决前沿人工智能模型开发中日益增长的问责需求。该提案关注正在开发强大人工智能模型的大型 AI 公司,以计算能力、成本、评估性能和年度研发支出等因素为特征。目标是建立一套标准,确保安全、降低风险并增加公众对这些先进 AI 系统开发和部署的可见性。

该框架的一个核心方面是实施安全开发框架(SDFs),这将要求大型 AI 公司评估和减轻与其模型相关的潜在灾难性风险。这些风险包括化学、生物和放射性危害,以及由模型自主性失调引起的伤害。提案指出,这些框架不仅应解决风险缓解问题,还应确保负责任地处理 AI 开发过程。

该框架的关键要求之一是公开披露。根据拟议的法规,AI 公司将被要求通过注册网站公开其SDFs,提供其安全实践的透明度。这将允许研究人员、政府和公众访问有关正在部署的模型的重要信息,确保安全标准得到满足,任何风险都得到适当管理。此外,公司将被要求发布系统卡,提供模型测试程序、评估结果和实施的缓解措施的摘要。此文档需要在模型修订或添加新功能时进行更新。

该框架还提议较小的开发者和初创公司免于这些要求。相反,法规将适用于大型 AI 公司,其模型有可能造成重大伤害,例如那些具有大量计算能力或财务资源的公司。该豁免旨在避免给较小的公司带来不必要的负担,同时仍将监管努力集中在该领域的最大参与者上。

此外,提案包括执行合规的具体规定。AI 公司提供关于其遵守框架的虚假或误导性陈述将是违法的,确保在必要时可以应用举报人保护。执行机制将允许总检察长对违规行为追究民事处罚,有助于维护系统的完整性。

社区反应反映了对最近全球 AI 监管讨论的乐观、怀疑和实际担忧的混合。

AI 专家Himanshu Kumar在 X 上评论:

促进开源 AI 开发对于安全创新难道不是也至关重要吗?

与此同时,用户怀疑观察者评论:

由谁执行?这感觉非常以美国为中心。中国实验室或此范围之外的其他实验室呢?举报人保护听起来不错,但如果没有全球影响力,它只是一个创可贴。希望他们在 AI 安全峰会上澄清这一点!

最终,拟议的透明度框架旨在在确保AI 安全和促进持续创新之间取得平衡。虽然该框架为透明度设定了最低标准,但它故意避免过于规定性,允许 AI 行业随着技术的不断发展而适应。通过促进透明度,该框架旨在为 AI 开发者建立明确的问责制,帮助政策制定者和公众区分该领域负责任和不负责任的实践。如果需要,这可以作为进一步监管的基础,提供必要的证据和见解,以确定随着 AI 模型的进步是否需要额外的监督。

阅读 2
0 条评论