音乐出版商在版权诉讼中获得初步胜利
周四,音乐出版商在针对Anthropic的Claude聊天机器人未经许可使用歌词的版权诉讼中取得了一个小胜利。美国地区法官Eumi Lee发布了一项命令,概述了Anthropic与出版商之间达成的协议,该协议解决了诉讼中的部分争议。
协议内容
根据协议,Anthropic不承认任何过错,并同意在诉讼期间继续维持其AI模型和产品的现有防护措施。Anthropic在法庭文件中多次声称,这些防护措施有效防止了输出包含实际歌词的内容,例如Beyonce的《Halo》、Spice Girls的《Wannabe》、Bob Dylan的《Like a Rolling Stone》等500首歌曲的歌词。
更重要的是,Anthropic还同意将同样严格的防护措施应用于任何新产品或服务,并授予法院在出版商发现更多涉嫌侵权输出时进行干预的权力。在寻求干预之前,出版商可以通知Anthropic任何涉嫌有害的输出,包括包含部分或完整歌词的输出,以及模仿著名艺术家歌词风格的衍生作品。Anthropic将在快速审查后提供“详细回应”,解释任何补救措施或“明确”声明“不处理该问题”的意图。
尽管该协议并未解决出版商关于Anthropic训练AI模型时使用受版权保护作品是否侵权的更大争议,但这一协议可能是一个重要的让步,因为它可能增加了更多的问责机制。
Anthropic的反转与妥协
Anthropic最初在法庭文件中辩称,防止有害输出的救济请求“没有实际意义”,并指责出版商“故意”在旧版Claude上设计提示以产生普通用户不会看到的输出。这一反驳促使出版商在9月寻求专家Ed Newton-Rex的帮助,他进行了自己的测试,发现Claude的防护措施存在两个“简单”的漏洞,能够生成诉讼中46首歌曲的部分或全部歌词。
尽管Anthropic试图将这一证据排除在外,但出版商坚持认为他们需要“纠正记录”,证明存在“持续伤害”需要禁令。最终,Anthropic同意达成协议,尽管他们仍然认为使用受版权保护的材料训练AI模型是典型的合理使用。
AI训练是否侵权的争议仍未解决
目前,Anthropic的防护措施是否足以阻止有害输出的问题已经解决,但AI训练是否侵犯版权的问题仍然悬而未决。Anthropic在反对初步禁令的动议中表示,是否可以在未经许可的情况下使用受版权保护的内容训练大型语言模型(LLM)正在全国范围内约24起版权侵权案件中进行诉讼,但尚未有任何案件试图在初步禁令动议的框架下解决这一问题。
Anthropic的发言人表示,Claude并非设计用于版权侵权,并且公司有多种措施防止此类侵权行为。他们期待在现有版权法框架下证明使用受版权保护的材料训练AI模型是合理使用。
诉讼的未来
此案可能需要数月时间才能完全解决,因为AI训练是否属于合理使用的问题复杂且仍在法庭上激烈争论。对于Anthropic来说,败诉的代价可能很高,可能面临超过7500万美元的罚款,甚至可能被迫公开并销毁其训练数据中的所有受版权保护作品。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。