可以吗?

这是一篇关于语言模型的长文,主要探讨了语言模型是否可以基于整个互联网(Everything)进行训练以及这种训练方式的道德和实际影响。

  • 语言模型的训练方式:通过构建代码框架,利用大量从互联网上抓取的文本进行训练,速度和规模影响着对其安全性和许可性的判断,人类无法像语言模型那样处理大量请求。
  • 语言模型与Everything的关系:语言模型依赖于Everything,其价值很大一部分来自于Everything,如数据和计算(包括软件和硬件)。新颖的训练数据也往往是由已在Everything上训练过的语言模型生成的。虽然有人试图创建新的大规模文本,但很难达到Everything的深度和丰富度。
  • 语言模型的应用及影响

    • 如果语言模型的主要应用是取代人类创作,那么是不可以的,这是对人类创作的破坏。
    • 如果语言模型通过收集和沉淀各种写作原因成为通用的推理器,且大部分“输出”不被阅读,而是默默运行,那么可能是可以的,比如在科学、医学等领域可能带来巨大帮助。目前对于超级科学是否会实现还不确定,但可能性在10%到50%之间。
    • 不同类型的语言模型应用情况不同,如图像生成模型可能不太好,前沿的语言模型如Claude可能较好,翻译模型在没有超级科学的情况下也可能证明这种对公共领域的利用是合理的,代码应用则已经带来了深刻的公共利益。
  • 结论和展望:如果AI应用能带来深远的公共利益,其价值基于对公共领域的前所未有的利用可能是可以的;如果只是简单地复制Everything则可能不行。同时,作者认为一些潜在的政策措施可以平衡价值分配,且不应为AI公司在法律上扫清障碍,让它们在新领域探索。

总的来说,这篇文章深入思考了语言模型与公共领域的关系以及其可能带来的影响,引发了对这一新兴技术的多方面思考。

阅读 8
0 条评论