ChatGPT 是胡说八道

主要观点:大型语言模型(LLMs)如 ChatGPT 近年来愈发复杂且有说服力,引发对其活动本质及与真相联系的思考,作者认为其输出为“扯淡”(bullshitting)而非说谎或幻觉。
关键信息

  • ChatGPT 基于大量文本和概率计算生成看似人类创作的文本,虽能模拟人类对话但与人类思维目标不同,其主要目标是生成类似人类的文本。
  • 该模型存在“AI 幻觉”问题,即产生错误信息,如律师用其准备文件时发现引用案例不实等,虽有连接数据库等解决办法但效果不佳。
  • 对 ChatGPT 错误陈述的常见描述“幻觉”不准确,作者认为应称为“扯淡”。“扯淡”在哲学上有特定含义,与说谎不同,说谎需有意欺骗,而扯淡是对真相的漠视。
  • 可将“扯淡”分为“硬扯淡”(有意图误导听众关于发言者的意图)和“软扯淡”(无此意图),ChatGPT 至少是软扯淡,即便它没有意图,也因设计目的而产生看似关注真相实则不然的输出。
    重要细节
  • ChatGPT 通过构建大规模统计模型,基于大量文本估计单词出现的概率来生成文本,其生成过程中对单词的向量表示及上下文分析存在局限性,导致难以确定所代表的意义和上下文相似性。
  • 模型的“温度”参数控制其生成文本的创造性和产生错误的可能性,增加温度会使文本更具创造性但更易出错。
  • 关于 ChatGPT 是否为硬扯淡存在争议,一方面其创作者和用户可能有意图,另一方面从其设计功能看,它旨在模仿人类对话以欺骗读者关于其议程,虽不具备人类的意图和信念,但从某种意义上可视为硬扯淡。
  • 作者反对用“幻觉”描述 ChatGPT 的错误,认为该术语会导致误解,而“扯淡”更准确,能避免将机器拟人化及暗示其有感知或记忆等活动,同时强调用“扯淡”描述更有利于科学技术交流。
阅读 10
0 条评论