揭穿大型语言模型的智能:幕后究竟发生了什么?

主要观点:

  • 大型语言模型(LLMs)有生成文本等能力,但存在它们是否真理解所表达内容的疑问,这是当前人工智能辩论的核心。
  • 一方面,LLMs 成就显著,能翻译等;另一方面,分析者强调其本质是统计机器,只是识别词间模式,不一定理解所产生内容的深层意义。
  • 关于 LLM 理解的问题存在分歧,一些人认为其在走向真正理解,另一些人认为只是复杂模拟器。
  • 需揭开有时被错误归因于它们的人类“思考”能力的神秘面纱,Apple 研究团队的研究证明了这一点。
  • 以“WHAT HAPPENED TO HIM? - P > 0.05” meme 为例,展示 LLM 的技术能力和计算本质与人类意识的根本区别。

关键信息:

  • LLM 训练基于大量文本数据,如 Gemini 或 ChatGPT 训练数据达数百 TB,包含数十亿文本和 multimodal 元素及参数。
  • 分析 meme 时,多种算法起作用,如自然语言处理、视觉识别/OCR、Transformer 神经网络等。
  • LLM 的“推理”是基于大量数据中观察到的相关性的复杂统计推断,缺乏对抽象意义等的理解,与人类思维有根本区别。
  • 人类有意识、经验和情感,能创造新意义,而 LLM 仅基于规则和概率执行任务,有偏见等问题。

重要细节:

  • LLM 能解释 meme 是因为能识别视觉和文本元素,理解文化背景和抽象概念并合成信息。
  • 分析 meme 时,LLM 先提取识别关键信息,激活相关知识,再合成响应,通过识别训练中学到的语义关联来构建解释。
  • 人类与 LLM 应智能协作,各自发挥优势,充分利用系统能力而不赋予其不应有的品质。
阅读 186
0 条评论