Meta 的意外 Llama 4 发布暴露了 AI 野心与现实之间的差距 var abtest_2087242 = 新的 ABTest(2087242, '点击');

主要观点:Meta 在周末意外发布新的 Llama 4 多模态 AI 模型,虽宣称有重大进步和顶级性能,但初获混合至负面评价,凸显 AI 营销与用户体验的矛盾。
关键信息

  • 发布时间为周六,模型有 Llama 4 Scout 和 Llama 4 Maverick,Scout 有 1000 万 token 上下文窗口。
  • 获 AI 社区初评不一,独立研究员 Simon Willison 称氛围一般,常关注开源 AI 发布动态。
  • Meta 虽称与 OpenAI 和 Google 竞争,却有许可限制,更准确说是“开放权重”模式,可从 Hugging Face 或 llama.com 下载两小模型。
  • 新模型为“原生多模态”,用“早期融合”技术处理文本和图像,与 OpenAI 和 Google 的多模态模型竞争。
  • 用更大未发布的“教师”模型 Llama 4 Behemoth 训练,采用混合专家(MoE)架构,减少计算需求。
  • 模型短期记忆有限,Scout 的大上下文窗口因内存限制使用困难,Meta 自己的示例笔记本显示运行大上下文需多高端 GPU,Willison 测试发现输出无用。
  • Llama 4 Maverick 在某些技术基准上超竞争对手,但独立验证有限,Chatbot Arena 排行榜上版本有区别。
  • 发布引发讨论,包括对多模态功能、MoE 架构、发布管理等的不满,与其他创新竞争者对比表现不佳,研究者认为这强化对传统单一大模型的怀疑,GPT-4.5 发布也类似,AI 领域存在训练大规模基础模型的 scaling 限制。Willison 对未来 Llama 4 版本乐观。
    重要细节
  • Llama 4 Maverick 有 4000 亿参数,一次只有 170 亿参数在 128 个专家中激活;Scout 有 1090 亿参数,一次 170 亿参数在 16 个专家中激活。
  • 第三方服务提供的 Scout 上下文限制在 128000 或 328000 tokens,Meta 示例笔记本运行 140 万 token 上下文需 8 个高端 NVIDIA H100 GPU。
  • Llama 4 现居 Chatbot Arena LLM 排行榜第二,但与下载的 Maverick 模型不同。
阅读 8
0 条评论