微软研究人员创建了超级高效的 AI,其使用的能量最多可减少 96%var abtest_2090094 = new ABTest(2090094, '点击');

主要观点:

  • 多数现代 AI 模型依赖 16 或 32 位浮点数存储数值权重,精度高但内存和计算资源消耗大。
  • 微软通用人工智能组发布新神经网络模型 BitNet,仅用 -1、0、1 三种权重值,架构更简单,计算效率高,可在简单桌面 CPU 上有效运行,性能可与类似规模的全精度模型媲美。
  • 简化模型权重在 AI 研究中不是新想法,BitNet 基于之前工作,是首个大规模开源原生 1 位 LLM。
  • 减少模型内部权重复杂度的优势包括降低内存需求、更高效的推理操作、节能以及运行速度快等,且在多个基准测试中性能与全精度模型相近,但研究人员仍不明白其为何能如此有效。

关键信息:

  • 现代 AI 模型常用 16 或 32 位浮点数存储权重。
  • BitNet 用三种权重值,基于 2023 年微软研究成果,是首个大规模开源原生 1 位 LLM。
  • BitNet 内存需求小,推理操作更高效,节能且运行速度快,多个基准测试性能相近。
  • 研究人员不理解 BitNet 简化权重后为何能有效工作,仍需更多研究与更大规模模型竞争。

重要细节:

  • 浮点数精度高但内存和计算资源消耗大,如最大模型需数百 GB 内存。
  • BitNet 平均需 1.58 位表示三种权重值,与之前量化技术不同。
  • BitNet b1.58 模型内存仅 0.4GB,内部操作更依赖加法指令,节能 85 - 96%,在 Apple M2 CPU 上运行快,可下载优化内核在多种 CPU 上运行或使用网页演示。
  • 在多个基准测试中 BitNet 性能与全精度模型相近,但研究人员未独立验证该结论。
阅读 9
0 条评论