华为宣布开源盘古7B稠密和72B混合专家模型

广东

华为盘古大模型开源发布总结

📅 发布信息

  • 时间:2025年6月30日
  • 地点:中国深圳
  • 发布方:华为

🚀 核心发布内容

华为正式宣布开源三项重要技术:

1. 盘古7B稠密模型

  • 参数规模:70亿参数
  • 模型类型:稠密模型
  • 状态:模型权重与推理代码将于近期上线

2. 盘古Pro MoE 72B混合专家模型

  • 参数规模:720亿参数
  • 模型类型:混合专家模型(MoE)
  • 状态:模型权重、基础推理代码已正式上线

3. 基于昇腾的模型推理技术

  • 技术特点:超大规模MoE模型推理
  • 硬件平台:基于昇腾芯片
  • 状态:推理代码已正式上线

🎯 战略意义

昇腾生态战略

  • 这是华为践行昇腾生态战略的关键举措
  • 推动大模型技术的研究与创新发展
  • 加速人工智能在千行百业的应用与价值创造

🌐 开放合作

目标群体

  • 全球开发者
  • 企业伙伴
  • 研究人员

合作方式

  • 提供开源平台下载
  • 欢迎使用反馈
  • 共同完善技术

访问地址

开源平台https://gitcode.com/ascend-tribe

📋 关键要点

  1. 技术突破:华为在大模型领域实现重要开源突破
  2. 规模优势:涵盖7B到72B不同参数规模的模型
  3. 技术多样性:包含稠密模型和MoE混合专家模型
  4. 硬件结合:与昇腾芯片深度结合的推理优化
  5. 生态建设:通过开源推动AI生态发展
  6. 产业应用:面向千行百业的AI应用落地

这一发布标志着华为在AI大模型领域的重要里程碑,通过开源策略推动技术普及和生态繁荣。

阅读 489
0 条评论