爱奇百科 手机版
您的位置: 首页 > 稠密 >
  • 重磅:华为开源盘古7B稠密和72B混合专家模型

    6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。1. 盘古Pro MoE 72B模型权重、基础推理代码,

    2025-06-30 12:36:00

热门文章

最新文章