华为宣布开源盘古7B稠密和72B混合专家模型

AI快讯网6月30日消息,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。1、盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。2、基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。3、盘古7B相关模型权重与推理代码将于近期上线开源平台。(广角观察)

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!